Las únicas versiones de ChatGPT que garantizan por defecto la confidencialidad de los datos son las versiones de pago Team y Enterprise. Mientras tanto, ChatGPT Free y las versiones Plus y Pro tienen activada por defecto la opción de utilizar las conversaciones y archivos compartidos para mejorar sus sistemas de IA. Aunque OpenAI asegura que no emplea esta información con fines comerciales, la OCU recomienda encarecidamente desactivar esta configuración para proteger mejor la privacidad.
El proceso para desactivar esta función es relativamente sencillo y requiere seguir cuatro pasos específicos: primero, acceder a la cuenta personal de ChatGPT desde https://chatgpt.com/; segundo, hacer clic en la foto de perfil situada en la esquina superior derecha y seleccionar Configuración; tercero, dirigirse a la opción Controles de datos en el menú emergente; y por último, desactivar la casilla 'Mejorar el modelo para todos'.
¿Qué datos sigue recopilando ChatGPT después de desactivar el entrenamiento?
A pesar de desactivar la opción de entrenamiento del modelo, es importante tener en cuenta que OpenAI continuará recopilando ciertos datos por motivos operativos, de seguridad y legales. Entre esta información se encuentran los datos básicos de la cuenta (nombre, correo electrónico, método de pago), los datos de uso (número de interacciones, funciones empleadas), información técnica (dirección IP, navegador, sistema operativo), metadatos de la sesión (duración, longitud de los mensajes) y aquellos datos necesarios para cumplir con la normativa vigente y responder a requerimientos legales.
Esta situación plantea un dilema para los usuarios que valoran la privacidad pero desean beneficiarse de las ventajas de las herramientas de IA. Aunque desactivar la opción de entrenamiento supone un paso importante, no garantiza una privacidad completa, ya que parte de la información seguirá siendo almacenada por la plataforma.
Normativa europea sobre IA: nuevas protecciones para los usuarios
La OCU también recuerda que, desde febrero de 2024, la normativa de la Unión Europea sobre IA prohíbe diversas prácticas en la interacción con los usuarios. Entre las prohibiciones destacan la manipulación de personas aprovechando vulnerabilidades por edad, discapacidad o condición socioeconómica; el social scoring o clasificación basada en comportamiento social o características personales; la predicción de delitos basándose únicamente en perfiles o rasgos identitarios; la recopilación masiva de imágenes faciales de internet o sistemas de videovigilancia para bases de datos de reconocimiento facial; la inferencia de emociones en entornos laborales y educativos (excepto por razones médicas o de seguridad); la deducción de rasgos sensibles como raza, religión, orientación sexual u opiniones políticas; y el reconocimiento biométrico en tiempo real en espacios públicos con fines legales, salvo en casos excepcionales como ataques terroristas.
Debido a la reciente implementación de estas medidas protectoras, la OCU insta a las administraciones públicas a informar adecuadamente a los consumidores para que puedan denunciar cualquier práctica que pudiera vulnerar sus derechos fundamentales. Asimismo, solicita que se doten de recursos suficientes a la nueva Agencia Española de Supervisión de Inteligencia Artificial (AESIA), organismo encargado de vigilar el cumplimiento de la normativa y proteger a los usuarios en este ámbito tecnológico en rápida evolución.
OpenAI y la gestión de datos de usuario
OpenAI, la empresa creadora de ChatGPT, ha mostrado una evolución en sus políticas de privacidad desde el lanzamiento inicial de su asistente de IA. La compañía ha ido adaptando progresivamente sus términos de servicio ante la creciente preocupación por la privacidad y las presiones regulatorias, especialmente en el entorno europeo. Este ajuste gradual refleja la tensión existente entre el desarrollo tecnológico, que requiere grandes cantidades de datos para el entrenamiento de los modelos, y la protección de la información personal de los usuarios.
La introducción de opciones para desactivar el uso de datos con fines de entrenamiento representa un avance importante, aunque todavía limitado. Los expertos en privacidad señalan que la configuración predeterminada debería ser la más protectora, siguiendo el principio de privacidad por diseño, en lugar de requerir que los usuarios modifiquen activamente la configuración para proteger sus datos.
¿Cómo afecta esta recopilación de datos a los usuarios españoles?
Para los usuarios españoles, la situación plantea interrogantes específicos relacionados con el cumplimiento del Reglamento General de Protección de Datos (RGPD) de la UE. Aunque OpenAI afirma cumplir con esta normativa, existen zonas grises respecto al tratamiento de datos sensibles que podrían incluirse involuntariamente en las conversaciones con el chatbot.
Los expertos recomiendan a los usuarios españoles no solo desactivar la opción de entrenamiento, sino también adoptar precauciones adicionales como evitar compartir información personal identificable, documentos confidenciales o datos sensibles a través de esta plataforma, independientemente de la versión que utilicen.
Alternativas más seguras para preservar la privacidad
Ante las preocupaciones sobre la privacidad en ChatGPT, algunos usuarios buscan alternativas que ofrezcan mayores garantías en este aspecto. Entre las opciones disponibles se encuentran modelos de IA que pueden ejecutarse localmente en el propio dispositivo del usuario, soluciones empresariales con servidores dedicados o servicios que ofrecen cifrado de extremo a extremo para las conversaciones.
Por otra parte, varias organizaciones están desarrollando asistentes de IA con un enfoque prioritario en la privacidad, lo que podría representar un contrapeso importante al modelo actual dominado por las grandes corporaciones tecnológicas como OpenAI, Google o Anthropic.
En definitiva, mientras la tecnología de IA conversacional continúa avanzando a pasos agigantados, la protección de la privacidad se mantiene como uno de los principales desafíos para su implementación ética y responsable. La recomendación de la OCU de desactivar el uso de datos para entrenamiento en ChatGPT constituye un primer paso importante para los usuarios preocupados por su información personal, pero evidencia la necesidad de un marco regulatorio más robusto y de una mayor transparencia por parte de los desarrolladores de estas tecnologías.
2 comentarios
Para comentar es necesario estar registrado en Menorca - Es diari
Desactives lo que desactives, lo que entra en internet ahí se queda. La privacidad hace tiempo que es solo un concepto abstracto.
Gràcies per publicar-ho