No data was found

Así gestiona ChatGPT tus datos y cómo proteger tu privacidad

El avance de la inteligencia artificial ha modificado profundamente la rutina diaria, desde la escritura de correos hasta el manejo de información compleja. De acuerdo con OpenAI, ChatGPT ya cuenta con 900 millones de usuarios activos semanales a inicios de este año, lo que demuestra su gran alcance. No obstante, este crecimiento trae consigo preguntas esenciales sobre el manejo de datos personales y sensibles que los usuarios comparten en la plataforma.

El especialista en seguridad informática de ESET Latinoamérica, Mario Micucci, aclara que la idea de que las conversaciones en ChatGPT desaparecen al cerrar la ventana es incorrecta. En realidad, la información pasa por tres fases principales:

Almacenamiento e historial: los mensajes enviados se guardan en los servidores de OpenAI. Esto permite acceder al historial desde distintos dispositivos y mantener el contexto de la conversación. En algunos casos, los datos pueden conservarse hasta por 30 días, principalmente para labores de seguridad y supervisión de posibles abusos.

Los datos ingresados pueden ser usados por OpenAI para entrenar modelos, a menos que el usuario cambie la configuración de privacidad. (Reuters)

Entrenamiento de modelos: OpenAI utiliza por defecto las conversaciones de las versiones gratuita y Plus para mejorar sus modelos. Esto no ocurre con las cuentas Business, Enterprise, Edu, Healthcare ni con el uso de la API, donde el entrenamiento con datos de usuario está desactivado por omisión.

Este punto representa el mayor desafío para la privacidad, ya que fragmentos de información confidencial podrían terminar siendo procesados para perfeccionar la inteligencia artificial. “Los modelos de lenguaje pueden memorizar fragmentos de sus datos de entrenamiento y, en determinadas circunstancias, esta información puede ser extraída mediante técnicas especializadas”, explica Micucci.

Revisión humana: para asegurar la calidad y seguridad de las respuestas, una muestra de diálogos anonimizados es examinada por personal capacitado. Estos profesionales leen fragmentos de conversaciones para detectar contenido ofensivo o peligroso. Así, no solo los algoritmos pueden acceder a lo escrito, sino también personas reales, aunque bajo protocolos de anonimización.

Riesgos para la privacidad y amenazas externas

El mayor peligro, según Micucci, radica en que la inteligencia artificial “aprenda” patrones de los textos compartidos y los reproduzca en respuestas futuras de forma general. “Ingresar información confidencial puede exponer a la pérdida de control sobre información sensible y a riesgos de memorización o extracción de datos ya documentados en investigaciones sobre modelos de lenguaje, subraya.

Las credenciales de acceso a ChatGPT se han convertido en un objetivo para ciberdelincuentes en la Dark Web. (Europa Press)

Por ello, se recomienda que material estratégico, código propietario, credenciales, datos de clientes o documentos internos solo se utilicen en herramientas de IA validadas por la empresa y con controles estrictos de privacidad.

ESET también advierte sobre la creciente amenaza externa que representan los ciberdelincuentes interesados en las credenciales de acceso a ChatGPT. La plataforma, por su utilidad y la cantidad de datos sensibles que maneja, se convierte en un objetivo atractivo para el espionaje industrial y el robo de identidad. En 2024, más de 225.000 registros de inicio de sesión de ChatGPT aparecieron a la venta en foros de la Dark Web. Este fenómeno, facilitado por malware del tipo infostealer, demuestra que el riesgo no solo está en lo que se escribe, sino también en quién puede acceder al historial si una cuenta es comprometida.

Cómo proteger tus datos

Para mitigar estos riesgos, ESET propone estas medidas prácticas:

1. Anonimización y gestión del comportamiento: La primera defensa es el sentido común. Nunca debe ingresarse información que no se compartiría públicamente. Se recomienda reemplazar nombres de clientes con alias, omitir valores financieros específicos y evitar incluir fragmentos de código con claves de acceso o vulnerabilidades. Una vez procesados por la inteligencia artificial, eliminar estos datos por completo resulta técnicamente complejo.

El uso de contraseñas fuertes y la autenticación de dos factores ayudan a proteger los datos de los usuarios en cualquier plataforma de IA. (Europa Press)

2. Protección de cuentas: Es fundamental el uso de contraseñas robustas y únicas para cada cuenta, junto con la activación de la autenticación de dos factores (2FA) disponible en OpenAI, Google o Anthropic. Además, mantener actualizados el sistema operativo y el antivirus ayuda a prevenir el robo de credenciales mediante programas maliciosos.

3. Control de privacidad y configuración: No se recomienda aceptar la configuración predeterminada. Es preferible explorar el menú de “Controles de datos” de ChatGPT para desactivar el historial de chat y el entrenamiento de modelos. En el caso de Gemini, se puede gestionar la actividad en “Actividad en apps de Gemini” para definir qué información almacena Google. Estas acciones reducen considerablemente la exposición de los datos personales.

El uso de inteligencia artificial como ChatGPT ofrece beneficios claros en productividad y eficiencia, pero exige a los usuarios adoptar una postura activa de protección de sus datos. Optar por configuraciones más estrictas y mantener prácticas seguras constituye la mejor defensa ante los nuevos escenarios de riesgo digital.

Fuente: Infobae

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER