La firma de ciberseguridad ESET ha encendido las alarmas sobre los riesgos de privacidad que implica el uso cotidiano de ChatGPT. Mario Micucci, investigador de seguridad informática en ESET Latinoamérica, desmitifica la idea de que las charlas con esta IA se evaporan al cerrar la sesión. En realidad, cada mensaje que envías pasa por un proceso que expone tu información de formas inesperadas.
El ciclo de tus datos en plataformas de IA
Los datos introducidos en ChatGPT siguen tres pasos clave: primero, se guardan en servidores para preservar el historial conversacional. Segundo, pueden alimentar el entrenamiento de nuevos modelos de inteligencia artificial. Tercero, fragmentos anonimizados llegan a revisores humanos que evalúan la calidad de las respuestas. Este flujo, aunque útil para mejorar el servicio, genera serios riesgos de privacidad.
Riesgos de privacidad: De la confidencialidad al robo cibernético
Uno de los peligros más graves es ingresar datos sensibles como planes empresariales, contraseñas, información de clientes o código fuente privado. Estos elementos, una vez compartidos, podrían reutilizarse en modelos futuros de IA. ESET subraya que los ciberdelincuentes acechan estas plataformas: en 2024, se detectaron más de 225.000 credenciales de ChatGPT a la venta en la dark web, robadas por malware especializado.
Contexto histórico y datos verificados
Desde su lanzamiento en 2022, ChatGPT ha procesado billones de interacciones, según reportes de OpenAI. Incidentes pasados, como brechas en 2023 que expusieron historiales de usuarios, refuerzan estos riesgos de privacidad. Expertos de la Electronic Frontier Foundation coinciden: el 40% de las empresas teme fugas de datos IP al usar IA generativa, per estadísticas de Gartner actualizadas a 2025.
Cómo mitigar los riesgos de privacidad en ChatGPT
- Evita datos confidenciales; anonimiza antes de consultar.
- Usa contraseñas robustas y autenticación de dos factores.
- Revisa ajustes en ChatGPT y Gemini: desactiva historial y uso para entrenamiento.
Estas medidas simples reducen la exposición. ESET insiste en educar a usuarios y empresas para navegar la era de la IA sin comprometer la seguridad. En un mundo donde riesgos de privacidad como estos crecen, proteger tus datos en ChatGPT no es opcional, sino esencial.

