
Un profesor de la Universidad de Arizona descubrió que podía acceder con facilidad a miles de conversaciones “privadas” de personas con ChatGPT de todo el mundo. Lo que encontró fue un sinfín de secretos e información sensible que hasta incrimina a muchas personas.
Nuestra información personal es cada vez más vulnerable y pocas veces somos conscientes de ello. Este hallazgo refuerza la teoría de la casi nula protección que existe para que quien sea pueda acceder a nuestros datos. Un par de búsquedas en Google y esta persona pudo ver los más íntimos secretos de miles de personas.
El periodista y profesor Henk Van Ess estaba realizando una investigación cuando notó que los obstáculos para acceder a la información que necesitaba eran casi inexistentes: miles de conversaciones entre usuarios y ChatGPT estaban al alcance de cualquiera.
La información fue abrumadora, las conversaciones revelaban la enorme confianza que estas personas depositan en la inteligencia artificial: información incriminatoria, datos personales y hasta secretos financieros de multinacionales se encontraban en estos chats.
“Este descubrimiento comenzó cuando noté enlaces compartidos apareciendo en el buscador… Lo que empezó como curiosidad se convirtió en horror cuando localicé más de 1,000,000 [de conversaciones]”, relató Van Ess al medio El Confidencial.
Como en una película entre ciencia ficción o de horror contemporáneo, Van Ess veía cada nuevo chat más alarmante que el anterior. Encontró desde peticiones para criticar a gobiernos autoritarios hasta solicitudes de material sensible de menores.
La gente ha llegado a tal nivel de dependencia tecnológica que no considera las posibles consecuencias de confiar sus secretos más íntimos y perjudiciales a una máquina que se alimenta de los datos de millones de usuarios.
Es probable que te preguntes cómo evitar que tu información se filtre. La respuesta es compleja, a diferencia de una conversación con un profesional como un psicólogo o un abogado, hablar con una inteligencia artificial te pone automáticamente en riesgo sin garantizar tu privacidad.
“El volumen de charla digital banal es alucinante. La gente está usando la tecnología avanzada para resolver apuestas de bar, correos pasivos-agresivos a su asociación de vecinos y preguntar el significado psíquico de sus sueños”, critica. “Es como usar una supercomputadora para cuadrar tus cuentas: posible, pero absurdo”.
En este caso, el profesor Van Ess se dio cuenta de que muchas personas utilizaban la opción “compartir” en ChatGPT creyendo que solo generaban un enlace para compartir información con sus contactos. Sin embargo, al hacer clic en esta opción, las conversaciones se indexaban en motores de búsqueda como Google, haciéndolas públicas.
Van Ess solo tuvo que realizar un par de búsquedas avanzadas en Google para acceder a todos estos secretos que los mismos usuarios, sin saberlo, dejaron al alcance de cualquiera con conocimientos básicos de búsqueda. Actualmente, esta opción ha quedado deshabilitada, pero todo lo que se sube a internet siempre deja huella.
Este caso no es un hecho aislado. En los últimos meses han surgido otros ejemplos de cómo la gente, incluidos funcionarios públicos, maneja de forma negligente información sensible. Hace poco, la diputada plurinominal de Morena, Olga Leticia Chávez Rojas, aceptó públicamente que usó ChatGPT para analizar un paquete de 205 páginas de reformas en materia de seguridad, una labor que le habría tomado días.
OpenAI, empresa dueña de ChatGPT, y Anthropic lanzaron versiones de sus chatbots para organismos gubernamentales a precios simbólicos, a veces por solo un dólar al año. Esta es una jugada estratégica para crear dependencia: una vez que miles de funcionarios se acostumbren a usar estas herramientas, será muy difícil prescindir de ellas.
Hace unos meses, la plataforma de mensajería Signal fue noticia cuando se descubrió que altos funcionarios de la Casa Blanca la usaban para un chat grupal secreto en el que discutían planes militares. La operación militar estadounidense resultó en el lanzamiento de misiles sobre la capital yemení, Saná, lo que dejó decenas de muertos. El incidente demostró la falta de seguridad al usar información sensible en sitos al alcance de todos.
Todos estos ejemplos —la divulgación de secretos personales, la dependencia de funcionarios en la IA y el uso de apps no seguras— reflejan una preocupación creciente sobre dónde estamos dejando nuestra seguridad, nuestra privacidad y, por lo tanto, nuestra libertad. N
NW Noticias te recomienda también estas notas: