Riesgo de privacidad: ChatGPT filtró tus mensajes y consultas

OpenAI / PR-ADN
En un incidente reciente, se ha detectado que ChatGPT expuso de manera involuntaria las solicitudes de algunos usuarios, lo que plantea preocupaciones sobre la privacidad y la protección de datos en el uso de esta popular inteligencia artificial conversacional.
Tl;dr
- Fuga de prompts de usuarios en Google Search Console.
- El fallo expone riesgos de privacidad con ChatGPT.
- OpenAI corrige, pero la cautela sigue siendo clave.
La inesperada filtración de ChatGPT: el origen del problema
Hace escasas semanas, algunos desarrolladores y administradores de sitios web comenzaron a notar una anomalía en sus paneles de Google Search Console. Frases completas, claramente generadas por humanos, aparecían entre las consultas registradas, desplazando a las habituales palabras clave breves. La sorpresa inicial dejó paso rápidamente a la preocupación: ¿por qué prompts que deberían ser privados se indexaban públicamente?
Investigación y hallazgos: el error en la navegación web
Los especialistas Jason Packer y Slobodan Manić tomaron la iniciativa de esclarecer el asunto. Su análisis reveló que el fallo provenía del modo de navegación web de ChatGPT, concretamente por la inclusión inadvertida de una etiqueta «hints=search» durante ciertas sesiones. Este mecanismo provocaba que fragmentos del prompt del usuario se añadieran a la URL que utilizaba el chatbot para consultar información en tiempo real. Sin que mediara intervención voluntaria, los sistemas de indexación de Google almacenaron esas secuencias como si fueran búsquedas legítimas, haciéndolas accesibles para gestores y propietarios de sitios.
Efectos sobre la privacidad y distorsión estadística
Aunque desde OpenAI aseguran que ningún dato crítico —como credenciales personales— resultó comprometido y circunscriben el alcance a un número reducido de consultas, la situación deja incógnitas abiertas. Según ha recogido el medio especializado Ars Technica, no se ha detallado ni cuántos usuarios fueron afectados ni durante cuánto tiempo persistió la vulnerabilidad. Por otro lado, varios portales observaron un patrón atípico en sus estadísticas: aumentaron las «impresiones» sin crecimiento proporcional en los clics, fenómeno al que ya se denomina «boca de cocodrilo».
Cautelas recomendadas ante asistentes IA conectados a Internet
Más allá de la corrección técnica implementada por OpenAI, conviene mantener ciertas precauciones. Varios elementos explican esta necesidad:
- No introducir información sensible cuando el modo navegación esté activo.
- Desactivar funciones online si no son imprescindibles.
- Borrar con regularidad el historial de interacciones.
A medida que la integración de herramientas basadas en inteligencia artificial se intensifica en la web, crecen también los puntos vulnerables. Conviene recordar que cada prompt puede alcanzar mucho más lejos de lo previsto.