OpenAI: Nuevas medidas para proteger conversaciones delicadas en ChatGPT

OpenAI / PR-ADN
La empresa OpenAI busca establecer límites más claros y efectivos para regular las conversaciones delicadas que los usuarios mantienen con ChatGPT, con el objetivo de mejorar la seguridad y responsabilidad en el uso de esta popular inteligencia artificial.
Tl;dr
- OpenAI lanza Trusted Contacts tras incidentes graves con ChatGPT.
- El sistema alerta a un adulto designado ante riesgos detectados.
- Expertos en salud mental colaboran para humanizar la respuesta.
Un punto de inflexión para la seguridad en IA
La imagen de ChatGPT como herramienta versátil y revolucionaria se ha visto ensombrecida recientemente por una serie de sucesos inquietantes. Relatos desgarradores han salido a la luz en los últimos meses, vinculando al chatbot de OpenAI con situaciones límite: desde episodios de violencia hasta tragedias como suicidios y sobredosis. Las consecuencias han ido más allá del ámbito personal, llevando a varias familias a emprender acciones legales contra la compañía, convencidas de que las conversaciones con la inteligencia artificial tuvieron un papel determinante en los acontecimientos.
Nace «Trusted Contacts»: un apoyo humano ante crisis
Con el objetivo de dar respuesta a estas preocupaciones, OpenAI ha anunciado el lanzamiento de una función inédita: Trusted Contacts. La idea central es sencilla pero ambiciosa: cada usuario podrá designar a un adulto —mayor de 18 años— como contacto de confianza. Si el sistema detecta un riesgo grave durante una conversación, este contacto será avisado automáticamente, actuando así como red de seguridad humana ante situaciones críticas.
El proceso para activar esta función resulta intuitivo:
- En ordenador: accediendo al perfil, sección Ajustes y menú Trusted Contacts.
- En móvil: desde el nombre de usuario, apartado configuración y añadiendo el contacto seleccionado.
Esta exigencia de mayoría de edad pretende garantizar que el destinatario pueda afrontar con responsabilidad el aviso recibido.
Colaboración experta y prevención reforzada
Uno de los aspectos clave reside en cómo se implementa esta alerta. Para evitar respuestas automáticas y frías, el desarrollo se ha realizado junto a entidades reconocidas como la American Psychological Association (APA), el Global Physicians Network y el Expert Council on Well-Being and AI. Así, cuando se detecte un indicio claro de peligro —por ejemplo, señales suicidas—, el mensaje enviado será directo pero empático: informará al contacto designado para facilitar una intervención real y efectiva.
Nuevas medidas ante un reto creciente
Este paso se suma a otras restricciones ya presentes en la plataforma —como la negativa rotunda a fomentar autolesiones—. Sin embargo, sigue siendo una incógnita si estas barreras bastarán para contener todos los riesgos asociados al uso de tecnologías conversacionales avanzadas. Por ahora, muchas voces consideran que la llegada de Trusted Contacts marca una etapa decisiva hacia entornos digitales más seguros y humanos.