ChatGPT implementa sistema de verificación de edad para adolescentes

OpenAI / PR-ADN
OpenAI incorpora una innovadora función de predicción de edad en ChatGPT para proteger a los adolescentes. Esta medida busca fortalecer la seguridad de los menores en línea, adaptando el acceso y las interacciones según la edad del usuario.
Tl;dr
- ChatGPT introduce un sistema global de predicción de edad.
- Filtra contenidos riesgosos para menores basándose en su comportamiento.
- No es infalible, pero refuerza la protección juvenil online.
Nueva estrategia global de ChatGPT ante el reto de los menores
La irrupción de la predicción de edad en ChatGPT marca un giro significativo en la gestión de la seguridad digital, particularmente respecto al acceso de adolescentes a plataformas de inteligencia artificial. En un contexto donde las advertencias sobre los efectos perjudiciales que ciertos chatbots pueden tener sobre los jóvenes se multiplican, la iniciativa lanzada por OpenAI responde tanto a la presión social como a recientes controversias relacionadas con herramientas rivales, como Grok, el asistente creado por Elon Musk.
Método innovador: comportamiento antes que documentos
Frente a sistemas convencionales que exigen documentación para verificar la edad del usuario, la apuesta actual de OpenAI se apoya en un modelo predictivo basado en el análisis de patrones. El algoritmo examina variables como el tiempo desde la creación del perfil, los horarios habituales de uso y la edad autodeclarada para deducir si una cuenta puede pertenecer a alguien menor de 18 años. Al detectar una probabilidad elevada, se activan automáticamente barreras adicionales pensadas específicamente para este segmento etario.
Contenidos restringidos: hacia una IA más segura para adolescentes
El mecanismo no opera sobre una lista cerrada de temáticas vetadas, sino que ha sido desarrollado consultando tanto a expertos como estudios académicos sobre el desarrollo adolescente. Varias categorías quedan bajo especial vigilancia:
- Violencia gráfica y escenas impactantes.
- Desafíos virales peligrosos.
- Contenidos sexuales o románticos explícitos.
- Menciones que puedan fomentar autolesiones o trastornos alimentarios.
Este enfoque —según subrayan desde la propia compañía— busca reflejar las diferencias en percepción del riesgo y regulación emocional propias de la adolescencia.
Dilemas y perspectivas futuras
No obstante, ninguna solución es perfecta. Un adulto erróneamente clasificado podrá corregir su edad desde la configuración personal. Además, desde OpenAI reconocen que esta iniciativa podría ser el preludio de funciones avanzadas reservadas únicamente a usuarios verificados mediante un posible “modo adulto”. Si bien aún quedan incógnitas abiertas sobre cómo equilibrar protección y libertad individual, este paso implica una responsabilidad compartida entre plataformas tecnológicas y sociedad para garantizar un entorno digital más seguro para los menores.