Inteligencia artificial para mejorar la seguridad en Roblox

Roblox Corporation / PR-ADN
La inteligencia artificial se posiciona como una herramienta clave para reforzar la seguridad en Roblox, donde nuevas tecnologías permiten supervisar y moderar las interacciones entre usuarios, buscando crear un entorno digital más seguro para millones de jugadores.
Tl;dr
- Roblox usa IA para reformular mensajes ofensivos.
- Se mantiene la moderación y sanciones a reincidentes.
- Debate legal y ético sigue vigente sobre la plataforma.
Reformulación automática: el último avance en moderación
En los últimos meses, Roblox ha dado un giro innovador en su política de moderación implementando un sistema de inteligencia artificial que reescribe automáticamente mensajes inapropiados. Hasta ahora, las conversaciones problemáticas quedaban mutiladas por una sucesión de símbolos, restando fluidez al diálogo y frustrando a muchos usuarios. Sin embargo, el nuevo enfoque pretende ir más allá: la IA sugiere versiones aceptables de las frases detectadas como ofensivas. Por ejemplo, expresiones agresivas se transforman en alternativas neutras y todos los participantes reciben una notificación cada vez que ocurre una modificación.
Un modelo pedagógico con controles reforzados
A través de esta herramienta, la plataforma apuesta por una dinámica más educativa y preventiva. La notificación inmediata busca concienciar al usuario sobre los límites del lenguaje permitido y alentar un ambiente respetuoso conforme a los Community Standards. Pese a estas novedades tecnológicas, la posibilidad de sancionar a quienes persisten en actitudes inadecuadas permanece intacta. Según Rajiv Bhatia, Chief Safety Officer del grupo, el objetivo es instaurar «un círculo virtuoso» donde el retorno inmediato promueva buenas prácticas entre la comunidad.
Varios elementos explican esta decisión:
- Sistema de verificación de edad, que restringe chats según rangos etarios.
- Reformulación automática por IA, que reemplaza comentarios inapropiados al instante.
- Penas disciplinarias, aplicadas aunque los mensajes hayan sido modificados.
Restricciones por edades y supervisión aumentada
Actualmente, solo quienes han verificado su edad y pertenecen a rangos similares pueden utilizar este sistema de chat mejorado. Además, tras varios casos preocupantes relacionados con adultos infiltrados en la plataforma, desde enero existe una verificación obligatoria para acceder a ciertas funciones. Menores de 13 años quedan limitados a espacios específicos y cuentan con chats adaptados exclusivamente para ellos.
Dilemas judiciales y éticos sin resolver
Pese a estos esfuerzos renovados por reforzar la seguridad online, la controversia no se disipa. Diversas autoridades estadounidenses mantienen procesos legales abiertos contra Roblox Corporation. El condado de Los Ángeles le acusa de facilitar la acción de depredadores sexuales, mientras que desde Luisiana se ha denunciado un entorno supuestamente peligroso para menores. Todo ello pone sobre la mesa una pregunta clave: ¿hasta qué punto deben responsabilizarse las grandes plataformas digitales en la protección activa frente a estos riesgos? Un interrogante tan complejo como urgente en plena era digital.