Informe: Imágenes de abuso infantil usadas para entrenar IA
Se encontraron más de 3200 imágenes explícitas en la base de datos de la reconocida herramienta generativa de Stable Diffusion. ¿Podría esto afectar su popularidad y confiabilidad?
Tl;dr
- Stanford descubre fotos de abusos en bases de datos de IA.
- Las imágenes estaban en los sistemas LAION y Stable Diffusion.
- El acceso a la base de datos LAION-5B implica posesión de contenido ilegal.
- Recomiendan eliminar cualquier trabajo hecho con la base de datos LAION.
Descubrimiento alarmante en la IA
El Observatorio de Internet de la prestigiosa Universidad de Stanford ha hecho un hallazgo perturbador. Miles de fotografías de abusos sexuales a menores han sido descubiertas en una conocida base de datos utilizada para entrenar sistemas de inteligencia artificial.
Las implicaciones de la base de datos LAION
Los sistemas LAION y la herramienta de generación de imágenes Stable Diffusion albergaban más de 3200 fotografías explícitas. Este hecho contradice la creencia popular de que las herramientas de IA solo crean imágenes de abusos a menores fusionando pornografía adulta con fotos de niños.
En realidad, es aún más sencillo para algunos sistemas de IA, entrenados con la base de datos LAION, generar contenido ilegal. «Encontramos que el acceso a la base de datos LAION-5B, poblada hasta finales de 2023, implica la posesión de miles de imágenes ilegales, fotos íntimas y recopiladas de forma no consensuada», declararon David Thiel y Jeffrey Hancock, autores del estudio.
Respuestas y recomendaciones
En respuesta al informe, LAION anunció la retirada temporal de sus bases de datos, y Stability AI, el desarrollador de Stable Diffusion, afirmó haber tomado medidas proactivas para mitigar el riesgo de uso indebido, aplicando filtros más estrictos en su herramienta de IA.
No obstante, según el informe de Stanford, una versión anterior de Stable Diffusion, la 1.5, continúa siendo ampliamente utilizada para generar imágenes explícitas. Por tanto, los investigadores sugieren que los usuarios que hayan creado una herramienta utilizando la base de datos LAION borren o eliminen su trabajo.
Opinión editorial
Este descubrimiento es un duro recordatorio de la importancia de la transparencia y la ética en el ámbito de la inteligencia artificial. Debemos ser más diligentes en la supervisión de estas bases de datos y garantizar que no se utilicen para fines nefastos. Es fundamental aprender de este incidente y tomar medidas más firmes para proteger a los más vulnerables en nuestro sociedad.