Riesgos de desinformación con chatbots y asistentes de IA

ADN
El auge de los chatbots y asistentes impulsados por inteligencia artificial ha transformado la forma en que accedemos a la información, pero también ha incrementado el riesgo de desinformación y errores en los resultados de nuestras búsquedas diarias.
Tl;dr
- IA comete errores y fuentes poco fiables.
- El 45% de respuestas contienen fallos relevantes.
- Verificar información es clave para evitar desinformación.
IA: entre la utilidad y la desinformación
En los últimos años, los asistentes basados en inteligencia artificial se han convertido en una presencia constante en nuestras vidas. Herramientas como ChatGPT, Google Gemini, Microsoft Copilot, Claude o Perplexity no solo nos ayudan a buscar información, sino que incluso resumen la actualidad e influyen, cada vez más, en la forma en que muchos usuarios consumen noticias. Sin embargo, su integración masiva plantea un dilema creciente: ¿hasta qué punto son fiables?
Dificultades persistentes en la precisión informativa
Un reciente informe de la European Broadcasting Union (EBU) pone el acento sobre los límites reales de estas tecnologías. Tras analizar más de 3.000 consultas realizadas a diversos asistentes, y abarcando catorce idiomas, el estudio revela datos inquietantes: cerca del 45% de las respuestas contienen al menos un error significativo y hasta el 81% muestran algún tipo de deficiencia, desde información caduca hasta formulaciones ambiguas o atribuciones dudosas. Específicamente:
- El 31% presenta problemas de fuentes —inexistentes o incorrectas—.
- El 20% incluye inexactitudes graves, como fechas erróneas o citas mal atribuidas.
Además, algunos sistemas destacan por sus carencias particulares: mientras que Gemini suele fallar al citar fuentes fidedignas, modelos como ChatGPT o Claude muestran variaciones según la versión empleada.
Riesgos para usuarios y medios tradicionales
Hoy, según cifras del Reuters Institute, un 15% de la generación Z ya recurre directamente a chatbots para informarse. Esto multiplica el riesgo de aceptar como ciertas informaciones sesgadas o fabricadas. La falta de transparencia sobre las fuentes y la tendencia a mezclar hechos con opiniones alimentan el problema. Basta preguntar sobre un tema actual —como el último acuerdo sobre el techo de deuda estadounidense— para observar respuestas dispares: solo Claude ofreció una síntesis rigurosa y bien fechada; otros generaron artículos ficticios que minan su propia credibilidad.
Claves para una consulta responsable a la IA
¿Cómo protegerse frente a estas limitaciones? Conviene exigir enlaces a fuentes recientes, solicitar fechas concretas y comparar siempre distintas respuestas. No basta con aceptar el primer resumen ofrecido por una IA; verificar manualmente sigue siendo indispensable. Al fin y al cabo, mientras estos sistemas no logren asegurar fiabilidad y transparencia en tiempo real, resulta sensato acudir siempre que sea posible a las fuentes originales y exigir claridad: «Muéstrame el artículo completo». El desafío afecta tanto al usuario individual como a la confianza social en la información misma.