Influencia de Grokipedia en el modelo GPT-5.2 de OpenAI

xAI / PR-ADN
La influencia de Grokipedia se percibe en la reciente versión GPT-5.2 de OpenAI, suscitando interrogantes sobre el origen de los datos empleados y el posible impacto de esta integración en la calidad y transparencia del modelo lingüístico.
Tl;dr
- GPT-5.2 usa fuentes polémicas como Grokipedia.
- Persisten preocupaciones sobre la fiabilidad de estas fuentes.
- OpenAI defiende sus filtros, pero las dudas continúan.
El papel de Grokipedia en las respuestas de la IA
Las recientes pruebas realizadas por el diario británico The Guardian han revelado una inquietante tendencia en el nuevo modelo GPT-5.2 de OpenAI. Aunque la compañía presenta esta versión como “la más avanzada para un uso profesional”, algunos resultados del chatbot han generado polémica. En particular, se ha detectado que, en temas delicados como los relativos a Irán o la Shoah, la inteligencia artificial cita frecuentemente a Grokipedia, una enciclopedia online desarrollada por xAI.
Para ilustrar este fenómeno, basta mencionar que GPT-5.2 aludió a Grokipedia al abordar cuestiones sobre el presunto vínculo entre el gobierno iraní y la empresa MTN-Irancell. De igual modo, dicha fuente emergió en respuestas sobre el historiador británico Richard Evans, perito clave durante el proceso judicial contra el negacionista David Irving. No obstante, esta recurrencia no es absoluta: cuando se abordan asuntos como la cobertura mediática del expresidente estadounidense Donald Trump, Grokipedia desaparece de las referencias.
Fuentes bajo sospecha y antecedentes problemáticos
La controversia alrededor de Grokipedia no es nueva. Incluso antes del lanzamiento de GPT-5.2, varios observadores habían alertado sobre la presencia de citas provenientes de foros neonazis en su contenido. Más recientemente, un grupo de investigadores estadounidenses identificó múltiples ejemplos de fuentes “dudosas” e incluso “problemáticas” incluidas en sus páginas.
Varios elementos explican estas reservas:
- La inclusión repetida de materiales originados en comunidades extremistas.
- La carencia de filtrado sistemático ante temas controvertidos.
Estos factores alimentan la preocupación acerca del rigor editorial aplicado por los desarrolladores del modelo.
Respuesta de OpenAI y persistencia de dudas
Ante las críticas vertidas tras el informe del Guardian, responsables de OpenAI han aclarado que su modelo se nutre de “un amplio abanico de fuentes públicas y variadas”. Asimismo, aseguran haber implementado “filtros de seguridad” cuyo objetivo es restringir contenidos potencialmente peligrosos o nocivos. Sin embargo, tales explicaciones no logran disipar totalmente las inquietudes existentes sobre los mecanismos con los que se escogen —y supervisan— las referencias consultadas por esta sofisticada herramienta.
En definitiva, la irrupción inesperada de Grokipedia en contextos sensibles reabre un debate aún lejos de zanjarse: ¿cómo garantizar fiabilidad y responsabilidad informativa cuando una inteligencia artificial accede a una miríada tan heterogénea —y discutible— de fuentes?