Experto en robótica deja OpenAI tras polémico acuerdo militar

OpenAI / PR-ADN
La salida de un destacado experto en robótica de OpenAI se produce en medio de crecientes tensiones internas, desencadenadas por la firma de un acuerdo militar que ha generado controversia y cuestionamientos sobre el rumbo ético de la organización.
Tl;dr
- Dimisión en OpenAI por acuerdo polémico con el Pentágono.
- Crecen las críticas internas sobre vigilancia y armas autónomas.
- El debate ético en inteligencia artificial sigue abierto.
Tensión creciente tras una salida inesperada
La salida de Caitlin Kalinowski de OpenAI ha provocado un profundo debate sobre los límites éticos en la industria tecnológica estadounidense. Al frente del área de robótica, Kalinowski había llegado a la empresa a finales de 2024 procedente de Meta. Sin embargo, su renuncia se hizo pública tras el anuncio de un polémico acuerdo entre OpenAI y el Pentágono. Desde su cuenta en X, la exdirectiva manifestó abiertamente su rechazo: «La vigilancia sin supervisión judicial y la autonomía letal sin intervención humana son líneas rojas que no debían cruzarse tan rápidamente».
El acuerdo con el Pentágono desata controversia
Esta colaboración entre OpenAI y el Departamento de Defensa estadounidense no es un episodio aislado. Hace solo unos días, Anthropic, otra firma relevante del sector, rehusó flexibilizar sus políticas respecto al desarrollo de sistemas de vigilancia masiva y armas autónomas. A diferencia de Anthropic, OpenAI optó por aceptar condiciones que han generado inquietud entre parte del equipo. Según Kalinowski, la compañía actuó con precipitación: «Se tomó una decisión sin establecer salvaguardas claras, lo que pone en cuestión toda la gobernanza interna», subrayó.
Reacciones internas y posicionamiento público
Consultada por diversos medios, la dirección de OpenAI confirmó la renuncia y trató de suavizar las críticas: reconoce la intensidad del debate interno, pero insiste en que mantiene abiertos los cauces para el diálogo con todos los actores implicados. La empresa se vio obligada a especificar públicamente dos compromisos fundamentales derivados del acuerdo:
- No habrá vigilancia nacional sobre ciudadanos estadounidenses.
- No se desarrollarán armas autónomas sin control humano.
No obstante, parece claro que estas garantías no han sido suficientes para calmar las tensiones dentro del equipo.
Implicaciones éticas y futuro incierto
Hasta el propio CEO, Sam Altman, se ha mostrado dispuesto a revisar el pacto para descartar cualquier actividad relacionada con el espionaje a civiles estadounidenses. Este episodio pone de relieve cómo las discusiones sobre el uso militar de la inteligencia artificial siguen siendo tan necesarias como irresueltas incluso dentro de las empresas más influyentes del sector. Con este clima, los dilemas éticos que enfrenta OpenAI marcan una etapa decisiva para toda la industria.