Google Gemini revoluciona la gestión digital en el Pentágono

ADN
La implementación de la inteligencia artificial Gemini de Google está marcando un cambio significativo en la gestión y operaciones del Pentágono, optimizando procesos administrativos y fortaleciendo la toma de decisiones estratégicas dentro del principal organismo de defensa estadounidense.
Tl;dr
- El Pentágono amplía el uso de IA en defensa.
- Google despliega agentes Gemini para automatizar tareas.
- Persisten debates éticos y tensiones con proveedores.
Transformación digital acelerada en el Pentágono
La modernización tecnológica del Pentágono atraviesa una etapa clave, marcada por la integración masiva de soluciones de inteligencia artificial. Desde diciembre de 2025, más de 1,2 millones de empleados civiles y militares han accedido al chatbot desarrollado por Google, a través del portal GenAI.mil. Esta plataforma ha registrado la asombrosa cifra de 40 millones de consultas únicas y cuatro millones de documentos procesados, lo que refleja un ritmo inédito en la adopción interna de nuevas herramientas digitales por parte del Departamento de Defensa estadounidense.
Llegada de Gemini y automatización administrativa
En este contexto, la reciente implantación de los agentes de IA Gemini, también desarrollados por Google, representa un salto cualitativo. Ahora, cerca de tres millones de trabajadores del departamento pueden beneficiarse del soporte de estos asistentes virtuales, inicialmente limitados a redes no clasificadas pero con planes para ampliar su alcance a sistemas altamente seguros. Según declaraciones del secretario adjunto a la investigación e ingeniería, Emil Michael, estos ocho agentes preconfigurados han sido diseñados para automatizar tareas como resúmenes ejecutivos, elaboración presupuestaria o controles estratégicos. Próximamente, los propios usuarios podrán crear asistentes personalizados en lenguaje natural, tal como ha avanzado el vicepresidente Jim Kelly.
Tensiones éticas y formación interna insuficiente
No obstante, el avance técnico va acompañado de polémica. A pesar del entusiasmo institucional, sólo unos 26.000 empleados han recibido formación específica en IA desde diciembre; las próximas convocatorias ya están completas, síntoma claro del creciente interés y cierta sensación de urgencia interna. Este proceso coincide con el recrudecimiento del debate ético: la negativa reciente por parte de Anthropic a adaptar sus modelos para usos militares —especialmente en materia de vigilancia o armamento autónomo— ha llevado al Pentágono a considerarla un «riesgo para la cadena logística». La compañía planea impugnar esta decisión ante los tribunales estadounidenses.
Varias circunstancias explican esta tensión persistente:
- Crecimiento acelerado del uso militar de inteligencia artificial.
- Diferencias entre proveedores sobre los límites éticos y técnicos.
- Aparición constante de nuevos acuerdos tecnológicos sensibles.
Nuevos socios tecnológicos y memoria reciente
A raíz del conflicto con Anthropic, el Departamento ha rubricado acuerdos selectivos con firmas como OpenAI y xAI, reservando el acceso a entornos restringidos. No conviene olvidar que hace solo unos años, tras una ola interna sin precedentes —recordada por el caso Maven— Google tuvo que abandonar contratos polémicos con Defensa. Sin embargo, desde entonces sus «principios sobre la IA» se han ido suavizando progresivamente, allanando así el terreno para una cooperación ampliada con las autoridades estadounidenses en asuntos tan delicados como la defensa nacional.
En definitiva, mientras se expande esta alianza tecnológica sin parangón dentro del Pentágono, permanece viva —y quizás más intensa que nunca— la discusión sobre cómo equilibrar eficacia operativa y responsabilidad ética en tiempos vertiginosos.