En uno de los movimientos más sorprendentes y controvertidos de los últimos meses, el Departamento de Defensa de Estados Unidos ha anunciado el cierre de una oficina clave dedicada a evaluar la seguridad y funcionamiento operativo de sistemas militares que incorporan inteligencia artificial (IA). La noticia, confirmada por el propio Secretario de Defensa, se justifica oficialmente como una medida de ahorro y eficiencia presupuestaria.
Pero muchos expertos y analistas ya han alzado la voz: ¿es realmente el momento de escatimar en controles cuando se trata del uso militar de una tecnología tan disruptiva como la IA?
Conviene poner las cifras sobre la mesa para entender el impacto potencial de esta decisión. El Pentágono es, en términos prácticos, la mayor “empresa” compradora del planeta en materia de defensa, con adquisiciones anuales que superan los 167.000 millones de dólares. Desde sistemas de comunicación y drones hasta plataformas de combate, logística y análisis de inteligencia, la presencia de IA es creciente y transversal. El objetivo, naturalmente, es lograr sistemas más eficaces, rápidos y capaces de operar con menor intervención humana.
En este escenario, la seguridad funcional de estos sistemas no es un detalle técnico, sino una prioridad absoluta. Una falla en un arma convencional puede tener consecuencias graves; una falla en un sistema militar autónomo basado en IA puede ser directamente catastrófica.
Hasta ahora, el Departamento de Defensa contaba con unidades específicas encargadas de evaluar y probar estos sistemas antes de su despliegue operativo. Una de ellas era precisamente la oficina que ahora se elimina: la Joint Artificial Intelligence Center (JAIC), que jugaba un rol esencial en la validación de sistemas autónomos.
Reducir el despilfarro es deseable —y en el caso del presupuesto militar estadounidense, necesario—, pero no se puede confundir eficiencia con imprudencia estratégica. En el ámbito de la IA militar, las consecuencias de no hacer las pruebas adecuadas no se limitan a errores operativos. Estamos hablando de decisiones automatizadas que pueden determinar la vida o la muerte de personas, tanto propias como civiles.

Resulta inquietante pensar que una tecnología que aún no ha alcanzado su plena madurez y que sigue generando interrogantes éticos y técnicos esté siendo incorporada masivamente sin una evaluación rigurosa. Porque no hablamos solo de software predictivo o de análisis de imágenes: hablamos de sistemas capaces de tomar decisiones autónomas en situaciones de combate.
Lo más preocupante no es solo el recorte en sí, sino el razonamiento detrás del recorte. Alegar motivos económicos en un entorno presupuestario tan gigantesco suena más a un gesto político o ideológico que a una evaluación técnica sensata. Mientras tanto, proliferan discursos populistas donde la tecnología se presenta como una panacea infalible, ignorando los riesgos reales de una implementación apresurada.
Más control, no menos, en una era de automatización bélica. La historia reciente está llena de errores tecnológicos que han costado vidas humanas. Y en todos los casos, la falta de verificación, pruebas rigurosas y control de calidad han sido factores determinantes. Si esto es cierto para una central nuclear o un avión comercial, lo es aún más para un dron armado o un sistema autónomo de defensa que utiliza IA para seleccionar objetivos.
En este contexto, la decisión del Pentágono no solo parece irresponsable, sino representativa de una deriva más amplia: una política tecnológica impulsada por intereses inmediatos, discursos simplistas y líderes más preocupados por aparentar eficiencia que por garantizar seguridad real.
Cuando uno lee decisiones como esta, es inevitable preguntarse: ¿qué clase de sociedad estamos construyendo? ¿Quiénes están al mando? ¿Qué tipo de pensamiento crítico estamos promoviendo entre los ciudadanos? Cada día se hace más difícil distinguir entre avance tecnológico real y marketing político.
Y cuando se produzca —porque se producirá— un error letal en un sistema de armas mal evaluado, nadie asumirá la responsabilidad. Se hablará de fallos imprevistos, de entornos operativos cambiantes o de errores humanos, y algún desgraciado pagará con su vida una decisión que se tomó para «ahorrar costes».
Como sociedad, deberíamos exigir lo contrario: más control, más responsabilidad y menos demagogia. Porque si dejamos que la IA militar avance sin frenos ni pruebas, no solo estaremos hipotecando la seguridad futura, sino también la ética del presente.