Mientras los expertos en ética de la inteligencia artificial continúan debatiendo los riesgos que supone su uso en sistemas bélicos, el Departamento de Defensa de EE. UU. ha anunciado una serie de acuerdos con empresas tecnológicas. Según informa Associated Press, el Pentágono ha cerrado pactos con siete compañías líderes del sector para integrar sus modelos comerciales de IA en redes militares seguras, un ámbito en el que estos algoritmos apenas tenían presencia anteriormente.
Estos convenios van más allá del simple suministro de equipos informáticos convencionales: según la AP, contemplan el empleo de modelos comerciales listos para usar en tareas de análisis de datos, logística, inteligencia y apoyo en la toma de decisiones para los soldados. Aunque anteriormente el Pentágono solía priorizar sus propios desarrollos y soluciones aisladas, ahora la institución busca deliberadamente una colaboración más estrecha con el sector privado para agilizar la adopción de tecnologías de vanguardia.
La firma de estos contratos refuerza la hegemonía tecnológica de Estados Unidos en el campo de la IA militar ante la competencia global, especialmente por parte de China, que impulsa activamente sus propios programas de militarización de la inteligencia artificial. No obstante, como señalan los expertos, las empresas comerciales diseñan originalmente sus algoritmos para funciones enfocadas al usuario, la publicidad y los servicios, no para la toma de decisiones críticas en escenarios de combate.
Siguen sin resolverse los interrogantes sobre la responsabilidad ante posibles errores algorítmicos, los sesgos en el entrenamiento y los límites del uso permisible de la IA en sistemas de defensa. Las declaraciones oficiales del Pentágono recalcan un control riguroso y un «uso operativo legal» (lawful operational use); sin embargo, dado el elevado nivel de confidencialidad, resulta difícil llevar a cabo una fiscalización abierta y un debate público transparente.
Los analistas indican que este tipo de acuerdos reflejan una tendencia más amplia: el Estado ya no puede depender exclusivamente de su propia capacidad de desarrollo, por lo que delega parte de la innovación en laboratorios y corporaciones privadas. Por su parte, las empresas tecnológicas acceden a una importante financiación pública y a volúmenes de datos que, en circunstancias normales, estarían fuera de su alcance.
Al comparar una IA comercial que asiste en la navegación de un teléfono inteligente con ese mismo tipo de algoritmos gestionando plataformas autónomas o analizando inteligencia militar, se observa un cambio drástico en los riesgos derivados de fallos o deficiencias en los modelos. Mientras que en tareas civiles las consecuencias de un error suelen ser limitadas, en el ámbito militar cualquier equivocación puede acarrear repercusiones mucho más graves.
Se prevé que estos movimientos de Estados Unidos aceleren la integración de la IA en los programas militares de otras naciones, incluidas aquellas que ya desarrollan de forma activa sus propios sistemas de defensa automatizados. Al mismo tiempo, científicos y defensores de los derechos humanos insisten en la necesidad de establecer normas claras para el uso militar de la inteligencia artificial, advirtiendo que los avances políticos y técnicos superan la velocidad de los marcos legales y tratados internacionales.
Estos acuerdos evidencian que las fronteras entre las tecnologías civiles y militares son cada vez más difusas. El dilema no radica tanto en la aparición de estos sistemas, sino en cómo se garantizará la supervisión de su uso y de qué manera la sociedad y los reguladores lograrán equilibrar la seguridad, la innovación y el cumplimiento de los principios éticos.



