Enquanto especialistas em ética de inteligência artificial continuam debatendo os riscos do uso da IA em sistemas militares, o Departamento de Defesa dos EUA anunciou uma série de acordos com empresas de tecnologia. De acordo com a Associated Press, o Pentágono fechou contratos com sete grandes empresas de TI para utilizar seus modelos comerciais de IA em redes militares protegidas — um contexto no qual tais algoritmos quase não eram aplicados anteriormente.
Esses acordos não se limitam ao fornecimento de hardware convencional: segundo a AP, eles preveem o uso de modelos comerciais prontos para análise de dados, logística, inteligência e suporte à decisão de militares. Anteriormente, o Pentágono costumava apostar em desenvolvimentos próprios e soluções isoladas, mas agora a pasta busca intencionalmente uma cooperação mais próxima com o setor privado para implementar tecnologias de ponta com maior agilidade.
A celebração desses ajustes fortalece a presença tecnológica dos EUA no campo da IA militar em meio à competição global, inclusive com a China, que desenvolve ativamente seus próprios programas de militarização da inteligência artificial. Ao mesmo tempo, como observam especialistas, as empresas comerciais criam originalmente algoritmos voltados para conveniência do usuário, publicidade e serviços, e não para tomadas de decisão em condições de operações de combate.
Permanecem incertas as questões sobre a responsabilidade por erros dos algoritmos, possíveis vieses no treinamento e os limites do uso aceitável da IA em sistemas militares. Declarações oficiais do Pentágono enfatizam o controle rigoroso e "qualquer uso operacional legal" (lawful operational use), mas, sob altos níveis de sigilo, a verificação totalmente aberta e uma discussão pública transparente continuam sendo desafiadoras.
Analistas observam que tais contratos refletem uma tendência mais ampla: o Estado já não pode contar exclusivamente com desenvolvimentos próprios, delegando, assim, parte das inovações a laboratórios e corporações privadas. Por sua vez, as empresas de tecnologia ganham acesso a vultosos financiamentos governamentais e a dados que, em condições normais, seriam inacessíveis para elas.
Ao comparar a IA comercial, que ajuda, por exemplo, a escolher uma rota no smartphone, com o mesmo tipo de algoritmos em sistemas de controle de plataformas não tripuladas ou análise de inteligência, percebe-se o quanto mudam os riscos decorrentes de falhas e deficiências dos modelos. Em tarefas civis, as consequências de erros são geralmente limitadas, enquanto no contexto militar, eventuais equívocos podem ter desdobramentos muito mais graves.
Espera-se que tais medidas dos EUA possam acelerar a integração da IA também em programas militares de outros países, inclusive naqueles que já desenvolvem ativamente seus próprios sistemas de IA bélica. Paralelamente, cientistas e defensores dos direitos humanos continuam insistindo na necessidade de regras e regulamentações claras para o uso militar da inteligência artificial, destacando que a política evolui mais rápido do que as normas correspondentes e os acordos internacionais.
Esses acordos demonstram que as fronteiras entre tecnologias civis e militares estão se tornando cada vez mais tênues. A questão não é tanto se tais sistemas surgirão, mas sim como será garantido o controle sobre seu uso, e como a sociedade e os reguladores conseguirão equilibrar os interesses de segurança, inovação e o cumprimento de normas éticas.



