Terwijl ethici op het gebied van kunstmatige intelligentie de risico's van AI-toepassingen in militaire systemen blijven bespreken, heeft het Amerikaanse ministerie van Defensie een reeks overeenkomsten met technologiebedrijven aangekondigd. Volgens berichtgeving van Associated Press heeft het Pentagon deals gesloten met zeven toonaangevende IT-bedrijven om hun commerciële AI-modellen in te zetten binnen beveiligde militaire netwerken — een omgeving waarin dergelijke algoritmen voorheen nauwelijks werden gebruikt.
Deze overeenkomsten gaan verder dan de levering van standaardhardware: volgens de AP voorzien ze in het gebruik van kant-en-klare commerciële modellen voor data-analyse, logistiek, inlichtingenwerk en besluitvorming door militairen. Voorheen vertrouwde het Pentagon vaker op eigen ontwikkelingen en geïsoleerde oplossingen, maar momenteel kiest de instantie bewust voor nauwere samenwerking met de private sector om geavanceerde technologieën sneller te kunnen implementeren.
Het sluiten van deze contracten versterkt de technologische positie van de VS op het gebied van militaire AI te midden van wereldwijde concurrentie, onder meer van China, dat actief eigen programma's voor de militarisering van kunstmatige intelligentie ontwikkelt. Experts wijzen er echter op dat commerciële bedrijven hun algoritmen oorspronkelijk ontwerpen voor gebruiksgemak, reclame en dienstverlening, en niet voor het nemen van beslissingen tijdens gevechtshandelingen.
Vragen over de aansprakelijkheid bij fouten in algoritmen, mogelijke vooroordelen in trainingsdata en de grenzen van toelaatbaar AI-gebruik in militaire systemen blijven onbeantwoord. Officiële verklaringen van het Pentagon benadrukken strikte controle en "elk rechtmatig operationeel gebruik" (lawful operational use), maar door de hoge mate van geheimhouding blijven een volledig open controle en een transparant publiek debat lastig.
Analisten merken op dat dergelijke deals een bredere trend weerspiegelen: de overheid kan niet langer uitsluitend op eigen innovaties rekenen en delegeert daarom een deel van de ontwikkeling aan private laboratoria en corporaties. Op hun beurt krijgen technologiebedrijven toegang tot aanzienlijke overheidsfinanciering en data die onder normale omstandigheden onbereikbaar voor hen zouden zijn.
Wanneer men commerciële AI, die bijvoorbeeld helpt bij het kiezen van een route op een smartphone, vergelijkt met hetzelfde type algoritmen in systemen voor de aansturing van drones of inlichtingenanalyse, wordt duidelijk hoe sterk de risico's van modelfouten veranderen. Bij civiele taken zijn de gevolgen van storingen doorgaans beperkt, terwijl eventuele fouten in een militaire context veel ernstiger consequenties kunnen hebben.
De verwachting is dat deze stappen van de VS de integratie van AI in de militaire programma's van andere landen kunnen versnellen, inclusief landen die al volop eigen militaire AI-systemen ontwikkelen. Tegelijkertijd blijven wetenschappers en mensenrechtenactivisten hameren op de noodzaak van duidelijke regels en regulering voor militair AI-gebruik, waarbij zij benadrukken dat de politiek sneller gaat dan de bijbehorende normen en internationale verdragen.
Deze overeenkomsten tonen aan dat de grenzen tussen civiele en militaire technologie steeds vager worden. De vraag is niet zozeer of dergelijke systemen er komen, maar hoe de controle op het gebruik ervan wordt gewaarborgd en hoe de samenleving en toezichthouders een balans vinden tussen veiligheid, innovatie en ethische normen.



