Il Pentagono integra l'IA commerciale nei sistemi classificati

Autore: Tatyana Hurynovich

Mentre gli esperti di etica dell'intelligenza artificiale continuano a dibattere sui rischi legati all'impiego dell'IA nei sistemi militari, il Dipartimento della Difesa degli Stati Uniti ha annunciato una serie di accordi con diverse aziende tecnologiche. Secondo quanto riportato dall'Associated Press, il Pentagono ha siglato intese con sette primarie società informatiche per implementare i loro modelli commerciali di IA all'interno di reti militari protette, un contesto in cui tali algoritmi non erano quasi mai stati utilizzati in precedenza.

Questi accordi non si limitano alla fornitura di hardware convenzionale: stando all'AP, essi prevedono l'uso di modelli commerciali già pronti per l'analisi dei dati, la logistica, l'intelligence e il supporto decisionale per il personale militare. In passato, il Pentagono puntava spesso su sviluppi interni e soluzioni isolate, ma ora l'amministrazione sta deliberatamente perseguendo una collaborazione più stretta con il settore privato per accelerare l'adozione di tecnologie all'avanguardia.

La stipula di queste intese rafforza la presenza tecnologica degli Stati Uniti nel campo dell'IA militare in un clima di competizione globale, che vede protagonista anche la Cina, impegnata nello sviluppo attivo di propri programmi di militarizzazione dell'intelligenza artificiale. Tuttavia, come sottolineato dagli esperti, le aziende commerciali progettano originariamente i propri algoritmi per finalità legate all'esperienza utente, alla pubblicità e ai servizi, piuttosto che per il processo decisionale in scenari di combattimento.

Restano ancora aperte le questioni relative alla responsabilità per eventuali errori algoritmici, ai possibili pregiudizi nell'addestramento e ai limiti di un utilizzo accettabile dell'IA nei sistemi militari. Le dichiarazioni ufficiali del Pentagono pongono l'accento su un controllo rigoroso e su "qualsiasi uso operativo legittimo" (lawful operational use), sebbene l'elevato livello di segretezza renda difficili una verifica pubblica trasparente e un dibattito aperto.

Gli analisti osservano che tali accordi riflettono una tendenza più ampia: lo Stato non può più fare affidamento esclusivamente sulle proprie capacità di sviluppo e sceglie quindi di delegare parte dell'innovazione a laboratori e corporazioni private. Dal canto loro, le aziende tecnologiche ottengono l'accesso a ingenti finanziamenti pubblici e a dati che, in circostanze normali, resterebbero loro preclusi.

Mettendo a confronto l'IA commerciale, che ad esempio aiuta a scegliere un percorso sullo smartphone, con la stessa tipologia di algoritmi impiegati nel controllo di piattaforme droni o nell'analisi di intelligence, emerge chiaramente come cambino i rischi derivanti da errori o difetti dei modelli. Nelle applicazioni civili le conseguenze di un malfunzionamento sono generalmente limitate, mentre in ambito militare i potenziali errori potrebbero avere ripercussioni ben più gravi.

Si prevede che tali passi da parte degli Stati Uniti possano accelerare l'integrazione dell'IA nei programmi militari di altri Paesi, inclusi quelli già impegnati nello sviluppo di propri sistemi bellici basati sull'intelligenza artificiale. Al contempo, scienziati e attivisti per i diritti umani continuano a insistere sulla necessità di norme e regolamentazioni chiare per l'uso militare dell'IA, evidenziando come la politica stia evolvendo più velocemente delle normative e dei trattati internazionali.

Questi accordi dimostrano che i confini tra tecnologie civili e militari stanno diventando sempre più labili. La questione non riguarda più tanto l'effettiva comparsa di tali sistemi, quanto piuttosto le modalità con cui verrà garantito il controllo sul loro utilizzo e come la società e i regolatori riusciranno a bilanciare sicurezza, innovazione e rispetto dei principi etici.

5 Visualizzazioni
Hai trovato un errore o un'inaccuratezza?Esamineremo il tuo commento il prima possibile.