Pentagon integruje komercyjną sztuczną inteligencję z systemami niejawnymi

Autor: Tatyana Hurynovich

Podczas gdy eksperci ds. etyki sztucznej inteligencji debatują nad ryzykiem związanym z wykorzystaniem AI w systemach obronnych, Departament Obrony USA ogłosił zawarcie szeregu porozumień z firmami technologicznymi. Według agencji Associated Press, Pentagon podpisał umowy z siedmioma czołowymi przedsiębiorstwami IT na wdrożenie ich komercyjnych modeli AI w chronionych sieciach wojskowych – środowisku, w którym tego typu algorytmy dotychczas niemal nie występowały.

Kontrakty te wykraczają poza dostawy standardowego sprzętu: jak podaje AP, zakładają one wykorzystanie gotowych rozwiązań komercyjnych do analizy danych, logistyki, rozpoznania oraz wsparcia procesów decyzyjnych żołnierzy. W przeszłości Pentagon stawiał głównie na własne projekty i odizolowane systemy, jednak obecnie resort świadomie dąży do zacieśnienia współpracy z sektorem prywatnym, aby przyspieszyć adaptację najnowocześniejszych technologii.

Zawarcie tych umów wzmacnia pozycję technologiczną Stanów Zjednoczonych w obszarze militarnej AI w obliczu globalnej rywalizacji, w tym ze strony Chin, które intensywnie rozwijają własne programy zbrojeń opartych na sztucznej inteligencji. Jednocześnie eksperci zauważają, że firmy komercyjne projektują algorytmy z myślą o wygodzie użytkownika, reklamie czy usługach, a nie pod kątem podejmowania decyzji w warunkach operacji bojowych.

Wciąż niewyjaśnione pozostają kwestie odpowiedzialności za błędy algorytmów, ryzyko stronniczości w procesie uczenia oraz granice dopuszczalności stosowania AI w systemach wojskowych. Oficjalne komunikaty Pentagonu kładą nacisk na ścisłą kontrolę oraz „wszelkie zgodne z prawem zastosowania operacyjne” (lawful operational use), lecz przy wysokim stopniu utajnienia pełna, niezależna weryfikacja i przejrzysta debata publiczna pozostają utrudnione.

Analitycy wskazują, że transakcje te odzwierciedlają szerszy trend: państwo nie jest już w stanie polegać wyłącznie na własnym zapleczu badawczym, dlatego deleguje część innowacji do prywatnych laboratoriów i korporacji. Z kolei giganci technologiczni zyskują dostęp do znacznego finansowania państwowego oraz zbiorów danych, które w normalnych warunkach byłyby dla nich nieosiągalne.

Zestawiając komercyjną AI wspomagającą np. wybór trasy w smartfonie z tym samym typem algorytmów sterujących platformami bezzałogowymi czy analizujących dane wywiadowcze, widać wyraźnie, jak drastycznie zmienia się skala ryzyka wynikająca z błędów modeli. W zastosowaniach cywilnych skutki awarii są zazwyczaj ograniczone, podczas gdy w kontekście militarnym ewentualne pomyłki mogą nieść ze sobą znacznie tragiczniejsze konsekwencje.

Przewiduje się, że kroki podjęte przez USA mogą przyspieszyć integrację AI w programach zbrojeniowych innych państw, w tym tych, które już teraz dynamicznie rozwijają własne systemy wojskowe oparte na tej technologii. Równocześnie naukowcy i obrońcy praw człowieka apelują o ustanowienie jasnych reguł i regulacji dotyczących militarnego użycia sztucznej inteligencji, podkreślając, że polityka rozwija się szybciej niż odpowiednie normy i umowy międzynarodowe.

Porozumienia te dowodzą, że granice między technologiami cywilnymi a wojskowymi stają się coraz bardziej płynne. Kluczowym pytaniem nie jest już to, czy takie systemy powstaną, lecz w jaki sposób zostanie zapewniona kontrola nad ich użyciem oraz jak społeczeństwo i regulatorzy zdołają wypracować równowagę między bezpieczeństwem, innowacyjnością a zasadami etycznymi.

5 Wyświetlenia
Czy znalazłeś błąd lub niedokładność?Rozważymy Twoje uwagi tak szybko, jak to możliwe.