Доки фахівці з етики штучного інтелекту продовжують дискутувати про ризики використання ШІ у військових системах, Міністерство оборони США оголосило про низку угод із технологічними компаніями. За повідомленням Associated Press, Пентагон підписав контракти з сімома провідними ІТ-гігантами щодо впровадження їхніх комерційних моделей ШІ у захищених військових мережах — середовищі, де раніше подібні алгоритми майже не застосовувалися.
Ці домовленості виходять за межі звичайного постачання обладнання: за даними AP, вони передбачають використання готових комерційних моделей для аналізу даних, логістики, розвідки та підтримки прийняття рішень військовослужбовцями. Раніше Пентагон переважно покладався на власні розробки та ізольовані рішення, проте зараз відомство свідомо прагне тіснішої співпраці з приватним сектором для прискореного впровадження передових технологій.
Укладання цих угод зміцнює технологічну присутність США у сфері військового ШІ на тлі глобальної конкуренції, зокрема з боку Китаю, який активно розвиває власні програми мілітаризації штучного інтелекту. Водночас, як зауважують експерти, комерційні компанії зазвичай розробляють алгоритми для завдань, орієнтованих на зручність користувачів, рекламу та сервіси, а не для прийняття рішень в умовах бойових дій.
Невирішеними залишаються питання відповідальності за помилки алгоритмів, можлива упередженість під час навчання моделей та межі допустимого використання ШІ у військових системах. Офіційні заяви Пентагону наголошують на суворому контролі та «будь-якому законному оперативному використанні» (lawful operational use), проте в умовах високої секретності повноцінна відкрита перевірка та прозора суспільна дискусія залишаються ускладненими.
Аналітики зазначають, що подібні угоди відображають ширшу тенденцію: держава більше не може покладатися виключно на власні розробки, тому делегує частину інновацій приватним лабораторіям і корпораціям. Своєю чергою, технологічні компанії отримують доступ до значного державного фінансування та даних, які за звичайних умов були б для них недоступними.
Порівнюючи комерційний ШІ, який, наприклад, допомагає обрати маршрут у смартфоне, і той самий тип алгоритмів у системах керування безпілотними платформами чи аналізу розвідданих, можна побачити, наскільки зростають ризики через помилки та недоліки моделей. У цивільних завданнях наслідки збоїв зазвичай обмежені, тоді як у воєнному контексті потенційні прорахунки можуть мати набагато важчі наслідки.
Очікується, що такі кроки США можуть прискорити інтеграцію ШІ у військові програми інших держав, зокрема тих, що вже активно розвивають власні мілітарні ШІ-системи. Водночас науковці та правозахисники наполягають на необхідності чітких правил і регулювання у сфері військового застосування штучного інтелекту, підкреслюючи, що політика розвивається швидше за відповідні норми та міжнародні угоди.
Ці домовленості демонструють, що межі між цивільними та військовими технологіями стають дедалі умовнішими. Питання полягає не стільки в тому, чи з’являться такі системи, скільки в тому, як саме забезпечуватиметься контроль за їхнім використанням, а також як суспільство й регулятори зможуть збалансувати інтереси безпеки, інновацій та дотримання етичних норм.



