Пентагон интегрирует коммерческий ИИ в засекреченные системы

Автор: Tatyana Hurynovich

Пока эксперты по этике искусственного интеллекта продолжают обсуждать риски применения ИИ в военных системах, Министерство обороны США объявило о серии соглашений с технологическими компаниями. Согласно сообщению Associated Press, Пентагон заключил сделки с семью ведущими ИТ‑компаниями, чтобы использовать их коммерческие модели ИИ в защищенных военных сетях — контексте, в котором ранее подобные алгоритмы почти не применялись.

Эти соглашения не ограничиваются поставкой обычного оборудования: по данным AP, они предусматривают использование готовых коммерческих моделей для анализа данных, логистики, разведки и поддержки решений военнослужащих. Ранее Пентагон чаще делал ставку на собственные разработки и изолированные решения, но сейчас ведомство намеренно идет на более тесное сотрудничество с частным сектором, чтобы быстрее внедрять передовые технологии.

Заключение этих договоренностей усиливает технологическое присутствие США в области военного ИИ на фоне глобальной конкуренции, в том числе со стороны Китая, который активно развивает собственные программы милитаризации искусственного интеллекта. При этом, как отмечают эксперты, коммерческие компании изначально создают алгоритмы для задач, связанных с удобством пользователей, рекламой и сервисами, а не для принятия решений в условиях боевых операций.

Неясными остаются вопросы ответственности за ошибки алгоритмов, возможные предвзятости в обучении и пределы допустимого использования ИИ в военных системах. Официальные заявления Пентагона подчеркивают строгий контроль и «любое законное оперативное использование» (lawful operational use), но в условиях высокого уровня засекреченности полностью открытая проверка и прозрачная общественная дискуссия остаются затрудненными.

Аналитики отмечают, что подобные сделки отражают более широкую тенденцию: государство уже не может рассчитывать исключительно на собственные разработки, поэтому делегирует часть инноваций частным лабораториям и корпорациям. В свою очередь, технологические компании получают доступ к крупному государственному финансированию и к данным, которые в обычных условиях были бы для них недоступны.

Сравнивая коммерческий ИИ, который, например, помогает выбрать маршрут в смартфоне, и тот же тип алгоритмов в системах, участвующих в управлении беспилотными платформами или анализе данных разведки, можно увидеть, насколько меняются риски от ошибок и недостатков моделей. В мирных задачах последствия сбоев, как правило, ограничены, тогда как в военном контексте возможные ошибки могут иметь более тяжелые последствия.

Ожидается, что подобные шаги США могут ускорить интеграцию ИИ и в военных программах других стран, в том числе тех, которые уже активно развивают собственные военные ИИ‑системы. В то же время ученые и правозащитники продолжают настаивать на необходимости четких правил и регулирования в сфере военного применения искусственного интеллекта, подчеркивая, что политика развивается быстрее, чем соответствующие нормы и международные соглашения.

Эти соглашения показывают, что границы между гражданскими и военными технологиями становятся все более условными. Вопрос заключается не столько в том, появятся ли такие системы, сколько в том, каким образом будет обеспечиваться контроль за их использованием, а также как общество и регуляторы сумеют сбалансировать интересы безопасности, инноваций и соблюдения этических норм.

 

 

 

 

5 Просмотров
Вы нашли ошибку или неточность?Мы учтем ваши комментарии как можно скорее.