Google удалила из своих принципов ИИ ключевое обещание, отказавшись от обязательства не разрабатывать искусственный интеллект для оружия или систем слежения. Изменение, впервые замеченное Bloomberg, отражает сдвиг в позиции технологического гиганта в отношении военных и охранных приложений ИИ.
Обновленная версия политики Google в области ИИ, опубликованная во вторник, теперь подчеркивает, что компания занимается ИИ «ответственно» и в соответствии с «широко признанными принципами международного права и прав человека». Однако в ней больше не говорится прямо, что Google будет избегать разработки ИИ для оружия или массового наблюдения.
Пересмотренная политика была представлена в блоге Демисом Хассабисом, руководителем Google DeepMind, и Джеймсом Маника, старшим вице-президентом исследовательских лабораторий. Они представили обновление как часть убеждения Google в том, что «демократии должны лидировать в развитии ИИ» и что ИИ должен создаваться в сотрудничестве с правительствами и организациями, которые отстаивают такие ценности, как «свобода, равенство и уважение прав человека».
Google столкнулась с внутренними протестами сотрудников из-за своих контрактов с Министерством обороны США и израильской армией, особенно в области облачных вычислений и ИИ. Компания неизменно утверждала, что ее технологии не используются для причинения вреда людям, но недавние разоблачения ставят это утверждение под сомнение.
Глава ИИ Пентагона недавно заявил TechCrunch, что модели ИИ некоторых компаний, в том числе Google, помогают ускорить «ударную цепочку» американской армии — процесс, в котором цели идентифицируются и атакуются в боевых операциях.
Отмена обещания не разрабатывать оружие и системы слежения уже вызывает негативную реакцию со стороны правозащитных групп, исследователей этики ИИ и некоторых сотрудников Google.
Google была одной из немногих крупных компаний, занимающихся ИИ, которые дали четкое обещание не разрабатывать ИИ для ведения войны. Некоторые считают, что отказ от этого обязательства свидетельствует о том, что компания ставит прибыль и власть выше этической ответственности.
Другие утверждают, что новая политика Google в области ИИ расплывчата, заменяя конкретные обязательства широким, субъективным языком о «международном праве и правах человека» — стандарте, который открыт для интерпретации и может позволить компании оправдывать практически любое применение ИИ.
Смягчение позиции Google в отношении ИИ может отражать растущее давление со стороны Вашингтона, чтобы ведущие американские технологические компании оставались конкурентоспособными в глобальной гонке ИИ, особенно против Китая.
Правительство США все больше внимания уделяет интеграции ИИ в военную стратегию, а такие технологические компании, как Google, Microsoft и Amazon, расширяют свою роль в национальной безопасности.
Решение Google тихо удалить свое обещание поднимает важные вопросы о будущем этики ИИ.