五角大楼将商用人工智能整合至机密系统

作者: Tatyana Hurynovich

在人工智能伦理专家仍在讨论 AI 军事化应用风险之际,美国国防部宣布与多家科技公司达成了一系列协议。据美联社报道,五角大楼已与七家顶尖 IT 企业签署合同,计划在受保护的军事网络中部署商用 AI 模型,而此类算法在此类场景中以往几乎从未得到应用。

这些协议并非仅仅涉及基础硬件的供应:据美联社消息,其核心在于利用现成的商用模型来处理数据分析、后勤保障、情报搜集以及辅助士兵决策。此前,五角大楼往往更青睐自主研发和封闭式解决方案,但如今该部门正刻意加强与私营部门的合作,旨在加速尖端技术的部署进程。

在全球竞争日益激烈的背景下,这些协议的签署强化了美国在军事 AI 领域的技术地位,尤其是面对正积极推进人工智能军事化计划的中国。然而专家指出,商用算法最初是为优化用户体验、广告投放和服务而设计的,并非为了在复杂的作战环境下进行决策。

目前,算法失误的责任归属、训练数据可能存在的偏见,以及 AI 在军事系统中的应用边界等问题仍不明朗。尽管五角大楼官方声明强调了严格的监管和“任何合法的作战用途”(lawful operational use),但在高度保密的环境下,开展完全公开的审查和透明的社会讨论依然困难重重。

分析人士认为,此类交易反映了一个更广泛的趋势:政府已无法仅凭自身力量进行研发,因此将部分创新职能委托给了私营实验室和企业。相应地,这些科技公司不仅获得了巨额政府资金支持,还接触到了在常规环境下无法获取的宝贵数据。

若将手机导航中使用的商用 AI 与负责操控无人平台或情报分析的同类算法进行对比,就能发现模型缺陷所带来的风险等级完全不同。在民用领域,系统故障的影响通常较为有限;但在军事语境下,任何可能的差错都可能引发极其严重的后果。

预计美国的这些举措将促使其他国家加快在军事项目中整合人工智能,尤其是那些已在积极开发本国军事 AI 系统的国家。与此同时,科学家和人权组织持续呼吁针对人工智能的军事应用制定明确的规则与监管机制,并强调政策的发展速度已远超相关规范和国际协议的完善速度。

这些协议表明,民用与军用技术之间的界限正变得日益模糊。现在的核心问题不在于此类系统是否会出现,而在于如何确保对其使用的监管,以及社会和监管机构如何在国家安全、技术创新与伦理守则之间寻求平衡。

5 查看
你发现了错误或不准确的地方吗?我们会尽快考虑您的意见。