微软、谷歌及 xAI 同意向美国政府提供其 AI 模型的早期访问权限

编辑者: Tatyana Hurynovich

据多家西方及俄罗斯主流媒体报道,微软、谷歌(通过 Alphabet)以及埃隆·马斯克旗下的 xAI 已与美国政府达成协议,同意在尖端人工智能模型正式发布前向政府提供早期访问权限。美国当局计划利用这些模型评估其潜在风险与机遇,重点关注国家安全领域以及防范恶意利用的能力。

在与特朗普总统的人工智能行政令及行动计划相关的倡议下,包括美国商务部下属人工智能标准与创新中心(CAISI)在内的联邦机构将获得提前分析这些系统的权限,以便识别与生成危险内容、网络威胁或军事及情报应用相关的潜在风险。

目前,提供访问的具体条款及所涉数据量尚未完全公开,这引发了专家和人权团体的质疑,主要涉及政府在使用模型时如何保障隐私、实施监管以及明确权责边界。

这一倡议的背景是全球人工智能竞争日益加剧,美国正竭力维持其在技术和军事领域的领先地位。通过获得 AI 模型的早期访问权,政府不仅能评估风险,还能探讨其在五角大楼、情报机构及其他部门中的应用前景,这在谷歌、微软等巨头此前与军方达成的协议中已有所体现。

参与此过程的企业可能希望通过展现负责任的态度和接受监管的意愿,来降低未来面临更严厉监管及业务明确限制的可能性。

分析人士将此举与核能或生物技术等历史上的政企合作模式进行了类比,在这些领域,强有力的国家监管与技术进步相得益彰。就人工智能而言,相关系统已通过搜索引擎、聊天机器人、数据处理及军事应用深入影响到数百万人的日常生活。这种合作模式可能为其他国家提供参考,帮助其在推动创新与防范强力 AI 模型带来的社会风险之间寻求平衡。

对于用户和市场而言,这意味着那些能够改变经济、商业模式和社会进程的技术发展,将在监管机构更严密的注视下进行。由于当局会预先评估每款新 AI 产品的风险,这可能会催生出更严格的指导方针和规则,这些标准不仅适用于美国本土,还可能输出到国际监管格局中。

此外,这种做法在国际合作中造成了某种不对称:美国盟友及其他国家由于缺乏同等水平的美国 AI 技术访问权,在制定全球安全标准时可能处于相对弱势。值得注意的是,这些协议主要针对被视为涉及国家及军事利益的敏感前沿模型,这使政府能够在不泄露全部商业细节的情况下,集中应对核心威胁。

最终,提供 AI 模型早期访问权体现了研发模式的转型,即人工智能的开发与推广将日益建立在私人开发商、政府与社会之间的持续沟通之上,而国家安全与利益正不断塑造着技术发展的节奏与形态。

7 查看

来源

  • Microsoft, Google, xAI give US access to AI models for security testing

你发现了错误或不准确的地方吗?我们会尽快考虑您的意见。