微軟、Google 及 xAI 同意向美國政府提供 AI 模型之早期存取權

编辑者: Tatyana Hurynovich

根據多家西方及俄羅斯主流媒體報導,微軟、Google(透過 Alphabet)以及伊隆·馬斯克旗下的 xAI 已與美國政府達成協議,將在其尖端人工智慧模型正式對外發布前,向政府提供早期存取權限。官方計畫利用這些模型進行風險與機會評估,重點在於維護國家安全以及防範惡意用途。

此項倡議與川普總統在人工智慧領域的行政命令及行動方案相關,包括美國商務部旗下的人工智慧標準與創新中心(CAISI)在內的聯邦機構,將有機會預先分析這些系統。藉此,相關部門能識別出與產出危險內容、網路威脅,或可能用於軍事及情報任務相關的風險。

關於存取權限的具體條件以及使用的數據量目前尚未完全公開,這引發了專家與人權組織的疑慮。他們主要關注隱私權如何受到保護,以及政府在使用這些模型時的管控措施與權限邊界。

這一舉措是在全球人工智慧競爭日益激烈的背景下提出的,美國正力求維持其技術與軍事優勢。早期存取 AI 模型不僅能讓國家評估風險,還能考量其在五角大廈、情報機關及其他部門的應用,這在 Google、微軟等大型企業與軍方簽署的現有協議中已初見端倪。

參與此過程的企業可能寄望於展現負責任的態度與接受監管的意願,藉此降低未來面臨更嚴厲監管或營運限制的可能性。

分析人士將此與原子能或生物技術等歷史領域的政府與私營部門互動模式進行類比,在這些領域中,強力的國家監控與技術發展並行。就 AI 而言,這些系統已透過搜尋服務、聊天機器人、數據處理及軍事應用融入數百萬人的日常生活中。這種合作模式可能成為其他國家的參考指標,協助其在推動創新與保護社會免受強大 AI 模型風險之間取得平衡。

對於使用者與市場而言,這意味著足以改變經濟、商業模式及社會進程的技術發展,將受到監管機構更嚴密的注視。當局預先評估每一項新 AI 產品帶來的風險,可能導致更嚴格的建議與規範出現,且這些規則不僅適用於美國,甚至可能擴散至國際監管環境。

此外,這種做法也為國際合作帶來了不對稱性:美國盟友及其他國家若無法獲得同等程度的美國 AI 技術存取權,在制定全球安全標準時可能會處於較弱勢的地位。同樣重要的是,協議主要針對被視為對國家及軍事利益具有潛在敏感性的尖端模型,這使得各方能集中應對核心威脅,而無需揭露所有商業細節。

最終,提供 AI 模型早期存取權反映了開發模式的轉變,亦即人工智慧的研發與部署將仰賴私營開發商、政府與社會之間的持續對話。在此框架下,國家安全與利益將愈發深刻地影響科技發展的速度與形式。



7 浏览量

來源

  • Microsoft, Google, xAI give US access to AI models for security testing

发现错误或不准确的地方吗?我们会尽快处理您的评论。