當人工智慧倫理專家持續針對軍事系統應用 AI 的風險展開辯論之際,美國國防部宣布與多家科技公司達成一系列協議。根據美聯社報導,五角大廈已與七家頂尖資訊科技企業簽署協議,準備在受保護的軍用網路中使用這些公司的商用 AI 模型,而這在過去幾乎是前所未見的應用場景。
這些協議不僅限於供應傳統硬體設備:根據美聯社取得的消息,合約內容涵蓋了利用現成的商用模型來進行數據分析、物流管理、情報偵察以及輔助軍事決策。過去五角大廈往往傾向於自主研發與封閉式方案,但目前該部門正刻意加強與私營部門的合作,以求更迅速地引進頂尖技術。
在全球競爭加劇的背景下,這些協議強化了美國在軍事 AI 領域的技術優勢,特別是面對同樣正積極發展 AI 軍事化計畫的中國。然而專家也提醒,商用公司開發算法的初衷通常是為了提升使用者體驗、廣告效益或服務品質,而非為了在瞬息萬變的戰鬥行動中做出決策。
目前關於演算法錯誤的責任歸屬、訓練過程中的潛在偏見,以及 AI 在軍事系統中使用的界限等問題仍未明朗。儘管五角大廈在官方聲明中強調會進行嚴格控管並確保「一切合法的作戰用途」(lawful operational use),但在高度機密的環境下,要進行完全公開的查驗與透明的社會討論依然困難重重。
分析人士指出,此類交易反映出一個更廣泛的趨勢:政府已無法單靠自身研發力量,因此將部分創新任務委託給私有實驗室與企業。對科技公司而言,這不僅能獲得巨額政府資助,還能接觸到在一般情況下無法取得的海量數據。
若將手機導航這類商用 AI,與應用於無人機平台操控或情報數據分析的同類型演算法進行對比,便能發現模型缺陷所帶來的風險程度截然不同。在民生任務中,系統故障的後果通常有限,但在軍事脈絡下,任何可能的錯誤都可能導致更為嚴重的後果。
預期美國的這類舉措可能會加速其他國家將 AI 整合至軍事計畫的速度,特別是那些已經在積極開發自家軍用 AI 系統的國家。與此同時,學者與民權人士持續呼籲應針對 AI 的軍事應用制定明確規範與監督機制,並強調政策發展的速度往往遠超相關準則與國際協議的制定。
這些協議顯示,民用與軍用技術之間的界線正變得日益模糊。現在的問題不在於這類系統是否會出現,而在於如何確保其使用過程受到有效監管,以及社會與監管機構如何在安全利益、技術創新與倫理規範之間達成平衡。



