AI倫理の専門家らが軍事システムへのAI導入に伴うリスクを議論し続ける中、米国防総省はテクノロジー企業各社との一連の提携合意を発表した。AP通信の報道によると、国防総省はIT大手7社と契約を締結し、これまでこうしたアルゴリズムがほとんど活用されてこなかったセキュアな軍用ネットワークにおいて、商用AIモデルを導入する方針だという。
これらの合意は単なるハードウェアの供給にとどまらず、AP通信によれば、データ分析、物流、諜報、さらには兵士の意思決定支援のために、既存の商用モデルを利用することが盛り込まれている。これまで国防総省は独自開発や隔離されたソリューションに頼ることが多かったが、現在は最先端技術をより迅速に導入するため、民間セクターとの緊密な連携を意図的に推進している。
こうした契約の締結は、独自のAI軍事化プログラムを積極的に推し進める中国などの台頭によるグローバルな競争の中で、軍事AI分野における米国の技術的なプレゼンスを強化するものだ。一方で専門家は、民間企業が本来アルゴリズムを開発するのは、ユーザーの利便性や広告、サービスのためであり、戦闘作戦下での意思決定を目的としたものではないと指摘している。
アルゴリズムの誤りに対する責任の所在や、学習プロセスにおける偏り、軍事システムでのAI利用の許容範囲といった問題は、依然として不透明なままである。国防総省の公式声明では、厳格な管理と「あらゆる適法な作戦上の運用(lawful operational use)」が強調されているが、高度な機密性を背景に、完全にオープンな検証や透明性のある公的な議論を行うことは困難な状況が続いている。
アナリストらは、こうした取引について、国家がもはや自国の開発のみに頼ることはできず、イノベーションの一部を民間の研究所や企業に委ねるようになっているという、より広範なトレンドを反映したものだと指摘している。対してテクノロジー企業側は、多額の政府資金に加え、通常ではアクセスできないようなデータへの道が開かれることになる。
例えば、スマートフォンのルート案内を助ける商用AIと、無人プラットフォームの制御や諜報データの分析に関わる同種のアルゴリズムを比較すると、モデルの誤りや欠陥から生じるリスクがどれほど変質するかが浮き彫りになる。民間任務における不具合の影響は通常限定的だが、軍事的な文脈では、起こりうる誤りがより深刻な結果を招く可能性がある。
米国によるこうした動きは、すでに独自の軍事AIシステムを活発に開発している国々を含め、他国におけるAI統合を加速させることが予想される。同時に、科学者や人権活動家は軍事分野でのAI活用に関する明確な規則と規制の必要性を訴え続けており、政策の進展が対応する規範や国際合意よりも速いスピードで進んでいることを強調している。
今回の合意は、民生技術と軍事技術の境界がますます曖昧になっていることを示している。論点は、こうしたシステムが登場するかどうかではなく、その運用の管理をいかに確保し、社会や規制当局がいかにして安全保障、イノベーション、そして倫理基準の遵守という利害のバランスを取るかにある。



