EU加盟国と欧州議会の議員団は、当初よりも緩和された人工知能(AI)規制案について暫定合意に達しました。この文書では特定のAIシステムの禁止や高リスクモデルへの要件が規定されていますが、初期案と比較するといくつかの厳格な規定が緩和される形となりました。
公共の場におけるリアルタイムの生体認証については、テロ対策や犯罪者捜索などの例外を除き、原則禁止が維持されています。同時に、AIが生成したコンテンツへのラベル付けの義務化や、大規模言語モデル(LLM)をはじめとする汎用AIシステムに対する透明性の確保も盛り込まれました。
数ヶ月に及んだ交渉は、加盟国と欧州議会の妥協という形で決着しました。フランス、ドイツ、イタリアは自国のテック企業に配慮した緩やかな表現を求めた一方で、より厳格な制限を主張する国もありました。最終的な草案では、規制の一部が各国の監督当局の管轄へと移されています。
この合意は、EUと第三国との技術協力にも直接的な影響を及ぼします。欧州市場でAIソリューションを提供する米国、英国、中国の企業は、今後、透明性とリスク評価に関する新たな要件を満たさなければなりません。これは輸出への新たな障壁となると同時に、他地域での同様の規制導入を加速させる可能性があります。
法的な修正を経て、今後数ヶ月以内に欧州議会と閣僚理事会で最終採決が行われる予定です。規制の本格的な施行は2026年以降になると見られており、既存のシステムには移行期間が設けられます。各加盟国は、遵守状況を監督するための国内機関の設置をすでに開始しています。
これにより、EUは危険な慣行を制限しつつ技術開発の余地も残した包括的なAI規制を初めて導入することになりますが、実質的な責任の多くは各国の監督当局や輸入企業に委ねられることになります。



