EU、高リスクシステムに焦点を当てたAI規制に関するパブリックコンサルテーションを開始

編集者: Veronika Radoslavskaya

欧州委員会は、高リスク人工知能(AI)システムに関する新たな規制について、パブリックコンサルテーションを開始しました。

7月18日まで実施されるこの協議は、市民社会、テクノロジー業界、AI開発者、研究者、当局など、さまざまな関係者からの意見を求めています。

AIのリスクを規制することを目的としたEUのAI法は昨年最終決定され、ほとんどの規定は8月に施行される予定です。高リスクシステムには、高品質のデータセット、活動ログ、詳細なドキュメント、明確なユーザー情報、人間の監督、堅牢なサイバーセキュリティなど、厳格な要件が課せられます。

高リスクAIシステムの例としては、採用プロセスやローン申請で使用されるものが挙げられます。委員会は、2026年2月2日までに、義務の実際的な適用と、高リスクおよび非高リスクAIシステムの例を明記したガイドラインを提示する必要があります。

新しい法律は、AIがもたらすリスクに基づいて、AIの使用を許可または禁止します。すでに発効しており、2027年までに完全に実施される可能性があります。

2月以降、生体認証システムや、行動に基づいて個人を評価するシステムは禁止されています。委員会はまた、タイムリーな実施を目指して、生成AIモデルに関するガイドラインの第4版を準備しています。

ソース元

  • Diario de Cádiz

エラーや不正確な情報を見つけましたか?

できるだけ早くコメントを考慮します。