ヨーロッパ連合(EU)は、AIの利用に関する新たな法案で大筋合意しました。この法案は、AIのリスクを分類し、特定のリスクの高いAIの利用を禁止にするというものです。具体的には、公的機関や企業による人々の信用度評価や、子どもなど特定の人々の弱みを利用するAIが「許容できないリスク」とされており、その使用が禁止されます。
教育機関や企業の採用に使用される「高いリスク」のAIは、偏りのない判断、人間による監視、強化されたサイバーセキュリティなどが求められます。また、生成AIが作成した画像や文章に関して、AIによるものであることを明示する透明性が義務づけられています。
違反企業に対しては最大3,500万ユーロ(約54億円)か、年間売上高の7%のいずれか高いほうが制裁金として科されることになります。2026年にはこの規制が完全に適用される予定です。
ヨーロッパ委員会のフォンデアライエン委員長は、「EUのAI規制法は世界で初めてのものだ。信頼できるAIを開発するための唯一の法的枠組みで、人々の安全と基本的権利、それに企業を守るものでもある」とコメントしています。
汎用性の高いAIモデルを扱う企業には別途義務が課される
AIの利用に関する新たな法規制では、「ChatGPT」などの生成AIに使用されている汎用性の高いAIモデルを扱う企業に対しても、別途義務が課される方針です。また、システムリスクを引き起こす可能性があるモデルについては、リスク管理と重大インシデントの監視などの義務が発生します。
さらに、AIの監督を行うために「AI事務局」を設ける計画です。この事務局は、拘束力のある規則を施行する世界初の機関となる見通しです。
生体認証技術、特に顔認証に関しては、公共空間での法執行目的のリアルタイム遠隔生体認証の使用が禁止されます。この点に関しては、欧州議会とフランスなどの間で意見が割れています。
欧州議会は「野放図に監視が認められる可能性がある」と全面的な使用禁止を求めており、フランスなどはテロ対策のために「許容できないリスク」の分類から外すよう要求しています。
一方で、安全保障や軍事目的、また研究や開発段階のAIは規制の対象外となりました。非公式会合は6日午後に始まり、日々進化する技術と原案からの大きな隔たりにより、合意には3日間で計30時間以上かかりました。