欧州連合は、27カ国からなる欧州連合内でのAIシステムの開発と使用のための包括的な枠組みを確立することを目的とした画期的な法律である人工知能法を最終承認し、急速に進化する人工知能(AI)分野を規制する上で重要な一歩を踏み出した。.
5年間策定されてきたAI法案は、欧州議会議員の圧倒的多数で承認され、AI技術が責任ある人間中心の方法で開発および展開されることを確実にするための極めて重要な瞬間となりました。.
世界的な道標
人工知能法は、AI技術の規制という課題に取り組む他の政府にとって、世界的な指針となることが期待されています。ルーマニアの議員で、法案に関する議会交渉の共同リーダーを務めたドラゴス・トゥドラチェ氏は、この法律の重要性を強調し、「AI法は、AIの未来を人間中心の方向へと導きました。つまり、人間が技術をコントロールし、技術が新たな発見、経済成長、社会の進歩を促進し、人間の潜在能力を解き放つ方向です」と述べました。
リスクベースのアプローチ
AI法は、AIシステムの規制にリスクベースのアプローチを採用しており、技術がもたらす潜在的なリスクに比例して監視レベルが強化されます。コンテンツ推奨システムやスパムフィルターなど、リスクの低いシステムについては、より緩い規制が適用され、主にAIの利用に関する透明性が求められます。.
一方、医療機器や重要インフラシステムなど、AIの高リスクな用途では、高品質なデータの活用や利用者への明確な情報提供など、より厳しい要件が求められることになる。.
新法では、容認できないリスクをもたらすとみなされる特定のAIの用途が全面的に禁止されています。これには、人間の行動を管理するソーシャルスコアリングシステム、一部の予測型警察活動、学校や職場における感情認識システムなどが含まれます。さらに、誘拐やテロなどの重大犯罪を除き、法執行機関が公共の場でAIを活用した遠隔「生体dent」システムを使用することも禁止されています。.
この規制は、OpenAIのChatGPTのような汎用AIモデルの驚異的な増加にも対処するため、それらの監督に関する規定を導入しています。これらのモデルの開発者は、学習に使用したデータの詳細な概要を提供すること、EU著作権法を遵守すること、そしてAIによって生成されたディープフェイクが人為的に操作されたものであることを明示することが求められます。.
システムリスクへの対処
AI法は、強力なAIモデルが「システムリスク」をもたらす可能性を認識し、OpenAIのGPT4やGoogleのGeminiといった最大規模かつ最先端のシステムに対して追加的な精査を課しています。これらのシステムを提供する企業は、リスクを評価・軽減し、重大なdentを報告し、サイバーセキュリティ対策を実施し、エネルギー消費データを開示する必要があります。.
EUの懸念は、これらの強力なAIシステムが重大なdentを引き起こしたり、サイバー攻撃に悪用されたり、多数のアプリケーションに有害な偏見を広めて多数の人々に影響を与える可能性があることに起因しています。.
AI法は責任あるAI開発の枠組みを確立することを目指している一方で、EU域内におけるイノベーションの促進も目指しています。大手テクノロジー企業は、規制の必要性を概ね支持しつつも、規則が自社に有利に働くようロビー活動を展開しています。.
OpenAIのCEOサム・アルトマン氏は当初、AI法に従えない場合は欧州から撤退する可能性があると示唆して騒動を巻き起こしたが、後にtracし、撤退の計画はないと述べた。.
世界が AI 技術の急速な進歩に取り組む中、欧州連合の人工知能法は、イノベーションの促進と、この変革をもたらす技術がもたらす潜在的なリスクや課題への対処のバランスを取る先駆的な取り組みを表しています。.

