EU AI規制は2024年8月に発効
2021 年 4 月の欧州委員会の最初の提案に続き、欧州議会は EU 人工知能規則を採択しました。 これは、2024 年 7 月に欧州連合の官報に掲載され、現在は EU 加盟国の 24 の公用語すべてで利用可能です。 この規制は 2024 年 8 月に正式に発効する予定ですが、ほとんどの規定は 2 年後まで適用されません。 ただし、個別の規定には異なる期限が適用されます。 この規制は、欧州連合で人工知能システムを開発および/または使用する企業に対する義務を定めています。
EUのAI規制スケジュール
EU AI 規制は、次のスケジュールに従って開発および施行されます。
2021 年 4 月:欧州委員会による最初の提案
2024 年 3 月:欧州議会で採択
2024 年 7 月: EU 官報に正式発表
2024 年 8 月:規制が発効
2025 年半ば:すべての EU 加盟国で完全実施
欧州人工知能規制とは何ですか?
欧州 AI 法 2024 は、AI システムが「安全、透明性、追跡可能、無差別で環境に優しい」方法で使用されることを保証することを目的とした欧州委員会の規制です。 この規制は、AIシステムの「提供者」と「運用者」がAIシステムがもたらすリスクに応じて、AIシステムを適切に取り扱う方法を規制することを目的としている。 AIシステムの「プロバイダー」とは、広義には自社ブランドでAIシステムを提供または開発する企業を指します。 オペレーターとは、AI テクノロジーを使用する人々のことです。 したがって、どの企業もこのグループに属することができます。 AIシステムのリスクが高ければ高いほど、規制要件は厳しくなります。
EU AI 法の重要なポイント
- リスクベースの分類: AI 法では AI システムをさまざまなリスク レベルに分類し、それぞれのリスク レベルに潜在的な影響を管理するための特定の規制要件が定められています。
- 透明性要件:高リスク AI システムは、説明責任と追跡可能性を確保するために、厳格な透明性と記録保持の要件を満たす必要があります。
- 人間による監視:特定の AI システムでは、リスクを軽減し、倫理基準を維持するために人間による監視が必要です。
EU AI 法のリスクレベル
AI 法では、AI システムの 4 つのリスク レベルが定義されており、それぞれが特定の規制要件に関連付けられています。
許容できないリスク
このリスク レベルを下回る AI システムは明らかな脅威となるため、厳しく禁止されています。 例としては、子供たちをだまして危険な行動に導く音声制御のおもちゃなどの認知技術による行動の操作や、行動や個人的特徴に基づいて人々を分類する社会的評価システムなどが挙げられます。
ハイリスクAIシステム
このカテゴリの AI システムは、健康、安全、または基本的権利に重大な影響を与える可能性があります。 この例には、重要インフラ管理、教育、雇用、法執行における AI が含まれます。 すべての高リスク AI システムは、市場に投入される前とその耐用年数にわたって厳格なテストを受ける必要があります。 個人は、AI システムに関する懸念を関連国の当局に報告する権利を有します。
限定的なリスク
これらの AI システムはリスクが低く、透明性要件の対象となります。 たとえば、チャットボットと対話するユーザーには、AI と会話していることを通知する必要があります。 また、プロバイダーは、AI によって生成されたコンテンツ、特に公共の関心のあるトピックについては、テキスト、音声、ビデオのいずれであっても、人工的に生成されたものとして明確にマークされていることを確認する必要があります。
リスクは最小限またはゼロ
リスクが最小限またはまったくない AI システムは、追加の規制要件の対象になりません。 この例には、AI 制御のビデオ ゲームやスパム フィルターが含まれます。
コンプライアンスとAI:企業がやるべきこと
欧州理事会が 5 月のプレスリリースで説明したように、公共サービスを提供する特定の企業がハイリスク AI システムを導入する前に、基本的権利への影響を評価することが重要です。
AI システムプロバイダーが留意すべき点がいくつかあります。
- AI システムのリスク カテゴリを決定し、必要な保護措置を実装することにより、リスク評価を実施します。
- コンプライアンスを証明する技術文書を作成し、審査のために当局に提出します。
- イベントを自動的にログに記録し、リスクやシステムの変更を検出する AI システムを開発します。
- 要件が確実に満たされるように、オペレーター向けのガイドラインを作成します。
オペレーターにはプロバイダーと同じ義務はありませんが、AI 法では、使用ガイドラインを遵守し、組織的および技術的コンプライアンスを確保し、高リスク AI システムを導入する前にデータ保護影響評価を実施することが義務付けられています。
EU AI 法を遵守しない場合、違反の重大度と企業の規模に応じて、3,500 万ユーロ (世界売上高の 7%) から 750 万ユーロ (売上高の 1.5%) の範囲の罰金が科される可能性があります。
欧州のデジタル目標と 2030 年に向けて定められた欧州データ戦略は、オンライン サービスにおける公正な競争を促進し、透明性を高めることを目的としています。 これは企業にとって、自社のプロセスがこれらのデータ保護の価値をサポートしていることを確認する必要があることを意味します。 デジタル サービス法やデジタル市場法など、最近可決された法律は、公正な競争と透明性の重要性を強調しています。 内部プロセスに対処し、早い段階で見直すことで、AI システムのプロバイダーとユーザーの両方が罰金を回避し、消費者の信頼を高めることができます。 ここをクリックして今すぐコンプライアンス プロセスを改善してください。