Categories
Table of Contents
< Back
You are here:
Print

欧州委員会の人工知能に関する規制案に対するAlgorithmWatchの応答 – 大きなギャップのある大きな一歩

欧州委員会の人工知能に関する規制案に対するAlgorithmWatchの回答 – 大きなギャップのある大きな一歩
フリーデリケ・ラインホルト
アンジェラ・ミュラーとのコラボレーション
ポジション
2021年4月22日

免責事項:以下の分析は、私たちの仕事に特に関連があると思われる特定の問題を最初に取り上げ、暫定的に分析したものです。100ページを超えるこの文書を深く、包括的に評価するには、より多くの時間と深い分析が必要だ。

昨日、欧州委員会は、待ちに待った欧州における人工知能(AI)の規制に関する提案を発表した。この提案は、基本的な権利を保護する一方で、AI分野でのイノベーションを促進し、欧州経済を「未来に適したもの」にしようとする欧州委員会の試みを表している。おそらく、この新しい規制は、欧州のみならず世界全体の今後数十年のAI規制を、その直接的な治外法権的影響や基準設定の可能性を通じて、大きく形成することになるだろう。この提案は、欧州委員会が2020年2月に発表し、2020年6月まで公開協議が行われた「人工知能白書」に基づいている。アルゴリズムウォッチのコンサルテーションプロセスへの貢献はこちらをご覧ください。

全体として、今回の提案は、欧州委員会のシナリオの転換を反映しており、私たちはこれを歓迎する。白書では、基本的権利の保護よりも国際競争力を優先するという、EUの優先順位の憂慮すべき逆転が示唆されていたが、新規則では、EUの価値観やEU法で保護される基本的権利に反すると宣言したAI行為の禁止を掲げ、タイトルIIIでは、高リスクのシステムの規制にセクション全体を割いている。イノベーションを支援するための施策は、タイトルVで論じられている。しかし、この新しいシナリオは、提案されている法案の多くが深刻な抜け穴を持っており、基本的権利と公共の利益を最優先する規制のアイデアに非常に矛盾しているという事実を覆い隠してはならない。これらの欠点を修正し、十分な保護措置を講じることは、現在、議会と理事会に委ねられている。以下に、いくつかの問題点に関する私たちのコメントを紹介する。

レッドラインを明確に描き、抜け穴を塞ぐ機会を逸した

この数週間、欧州委員会は、生体情報を利用した大量監視技術を明確に禁止し、基本的権利を侵害するAIベースのシステムに対するレッドラインを法制上明確に示すべきだという圧力に直面してきた。アルゴリズムウォッチをはじめとする数十の市民社会団体やデジタル人権活動家は、欧州委員会に対し、次期AI規制における基本的権利の保護を実質的に強化し、既存の抜け穴を塞ぐよう求めた。[1]さらに、この呼びかけは、フォン・デア・ライエン大統領に宛てた公開書簡を通じて、欧州議会の116名の議員によって支持された。一方、「Reclaim Your Face」キャンペーンの一環として、47,000人以上の欧州市民がバイオメトリクスによる大量監視行為の禁止を求める請願書に署名しており、その数は今も増え続けている。

残念ながら、これらの声は十分に考慮されていない。提案されている規制は、禁止されているAI全体のセクションにわたり、第5条において、法執行機関による一般にアクセス可能な空間での「リアルタイム」の遠隔生体認証システムの禁止、不利益または不利な扱いを受ける可能性のある公的機関による自然人の社会的スコアリングの禁止、サブリミナル技術の使用や人間の脆弱性を利用した人間の行動の歪曲の禁止を規定しているが、あまりにも多くの懸念すべき例外と難点がある。

まず、「リアルタイム」の遠隔生体認証システムの禁止は、公共のアクセス可能な空間で法執行目的に使用されるシステムにのみ適用され、他の公的機関が使用するシステムや民間業者が使用するシステムには適用されない。明らかに、このようなシステムがもたらす基本的権利への大きなリスクは、法執行目的に限定されるものではなく、この提案はこの事実を十分に反映していない。第2に、提案の第5条に記載されている、この禁止に対する一連の例外があり、当局が利用しようとする多くの抜け穴がある。例えば、リアルタイム生体認証システムの使用は、「自然人の生命または身体の安全に対する特定の、実質的かつ差し迫った脅威、またはテロ攻撃の防止」のために認められるが、その解釈は当局に広い裁量権を委ねている。このような例外的な状況でこれらのシステムの使用を許可するためには、一般的に司法の承認が必要であるが、緊急の場合にはそれを延期することができる。私たちは、このリアルタイム生体認証の禁止の適用範囲の狭さは、このようなシステムの広範な使用が、個人の基本的権利を侵害するだけでなく、無差別大量監視への道を開き、民主主義社会の基本原則を損なう可能性があることを十分に考慮していないと考えている。同様に、社会的なスコアリングを目的としたAIシステムの禁止も、公的機関が導入するものに限られている。ここでも、民間のアクターは矢面に立たないようにされている。第三に、予測的な取り締まりのために使用されるAIシステムで、明らかに基本的な権利やEUの価値観を侵害しているものは、禁止リストには含まれず、「ハイリスク」と宣言されるだけである。

ハイリスクなAI行為の分類・評価は不十分

これらの欠点は、現行の提案における基本的権利の保護のための2つ目の規制的な「防衛線」であるAI行為のハイリスクへの分類にも重大な抜け穴があるという事実によって、さらに事態は悪い方向に向っている。白書と比較して、ハイリスクのアプローチが改善されていることは喜ばしいことだ。付属書IIIに記載されている高リスクのAI行為のリストには、採用活動、信用評価、社会的給付へのアクセスの決定、予測的な取り締まり、移民管理、司法解釈の支援などに使用されるAIシステムが含まれている。さらに、高リスクのAIを判断するための誤解を招くような基準「分野」は削除され、AIアプリケーションの使用範囲とその意図された目的、潜在的に影響を受ける人の数とその脆弱性、結果への依存性と有害性の不可逆性、および既存のEU法がこれらのリスクを防止または実質的に最小化するための効果的な措置を規定している範囲を含む基準に置き換えられた。さらに、高リスクのAIシステムの提供者が、それらのシステムを稼働させる前に、透明性とリスク評価の面で様々な要求を満たす必要があるとしたことを歓迎する。これは、Compliance-by-Designアプローチを促進するインセンティブとなる。

しかし、問題は細部にある。第7条の有害な影響と被害の定義は、依然として曖昧で漠然としたものだ。その結果、現在の高リスクアプリケーションのリストがどのような根拠に基づいて作成されたのか、また、将来のリスク分類に関して何が十分な根拠とみなされるのかが明らかになっていない。さらに、付属書III全体に適用されている「使用されることを意図したAIシステム」という条項は、解釈の幅が広い。第三に、最も懸念されるのは、第43条では、自然人の「リアルタイム」および「事後」の遠隔生体認証に使用されることを意図したAIシステムのみが第三者適合性評価の対象となる一方で、高リスクと分類された他のすべてのAIシステムは、予測的な警察活動、移民管理、人材採用に使用されるシステムを含めて、提供者による自己評価の対象とすることが規定されている点だ[2]。私たちは、このような重要な評価を、これらのシステムの開発に大きな利権を持つ企業主体だけに委ねることは受け入れられないと考えている。

さらに、今回の提案で事前に高リスクと分類されなかったシステムが、個人や社会に深刻かつ有害な影響を及ぼす可能性も否定できない。ハイリスクとされていない特定のシステム、すなわち、自然人と対話するシステム(チャットボットなど)、感情認識・生体認証の分類システム、コンテンツの生成・操作に使用されるシステム(「ディープフェイク」など)については、いくつかの透明性確保の義務があるが、これらの義務は十分ではないと考えている。感情認識や生体認証による分類システム、および深層心理を利用したシステムは、いずれも個人や民主主義社会に深刻な損害を与える可能性の高いアプリケーションである。さらに、特に感情認識システムの科学的根拠には大きな議論の余地がある。このような一連のAIシステムに適用される最小限の透明性義務は、様々な除外項目(例えば、犯罪の予防、調査、訴追のためのチャットボットや生体認証分類システムの使用など)によってさらに弱められている。

EUのデータベースは、透明性向上への第一歩

私たちは、ハイリスクの分類に関して明確性と透明性が欠けていることを懸念しているが、欧州委員会がハイリスクのAI実践のためのEUデータベースのアイデアを導入したことを称賛したい。第60条によると、このデータベースには、ハイリスクとされるすべてのスタンドアロン型AIシステムのデータが含まれることになっており、データベースで処理されたすべての情報は一般に公開されることになっている。これは、透明性の向上に向けた有望な第一歩であり、公益調査のための登録簿の公開とデータアクセスの改善を求める私たちの声に応えるものだ。しかし、公的にアクセス可能な登録簿の透明性の可能性を最大限に活用するためには、EUのデータベースは、高リスクのシステムのプロバイダーが利用可能にしたデータを含むだけでなく、割り当てられたリスクレベルにかかわらず、公的機関で使用されているすべてのAIシステムのリストによって補完されるべきである[3]。私たちの考えでは、提供される情報には、システムの目的、モデル(関係する論理)の説明、システム開発者の詳細に加え、公的機関が実施したアルゴリズム影響評価/人権影響評価の結果が含まれなければならない。これらの要件は、その目的に関わらず、すべてのシステムに適用されるべきだ。付属書8(11)に規定されているような特定の適用分野の例外は、正しい方法ではないと考えている。 さらに、情報が容易に読めてアクセス可能な方法で利用できることが重要である。

EUのAI委員会。EU全体での監視を強化?

規制の施行に関しては、適切で信頼できる説明責任の枠組みを構築することが重要であると考える。提案によると、規制の施行は、GDPRの場合と同様に、加盟国に委ねられる部分が大きいとされている。しかし、この提案では、欧州人工知能委員会(EAIB)の設立も提案されている。EAIBは、EU加盟国ごとに1つの国家監督機関、EUのデータ保護監督者、および委員長を務める欧州委員会の代表者で構成される。EAIBの任務は、法律の一貫した適用を監督・促進し、ベスト・プラクティスを共有することにある。この新体制は、欧州委員会がDSAの一環として提案した「デジタルサービスのための欧州委員会」を彷彿とさせるものである。どちらの委員会も、欧州委員会の監視・監督機能を強化するものである。各国の所轄官庁が十分な専門知識や資源を持たない場合、あるいはそうする意思がない場合には、欧州委員会自身が介入して、法律の一貫した適用を確保することができる。

これは、EUのデータ保護監督機関を弱体化させようとしていると読む人もいるかもしれないが、欧州委員会が執行の調和とAIシステムの展開の説明責任を果たすことに真剣に取り組んでおり、加盟国や企業の関係者に立ち向かうことを恐れていないことを示すシグナルであると解釈することもできる。これが十分かつ効果的な方法であるかどうかは、まだわからない。

人を第一に考える

欧州委員会は、人間を第一に考えた人間中心のAIフレームワークを立ち上げるという主張を掲げた。驚くべきことに、今回の提案は、AIシステムのアウトプットによって影響を受ける人々の視点を完全に無視している。このようなシステムが人々の生活に結果的に影響を与えるのであれば、システムの開発に関して透明性が認められるだけでなく、結果に異議を唱えることができる可能性がなければならない。したがって、影響を受けた個人やグループがそのような決定に異議を唱え、必要に応じて撤回や別の手続きによる再検討、補償を要求するための、容易にアクセス可能で法的に保証された選択肢がなければならない。AIシステムが少数者ではなく多数者の利益のために使用されることを保証するためには、単なる技術的解決策では不十分だ。そのためには、AIシステムの影響を直接受ける人々に権限を与える、説明責任の枠組みが不可欠だ。私たちは、議会と理事会が、交渉力の低い人々も声を上げることができるように努力することを切に望みむ。

出典:https://algorithmwatch.org/en/response-to-eu-ai-regulation-proposal-2021/

下訳にhttps://www.deepl.com/translatorを用いました。

Print Friendly, PDF & Email
Previous (EU プレスリリース)EDPBとEDPS、公共のアクセス可能な空間で人の特徴を自動認識するためのAIの使用、および不当な差別につながる可能性のあるその他のAIの使用の一部を禁止するよう求める
Next 労働現場、パブリックスペース:顔認識時代の労働者の組織化