Howdy! How can we help you?
-
気候変動1
-
ブラウザ72
-
戦争36
-
ヘイトスピーチ10
-
偽情報、誤情報7
-
ジェンダー3
-
国家安全保障10
-
fediverse20
-
alternative_app18
-
デジタルセキュリティツール15
-
国内の監視社会化と反監視運動6
-
VPN10
-
GIFCT2
-
政府・国際機関の動向166
-
スパイウェア20
-
OS関係20
-
教育・学校9
-
監視カメラ16
-
労働現場の監視9
-
プライバシー159
-
デジタルID(マイナンバーなど)12
-
GPS1
-
AI78
-
オリンピックと監視社会7
-
文化12
-
労働運動17
-
リンク集12
-
金融監視3
-
COVID-19と監視社会18
-
検閲105
-
海外動向412
-
オンライン会議システム14
-
暗号化69
-
アクティビストとセキュリティ32
-
ビッグテック、大量監視262
-
SNSのセキュリティ20
-
共謀罪1
-
メールのセキュリティ43
-
Articles1
(EDRi)バイオメトリック大量監視の禁止
(訳者前書き)以下は、European Digital Rights(EDRi)が2020年5月に公表した報告書冒頭の「要約」の訳です。EUは、GDPRなど個人情報を保護する法制度では日本よりも優れた枠組をもっており、日本の市民運動などもGDPRなみの法制度の実現を求める声が主流だろうと思う。他方で、すでに日本からみると手厚い権利が認められているEUにおいてもバイオメトリック技術が公共空間などで、不特定多数に対して用いられる場合が急速に拡がりをみせているようだ。以下のレポートはこうした拡がりを危惧して、バイオメトリック技術の開発や使用を原則禁止することが必要であることを詳細に論じている。全体の構成は目次を参照されたい。
欧州委員会およびEU加盟国に対する基本的権利の要求
欧州委員会およびEU加盟国への基本的人権に関する要求事項
公共の場における特別なカテゴリーの個人データのターゲットを絞らない大量処理のための技術の使用について
European Digital Rights 12 Rue Belliard, 1040 Brussels
2020年5月13日 ブリュッセル
主著者
エラ・ヤクボフスカ(EDRi)
共同主執筆者
Diego Naranjo, EDRi Head of Policy
レイアウト担当
Rafael Hernández, EDRi コミュニケーション・インターン
EDRiブリュッセルオフィスは、本ペーパーの作成に時間、アドバイス、参加、サポートをいただいたネットワーク全体と、コンサルテーションに参加していただいた28団体に多大な感謝の意を表したいと思います。特に、以下の団体および個人の方々には、調査、草稿作成、議論、レビューなどの複数の段階でお世話になりました。
Accessnow
Lotte Houwing, Bits of Freedom
Digitale Gesellschaft Schweiz(ドイツデジタル協会
Douwe Korff、国際法名誉教授
Drzavljan D
EFF
Homo Digitalis
La Quadrature du Net
オープン・ライツ・グループ(ORG)およびORGスコットランド
プライバシー・インターナショナル(PI)
エグゼクティブサマリー ………………………………………………………………………………….4
はじめに バイオメトリクスによる大量監視の禁止…………………………………………..7
核となる問題の定義…………………………………………………………………………..10
3.1 マス・サーベイランス …………………………………………………………………………10
3.1.1 EU法におけるバイオメトリック・マス・サーベイランス………………………………………12
3.2 権力の不均衡、偏り、説明責任の欠如……………………………..13
3.3 ファンクション・クリープとノーマライゼーション……………………………………………………14
3.4 (再)識別と時間経過による追跡……………………………………….15
3.5 社会的統制と非合法な科学…………………………………………….16
EUの行動の根拠…………………………………………………………………………….17
政策分析と議論……………………………………………………………………19
5.1 基本的人権法……………………………………………………………………..19
5.1.1 バイオメトリクスと尊厳の権利…………………………………………………22
5.2 データ保護法……………………………………………………………………………..23
5.3 「認識」の定義。識別、検出、処理を考慮する….26
5.4 既存のバイオメトリクシステムの包括的な分析…………………………27
5.5 禁止の範囲外のバイオメトリク処理……………………………………28
ケーススタディによる評価………………………………………………………………………………30
6.1 アンペール高校における顔認識(マルセイユ)………………………….30
6.2. 評価・分析を行ったその他のケーススタディ………………………………….32
6.3 公衆衛生を目的とした大量監視(COVID-19)…………………….33
EDRiの推奨事項……………………………………………………………………………..35
7.1 提言 バイオメトリック大量監視の禁止…………………………….36
7.2 欧州委員会のAIに関する白書…………………………………………….38
7.3 デジタル・ディストピアを防ぐために……………………………………………………………….38
1. 要旨
EU全域で、非常に押しつけがましく、権利を侵害する顔認識やその他のバイオメトリック処理技術が、公共の場で静かにユビキタス化している。欧州委員会が人工知能(AI)白書に関する協議の一環として国民に諮る中、44の市民社会団体のネットワークであるEDRiは、欧州委員会、欧州議会、さらにはすべてのEU加盟国を含むEUの機関に対し、このような技術が法律と実務の両面で包括的かつ無期限に禁止されることを保証するよう求めている。現行の規制・施行の枠組みでは、加盟国が不法な生体情報を利用した集団監視システムを導入することを防ぐことができていないことを踏まえ、欧州委員会に今すぐ行動を起こすことを求める。
特殊なカテゴリーの個人データ、特に公共の場でバイオメトリックデータによる対象外の人々untargetedの大量処理にバイオメトリクス技術を使用することは、集団監視の深刻なリスクをもたらす。これは、プライバシー、データ保護、平等、表現・情報の自由、集会・結社の自由、デュープロセスなどの基本的権利を不当に侵害するものである。このようなバイオメトリクス処理の利用は、人々の尊厳を守るための人権を侵害する方法であり、人々の親密で個人的な資質を客体化することになる。この論文が示すように、法執行機関、学校や地方議会などの公的機関、民間企業のいずれによるものであっても、対象を絞らない大量のバイオメトリクス処理システムの展開は、それが生み出す侵害や侵入のレベルに対して合法的であるとみなされるために必要な正当性や、必要性や比例性の閾値を満たしていない。この閾値は、基本権憲章、一般データ保護規則(GDPR)、法執行指令(LED)によって求められている。このような活動が行われる法的枠組みは、欧州人権条約(ECHR)およびEU基本権憲章で定められている「法律で規定されている」と要件を満たしていないことが多く、対象外の不必要で不釣り合いな監視に対する適切で効果的な救済策を提供していない。
EDRiは、第5章(政策分析と考察)で明らかにした理由および第3章(中核的問題の定義)で説明した理由に基づき、EU加盟国、およびEU基本権条約の守護者として、また欧州の国境に関する権限を有する欧州委員会に対し、集団監視を確立する効果または可能性がある場合はどこであっても、公共および公的にアクセス可能な空間におけるすべてのバイオメトリック処理を恒久的に停止することを求める。この行動への呼びかけは、以下を要求している。
- EU加盟国は、公共の場で集団監視を行う可能性のあるすべてのバイオメトリクス処理を、現在と将来の両方の展開を含めて、直ちに停止する。これは、加盟国における生体情報の大量処理が基本的権利に与える影響に関する欧州理事会の政治的議論によって支えられるべきである。
- EU加盟国は、欧州データ保護委員会(EDPB)および各国のデータ保護当局(DPA)の支援のもと、この権限に該当するすべての既存および計画中の活動と配備を公開する。
- EU加盟国は、公共空間での大規模な監視につながる可能性のあるバイオメトリクス処理を確立するために計画されているすべての法律を中止すること。その代わりに、明確で予見可能な法律は、問題や状況に比例した対象者の識別チェックのみを可能にし、乱用に対する効果的な救済策を提供するべきである。DPAは、各国の規制当局に助言し、各国政府に対応を要請することで、その役割を果たすことができます。
- 欧州委員会、特に総局(DG)HOMEと、Horizon2020プログラムのRTD DGを参照し、加盟国に提供されるバイオメトリクスの研究または展開のための資金が、公共空間での集団監視に貢献しうるバイオメトリクス処理プログラムへのすべての資金を直ちに停止することを含め、本憲章に完全に準拠した活動のためのものであることを保証すること。ユーロポール、Frontex、基本権機関(FRA)を含むがこれに限定されずEU機関に運営上の支援や助言を行うすべてのEU機関は、加盟国が基本権の乱用につながる方法でこれらの技術を使用できないようにする。
- 欧州委員会は、EDPSの諮問的役割の下、基本権とデータ保護を理由に、集団監視に寄与する、または集団監視に相当するEUのバイオメトリックスを対象としたすべての法律を見直し、事後評価を行い、必要に応じて再修正、廃止、またはセーフガードに関する適切なガイダンスを加盟国に提供すること1。
そして
- 欧州委員会(特に、人工知能(AI)白書に関する欧州委員会の作業を主導する総局としてのGROW、CNECT、JUSTと、国境に関する能力を有する総局としてのHOME)は、立法的および非立法的手段、また必要に応じて侵害訴訟や裁判所の訴訟を通じて、公共空間での大量監視につながるバイオメトリック処理の即時かつ無期限の禁止を実施する。このプロセスは、欧州データ保護監督官(EDPS)、欧州データ保護委員会(EDPB)、FRAおよびDPAの監督および/または支援の下で行われなければならない。
欧州データ保護監督官を含む欧州データ保護委員会、EU基本権機関(FRA)、各国加盟国、各EU加盟国の国内データ保護当局(DPA)、その他の監視機関の支援を受けながら、バイオメトリクスによる大量監視をEU全体で包括的に停止し、法律上および実際に禁止するための適切な方法を決定することは、欧州連合、特に欧州委員会、EU理事会、欧州議会の役割と責任である。
さらに、本稿では、各国のDPAの適切な人材確保、データ保護法の明確な解釈、集団監視の確立に寄与しないバイオメトリクス処理の利用であっても厳格な管理など、さらなる基本的権利の対策と保護措置を提案する。EDPSとEDPBには、公共の場での大量のバイオメトリクス処理を中止し、開示するための加盟国の行動を呼びかける声明とガイドラインを発表してもらい、欧州理事会と欧州議会には、その立法機関として政治的支援と議論の促進を促してもらいたい。これは、議会の決議や研究報告によって十分に補完されるだろう。
さらに、欧州議会議員(MEP)、特に人工知能・デジタルに関するインターグループ、地域委員会(CoR)、欧州経済社会委員会(EESC)、そしてEUの基本的な権利、自由、価値を守ることに関心のあるすべての利害関係者が、バイオメトリックな大量監視を禁止するこの呼びかけに参加することを奨励するものである。
2. はじめに バイオメトリクスによる大量監視の禁止
この論文は、COVID-19のパンデミックが発生する前から作成していた。この論文で得られた知見と提言は、今回の状況に照らし合わせても、それ以上ではないにしても、同様の意味を持ち、あらゆる形態の身体的監視に対してアクションを起す必要性を示すものであると考えている。セクション6.3「公衆衛生のための大量監視」をご覧ください。
2020年5月現在、欧州の少なくとも15の国が、集団監視につながる目的で、公共の場で顔認識などの生体技術を実験的に導入している(注2)。これらの国は、透明性と説明責任を欠くことが多く、適切な必要性と比例性の評価、十分な公的警告、社会的議論がなされないまま、これらのシステムを展開している(注3)。 これらのシステムは、人々がプライバシーを守り、基本的な自由と尊厳を十分に尊重して日常生活を営む権利を侵害し、表現や集会の自由に冷ややかな影響を与え、公共的、社会的、民主的な活動に参加する能力を制限している。個人のアイデンティティにとって外見は重要であり、身体的特徴は一般的に一意で不変であることを考えると、公共空間でのバイオメトリクス監視システムの使用は、時間と場所を問わず大規模に、私たちの自律性、自由、プライバシーへの不法かつ恒常的な侵入を可能にする。
バイオメトリクス処理はますます利用されるようになっているが、その主な理由は、公的資金の利用可能性が高まったことと、機械学習アルゴリズムの進歩により、写真やビデオなどの素材を大量に分析することがより安価でアクセスしやすくなったことによる。
(注2 )少なくとも、チェコ、デンマーク、フランス、ドイツ、ギリシャ、ハンガリー、イタリア、オランダ、ポーランド、ルーマニア、セルビア、スロベニア、スウェーデン、スイス、イギリスで活動が行われています。
(注3 )The RSA, Artificial Intelligence in the Police Force: A Force for Good? (2020年) https://www.thersa.org/discover/publicaSUMMARYtions-and-articles/reports/ai-police-force
このような進歩にもかかわらず、バイオメトリクスデータの取得、処理、保存には、技術的な問題だけでなく、その性質上、ヨーロッパ人の80%以上が自分の顔画像を当局と共有することに反対している(注4)。手続き上の保護措置と司法権は、欧州連合の法的枠組みの中核をなしているが、大量の監視につながるバイオメトリクス技術の使用は、すべての人を常に万能とされる警察の容疑者リストのなかで容疑者として扱うことにより、警察法と刑法の基本的な手続きを本質的に否定するものになっている。
問題の核心は、顔認識をはじめとするバイオメトリクス処理が、既存の不平等や差別をどのように増幅させるか、民主主義、自由、平等、社会正義の概念に合致するかどうかなど、私たちの社会にとってどのような意味を持つかにある。
フランスのCNIL、英国のICO、スウェーデンのDatainspektionenなどのデータ監督当局は、現在の展開の多くが違法であるという深刻な懸念を表明している(注5)。EUのデータ保護および基本権に関する法律は、すでにバイオメトリック処理の多くの側面を規制しているが、本稿では、集団監視の効果を有する可能性のあるバイオメトリック処理が私たちの社会にもたらす脅威の大きさに照らして、既存の法律と執行で十分であるかどうかを見直すことをEUに求める。したがって、EDRiは、欧州委員会と加盟国に対し、公共の場における生体情報や関連する特別なカテゴリーの個人データの対象外の処理のための不透明で押しつけがましいシステムの使用を恒久的に中止するための一連の大胆な措置をとることを求める。
(注4) 基本権機関(2020年)https://twitter.com/EURightsAgency/status/1234804039449239553
(注5) CNIL(2019年)https://www.cnil.fr/fr/experimentation-de-la-reconnaissance-faciale-dans-deux-lycees-la-cnil-precise-sa-position、EDPB(2019年)https://edpb.europa.eu/news/national-news/2019/facial-recognition-school-renders-swedens-first-gdpr-fine_en、ICO(2019年)https://ico.org.uk/about-the-ico/news-and-events/news-and-blogs/2019/10/live-facial-recognition-technology-police-forces-need-to-slow-down-and-justify-its-use/
(注6) 基本的権利のレビューが述べているように、「基本的権利のための強固な水平方向の保護とセーフガード、およびEU法と基本的権利の基準に由来する要件を満たすことができる対応するデータ保護の検査と執行能力の確立に、今は重点を置くべきである」。http://www.fondazionebrodolini.it/sites/default/files/final_report_0.pdf
主な定義
バイオメトリックデータBiometric data – 一般データ保護規則(GDPR)第4条(14)では、バイオメトリックデータを 「自然人の身体的、生理的または行動的特徴に関連する特定の技術的処理の結果生じた個人データで、顔画像や指紋検査法dactyloscopic(指紋)データなど、自然人の固有の識別を可能にする、または確認するもの 」と定義している。
バイオメトリクス処理Biometric processing ― バイオメトリクス処理には多くの種類があり、これらは常に、認識recognition、識別identification、認証authentication、検出detection、またはその他の関連する用語で呼ばれることがある。また、データが直ちに処理されない場合でもバイオメトリクスデータを収集・保存する(多くの場合、不透明な)方法もあり、これらはすべて本稿の対象となる。5.3項参照
顔認識Facial recognition ― 顔認識はバイオメトリクス処理の1つのタイプである。第29条作業部会は、顔認識を「個人がその使用に同意しているかどうか、または知っているかどうかにかかわらず、個人の識別、認証/検証authentication/verificationまたは分類のために個人の顔を含むデジタル画像を自動的に処理すること」と定義している(注7)。
識別Identification ― 多くの個人の集合から個人を識別すること。セクション 5.3 および 3.4 を参照。
集団監視Mass surveillance ― 特定の個人に対して「標的化」の方法ではなく、犯罪性のある個人や一般に集団のデータの監視、追跡、その他の処理を行うこと。3.1項参照。
プロファイリングProfiling ― GDPR第4条(4)では、プロファイリングを「自然人に関連する特定の個人的側面を評価するため、特に自然人の仕事上のパフォーマンス、経済状況、健康、個人的な嗜好、興味、信頼性、行動、場所または移動に関する側面を分析または予測するために個人データを使用することで構成される、あらゆる形態の個人データの自動処理」と定義している。
公共空間(公的にアクセス可能な空間を含む)Public (including publicly-accessible) spaces ― ユネスコは、公共空間を「性別、人種、民族、年齢、社会経済的レベルにかかわらず、すべての人々に開放され、アクセス可能な領域または場所[…]21世紀には、インターネットを通じて利用可能な仮想空間を、交流を促進する新しいタイプの公共空間と考える人もいる。」と定義している(注8)。私たちの分析には、道路、公園、病院などの公共スペースのほか、ショッピングセンター、スタジアム、公共交通機関、その他の公益サービスなど、私有地ではあるが公的にアクセス可能なスペースも含まれる。また、市民の議論や民主主義、市民参加の重要な要素となっていることから、オンラインスペースも分析対象としている。
目的-本稿は、展開の目的が集団監視の確立につながる、またはつながる可能性のあるバイオメトリクス処理の利用に関するものである。詳細は3.1項を参照のこと。
21世紀には、インターネットを通じて利用可能な仮想空間を、交流を促進する新しいタイプの公共空間と考える人もいる。また、市民の議論や民主主義、市民参加の重要な要素となっていることから、オンラインスペースも分析対象としている。
また、市民の議論や民主主義、市民参加の重要な要素となっていることから、オンラインスペースも分析対象としている。
(注7) Article 29 Data Protection Working Party, Opinion 02/2012 on facial recognition in online and mobile services, 00727/12/EN(2012) 2; quoted in FRA Facial recognition technology: fundamental rights considerations in the context of law enforcement(2019), 7 https://fra.europa.eu/sites/default/files/fra_uploads/fra-2019-facial-recognition-technology-focus-paper-1_en.pdf
(注8) UNESCO, Inclusion Through Access to Public Space (2017) http://www.unesco.org/new/en/social-and-human-sciences/INTRODUCTIONthemes/urban-development/migrants-inclusion-in-cities/good-practices/inclusion-through-access-to-public-space/
3. 核となる問題の定義
本章では、公共・民間を問わず、あらゆる主体による公共空間での対象外のバイオメトリクス処理技術の展開・使用によって生じる、社会的、倫理的、基本的権利に関する有害な影響と結果を概説する。これらの問題は、EU委員会と加盟国が直ちに行動を起こすことの緊急性を示している。
3.1 大量監視
法執行、公的機関、商業目的にかかわらず、大規模な生体データを処理する技術の使用は、プライバシーとセキュリティに対する独特の重大な脅威をもたらす9。欧州評議会は、集団監視を、特定の個人に対して「対象を絞った」方法で行われない監視と定義しており、EU基本権機関(FRA)は、対象を絞らない使用は「事前の疑いなしに開始される」と指摘しています10。実際には、集団監視措置は、移民、貧困層、有色人種など、すでに過剰な監視を受けているグループに不均衡な影響を与え、彼らに対する体系的な差別を助長する可能性があります。対象を絞って実施する場合でも、プライバシーとデュープロセスの原則から、当局が個人を監視することを正当化するためには、個人に対する特定の合法的な関心と合理的な疑いを持つ必要があります。対照的に、公共の場で行われる大規模な監視は、一般市民に影響を与える行為であり、合理的な疑いもなく、何が起こっているかを知るための十分な可能性もなく、同意する能力もなく、参加するかしないかの真の自由な選択もないまま、無差別に監視することに依存している。
数十年前、様々な批判があったにもかかわらず、11 CCTVカメラは犯罪を抑止するという目的のために、世界中で熱心に、しかし透明性なしに導入された。
(注9) Privacy International, The police are increasingly using facial recognition camera in public to spy on us, (2019) https://privacyinternational.org/long-read/2726/police-are-increasingly-using-facial-recognition-cameras-public-spy-us
(注10) 欧州評議会, Factsheet on Mass Surveillance (2018) 3
(注11) Surveillance Studies Network, A Report on the Surveillance Society (2006) https://ico.org.uk/media/about-the-ico/documents/1042390/surveillance-society-full-report-2006.pdf
CCTVの支持者でさえ、これらのカメラが犯罪防止に効果的であることを証明するのは難しく、捜査や訴追の一環として非常に限定された特定の状況で効率的であることを示すにとどまっている12。現在では、これらの同じシステムに生体情報分析機能を追加することで、より高度な遠隔監視が可能となり、特定の場所で何が起こっているかを監視するだけでなく、誰がそれを行っているかを追跡することができる13 。大量の監視は、人々が公共空間で匿名でいる権利を失うことを意味する14。
いつもと違う行動がその都度指摘され、その後も常に記録され、利用され、広められているかどうか疑問に思う人は、このように注目されないようにするだろう。例えば、会議や市民活動への参加が公式に記録され、自分にリスクが生じる可能性があると考える人は、関連する基本的権利(憲法第8条と第9条で保障されている)を行使しないことを決めるかもしれない。なぜなら、自己決定は、市民の能力と連帯感に基づく自由で民主的な社会の不可欠な前提条件だからである15。
大量の監視が個人に与える影響のため、そのような監視行為に基づく推論は基本的に信頼性に欠ける。例えば、CNILは、公共の場で常に監視されていると、サングラスをかけたり、フードをかぶったり、地面や携帯電話を見つめたりするなど、一見普通の態度や行動が疑わしく見えることがあると指摘している16。
大規模な監視システムの普及と侵入は、社会生活、公共生活、政治生活への参加を制限し、「国勢調査」で指摘されているように、常に監視されているという不安から行動を変えずに自律的な生活を送る能力に影響を与える。また、政治的・市民的権利の行使が妨げられる17。
そのため、その使用を正当化しようとする側には、重い立証責任が課せられている18。
(注12) Michelle Cayford, The effectiveness of surveillance technology: What intelligence officials are saying (2017) https://www.tandfonline.com/doi/full/10.1080/01972243.2017.1414721
(注13) European Network Against Racism, Data-Driven Policing: The Hardwiring of Discriminatory Policing Practices across Europe(ヨーロッパにおける差別的な取り締まりのハードワイヤリング
(2019年) 6 https://www.enar-eu.org/IMG/pdf/data-driven-profiling-web-final.pdf
(注14) ARTICLE 19, The Right to Protest Principles: Background Paper (2016) https://www.article19.org/resources/the-right-to-protest-principles-on-the-protection-of-human-rights-in-protests/
(注15) BVerfG, 15.12.1983, BVerfGE Bd. 65, S. 1 ff (“Volkszählungsurteil”), https://www.bverfg.de/e/rs19831215_1bvr020983.html
(注16) CNIL, Reconaissance Faciale: Pour un Debat La Hauteur des Enjeux (2019) https://www.cnil.fr/fr/reconnaissance-facialepour-un-debat-la-hauteur-des-enjeux
(注17) アムネスティ・インターナショナル、ロシア。Intrusive facial recognition technology must be used to crackdown on protests (2020) https://www.amnesty.org/en/latest/news/2020/01/russia-intrusive-facial-recognition-technology-must-not-be-used-to-crackdown-on-protests/; OHCHR, Human Rights Committee holds general discussion in preparation for a general comment on the right of peace assembly (2019) https://ohchr.org/en/newsevents/pages/displaynews.aspx?newsid=24378&landid=e
(注18) Privacy International, Protecting Civic Spaces (2019) https://privacyinternational.org/long-read/2852/protecting-civic-spaces
3.1.1 EU法におけるバイオメトリクスによる集団監視
集団監視はEU法では禁止されている。私生活および家族生活を尊重する基本的権利と個人データの保護は、欧州連合基本権憲章(以下、「憲章」)、欧州人権条約(ECHR)、およびその他の法的拘束力のある文書の中心となっている19。憲章とECHRは、尊厳、表現の自由、集会・結社の自由の権利も保証しているが、これらはすべて大量監視によって深刻に脅かされている20。データ保護法施行指令(LED)では、特別なカテゴリーのデータ処理は「厳密に必要」でなければならないことが追加されている。これは、ワーキングパーティWorking Party29が説明しているように、法施行機関が「当該データの処理について正確かつ特に確実な正当性を予見しなければならない」ことを意味し21、EUまたは加盟国の法律に基づいて明示的に認可されていなければならない。
GDPRとLEDの下では、個人データの中には特にセンシティブなものがあり、そのため保護が強化されている。これには、自然人を一意に識別する目的で使用される顔や指紋などのバイオメトリクスデータの処理や、人種、民族、性別、性的指向、宗教、健康状態などの特徴を識別または予測することが可能な観測データが含まれる。これは、宗教的なアクセサリーの着用や歩き方など、公共の監視に使用される可能性のある代理人も同様に保護されることを意味している。また、センシティブな情報を暴露する可能性のある、私たちの見た目や動き、行動に関する分析も同様だ。欧州のデータ保護法は、例えば、写真や活動の詳細をインターネットに掲載するなどして公開した情報にも同様に適用される。
オンライン、オフラインを問わず、公共の場でターゲットを絞らない生体認識を行うことは、監視される個人の管理や知識なしに、上記のようなセンシティブな個人データを大量に無差別に収集、処理、保存することになる。公共の場には無作為の通行人がつきものであるため、対象を絞った利用の可能性が損なわれている。これは、個人の携帯電話のロックを解除するような、対象を絞った個人的な使用とは異なる。このような使用は、人々が公共空間を楽しむ能力を侵害しないため、本稿の範囲外となる。しかし、本稿では、集団監視の感覚につながる可能性のあるバイオメトリック処理に焦点を当てているが、公共空間でターゲットを絞ったバイオメトリック処理やターゲットを絞らないバイオメトリック処理を行う場合、当局、民間、さらには商業団体による基本的権利の侵害や権力の乱用の可能性について、深刻な懸念を抱いていることを再確認する。
(注19) プライバシーとデータ保護に関する権利は、憲章の第7条と第8条、および第7条に規定されています。19 プライバシーとデータ保護の権利は、憲章の第7条と第8条、およびECHRの第7条と第8条に規定されている。
(注20) また、憲章では、尊厳(第1条)、表現の自由(第11条)、集会・結社の自由(第12条)の権利が定められている。ECHR の対応する部分は、前文(世界人権宣言への言及)と第 10 条および第 11 条です。10条と11条です。
(注21) European Commission, Opinion on some key issues of the Law Enforcement Directive (2017) 8 https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=610178
このような監視は、セクション5.5で概説されているように、常に厳格な管理と基本的権利に従わなければならない。
公共空間における生体データの対象外の大量処理は、ランダムな通行人が公共空間の固有の特徴であるため、対象を絞った利用の可能性を不明瞭にする。
3.2 権力の不均衡、バイアス、説明責任の欠如
バイオメトリック監視システムの使用は、力のある者が監視し、力のない者が監視されるという構図を作り出す。貧困や社会的排除の中で生活する人々、有色人種、人権活動家など、社会的に疎外されたグループに対して、不均衡な力を持つグループがさらに力を強めることができる。このことは、倫理や社会正義に関する重要な問題を提起するだけでなく、公的なバイオメトリクス処理に対して真に情報を与えられた上で自由かつ明確な同意を得ることが構造的にできず、監視される側がさらに従属的になるといった基本的な権利に関する問題も含んでいる。
バイオメトリクス処理は、環境保護活動家などの正当な反対意見を表明している市民や、移民や不安定な住宅事情にある人々などの周縁化されたグループを標的として体系化するためにすでに使用されている。監視技術やプロファイリング技術は、本質的には選別技術である。その目的は、リスクを評価してコード化し、その結果として人々を異なる方法で扱うことである。「疑わしい」「リスクがある」とみなされる人が高度に差別的に分類され、プロファイリングの場合に暴力が行われた例が数多くあるという状況では、過剰に警備されているコミュニティがバイオメトリクス技術による集団監視の被害を受けやすくなるという大きなリスクがある22。差別的な構造の中では、このような偏りや正確性の欠如は、有色人種の誤認識を引き起こす可能性があり、過剰な取り締まりを悪化させることになる。
顔データ処理技術は、有色人種、特に有色人種の女性に対して偏りがあることが明らかになっており、有色人種を識別するためのエラー(偽陽性または偽陰性)率が劇的に高くなっている23。ただし、すべての顔を平等に正確に識別するように技術が訓練されたとしても、基本的権利の尊重が高まるわけではない。
(注22) European Network Against Racism, Data-Driven Policing: The Hardwiring of Discriminatory Policing Practices across Europe (2019) https://www.enar-eu.org/IMG/pdf/data-driven-profiling-web-final.pdf; Fundamental Rights Agency, Facial recognition technology: fundamental rights considerations in the context of law enforcement (2019) 20 https://fra.europa.eu/sites/default/files/fra_uploads/fra-2019-facial-recognition-technology-focus-paper-1_en.pdf
(注23) Joy Buolamwini, Gender Shades (2018) http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf
それどころか、犯罪を犯した疑いもないのに、特定のグループをプロファイリングしてターゲットにすることがさらに効果的になるだろう24。さらに、自己学習型(「人工知能」)アルゴリズムに基づくプロファイリングは、システムを操作する者でさえ、その根底にある理由を説明できないため、事実上、異議を唱えることができない。これは、「コンピュータ・バイアス」というよく知られた現象、すなわち、コンピュータが生成した予測を個人が無批判に受け入れる傾向があることによって、さらに悪化する25。 一言で言えば、バイオメトリクスによる集団監視は、不正確であれば問題だが、100%正確であれば、さらに悪化する可能性がある。
現在、公共の場でバイオメトリックシステムや監視システムが展開されているが、これは国家の説明責任や公的な監督がない状態で行われており、国家権力の乱用から人々を守るために作られた憲法上のプライバシー保護に違反している26。さらに、民間のアクターは、公的機関や法執行機関が使用する技術に対して、ほとんど、あるいは全く説明責任を果たさないまま、不均衡な力を得ている。技術の内部構造を意図的に難読化することから27 、搾取的な警察活動から利益を得ることまで(ClearviewAIの場合)28、生体情報を利用した大量監視システムの開発に民間企業が関与することは、人々に対する力だけでなく、国家に対しても大きな影響力を持つことになる。
3.3 ファンクション・クリープとノーマライゼーション
顔認識をはじめとするバイオメトリクス処理は、全方位的な監視、人と国家(および民間企業)との間の権力の不均衡、そして権威主義的な乱用の可能性を大幅に高める。ある目的のために導入されたバイオメトリックシステムが、より悪質な別の方法で再導入・悪用されているという証拠がすでに存在している。そのため、たとえ人々が特定の目的のために自分の生体データや遺伝子データを使用することに最初に同意したとしても、そのデータがさらに処理されることについて、人々はほとんど何も知らないし、修正や異議を唱える力もない。いったんインフラが整備されると、こうしたシステムの存在は、侵入を拡大させる可能性を新たに生み出すことになる。
(注24) The Guardian, Facial recognition technology threatens to end all individual privacy (2019) https://www.theguardian.com/commentisfree/2019/sep/20/facial-recognition-technology-privacy
(注25) Douwe Korff and Marie Georges, Passenger Name Records, data mining & data protection: the need for strong safeguards, section I.iii, The dangers inherent in data mining and profiling (2015) https://rm.coe.int/16806a601b
(注26) 例えば、SHARE Foundation, Serbia: Unlawful facial recognition video surveillance in Belgrade (2019) https://edri.org/serbia-unlawful-facial-recognition-video-surveillance-in-belgrade/、マルセイユ行政裁判所は2020年に2つの学校での顔認識が基本的権利を侵害していると判断した https://www.laquadrature.net/wp-content/uploads/sites/8/2020/02/1090394890_1901249.pdf。
(注27) Panoptykon Foundation, Black-Boxed Politics: Opacity is a Choice in AI Systems (2020) https://en.panoptykon.org/articles/black-boxed-politics-opacity-choice-ai-systems
(注28) EURACTIV, After Clearview AI scandal, Commission ‘in close contact’ with EU data authorities (2020) https://www.euractiv.com/section/digital/news/after-clearview-ai-scandal-commission-in-close-contact-with-eu-data-authorities/
世界的なコロナウイルスのパンデミックに対する初期の反応の中には、このような可能性がいったん存在すると、国家は技術的なインフラを利用して、現状を管理する範囲をはるかに超えた方法で人々を監視する可能性があることを示している29。さらに、監視インフラの存在と日常生活での利用は、常に監視され、追跡され、分析されることが正常であるという誤った信念をもたらす。それどころか、民主主義社会では、権威主義体制の特徴である活動の常態化は許されないし、許されてはならない。国連の特別報告者であるデビッド・ケイが強調しているように、監視技術は危険なまでにコントロールされておらず、国家も企業もこの三角関係に取り組む必要がある30。
3.4 (再)識別と時間経過による追跡
大量の監視によって収集されたデータが分析され、プロファイルを作成するために使用された場合、基本的自由に対するリスクはさらに高まる。31 使用されている技術や個人データの収集方法にかかわらず、バイオメトリクス処理システムは個人の遡及的な識別を可能にするよう設計されている。メタデータ、匿名化されたデータ、偽名化されたデータ、非個人的なデータであっても、官民の関係者が自由に使える膨大な情報源と組み合わせれば、センシティブな個人を特定できる情報を推測することができる32。増え続ける監視ネットワークは、適切な同意や脱退の可能性なしに、私たちの生活、交流、行動の「永久的な記録」を作成し、それが間違った方法であったと気づいたときに合法的な匿名性に戻る機会も与えない。
顔認識やその他のバイオメトリクス処理によって国家が個人を追跡・識別する能力が高まることで、有色人種、ロマやイスラム教徒のコミュニティ、社会活動家、LGBTQ+の人々、非正規移民の人々など、すでに高度に取り締まり、監視され、虐待の対象となっている人々に不均衡な影響を与える可能性がある33。顔認識技術と、欧州全体で進められている生体情報データベースの大規模な統合の影響が相まって、これらのコミュニティの安全性、プライバシー、その他の基本的権利にさらに大きなリスクをもたらすことになる。
(注29) EU全体のメタデータ一括収集の例は、国家が特定の用途(例えば、テロリストの発見)のために情報を収集するが、時間の経過とともに、空き巣などの非暴力犯罪を含むように範囲を拡大する方法を示している。
(注30) UN OHCHR, UN expert calls for immediate moratorium on the sale, transfer and use of surveillance tools (2019) https://ohchr.org/en/newsevents/pages/displaynews.aspx?newsid=24736
(注31) Douwe Korff and Marie Georges, footnote 25, pages 32 – 34 https://rm.coe.int/16806a601b 参照。
(注32) 欧州データ保護委員会(EDPB)、映像機器による個人データの処理に関するガイドライン3/2019(2019年)16 https://edpb.europa.eu/sites/edpb/files/consultation/edpb_guidelines_201903_videosurveillance.pdf;Douwe Korff and Marie Georges, o.c. (脚注25), 34 – 36も参照のこと。
(注33) PICUM, Data Protection, Immigration Enforcement and Fundamental Rights (2019) https://picum.org/wp-content/uploads/2019/11/Data-Protection-Immigration-Enforcement-and-Fundamental-Rights-Full-Report-EN.pdf
3.5 社会的統制と非合法な科学
公共空間での対象外のバイオメトリック処理が常態化し、人々がシステムや場所を超えて識別・追跡されるようになると、それがどのように、またなぜ起こっているのか、自分の生活にどのような影響を与える可能性があるのかを知ることなく、スコアリング、カテゴライズ、評価を受けることができるようになる34。政府がビッグデータを使ったイノベーションを急ぎ、AIを活用した公共サービスのリーダーになろうとしている中で、当局が保有する膨大なデータや、最近では商業関係者が保有する私たちの健康状態、犯罪記録、その他多くの個人情報が組み合わされる可能性がある35。大規模な監視システムの台頭により、これらのデータは街中にいる個人と結びつけられ、人々のやり取りや動きを詳細に記録することができる36。これは、社会的なスコアリングや行動操作などの極端な用途に利用され、最終的にはコントロールの問題となる。
例えば、いわゆる「感情認識」や「行動予測」は、人の感情や意図を識別できると主張するが、人間の尊厳や自律性を根本的に脅かすものだ。「感情科学emotion science」の分野をリードする研究者による最近のメタアナリシスでは、映像分析によって感情を「検出」できるというテクノロジー企業の主張には、科学的な裏付けがないと結論づけている。研究者らは、こうした取り組みは誤解に基づくものであり、「感情の科学は、こうした取り組みのいずれをもサポートするには不十分である」と述べている37。同様の懸念は、証明されていないにもかかわらず、高度な統計分析を用いて、ビデオインタビューで誰が嘘をついているかを検出しようとする試みにも当てはまります38。このような形の疑わしい行動予測は、個人が自分のバイオメトリクスデータの処理に同意する能力を奪い、デュープロセスや適切な情報提供を受ける権利を奪い、被害を受けたときに説明や救済を求める能力を奪う。このような権利の侵害は、バイオメトリクス技術を展開する企業に対する人々の信頼を根本的かつ不可逆的に損ねることになる。
(注34) World Privacy Forum, The Scoring of America: How Secret Consumer Scores Threaten Your Privacy and Your Future (2014) www.worldprivacyforum.org/wp-content/uploads/2014/04/WPF_Scoring_of_America_April2014_fs.pdf
(注35) 英国の国家データベースに関する初期の調査については、Joseph Rowntree Reform Trust, The Database State (2009) https://www.cl.cam.ac.uk/~rja14/Papers/database-state.pdfを参照。これによると、「医療・社会サービス、警察、学校、地方自治体、税理士の間」でデータを共有する際に、「適切な法的根拠があり、効果的であり、比例的であり、必要であると評価された公的データベースは15%に満たなかった」という。
(注36) The Guardian, The New Normal (2020) https://www.theguardian.com/world/2020/mar/09/the-new-normal-chinas-excessive-coronavirus-public-monitoring-could-be-here-to-stay
(注37) Barrett, Adolphs, Marsella, Martinez & Pollak, Emotional Expressions Reconsidered: Challenges to Inferring Emotion from Human Facial Movements (2019) 48 https://doi.org/10.1177%2F1529100619832930
(注38) The Intercept, We Tested Europe’s New Lie Detector for Travelers – and Immediately Triggered a False Positive (2019) https://theintercept.com/2019/07/26/europe-border-control-ai-lie-detector/. また、Anders Eriksson and Francisco Lacerda, Charlatanry in forensic speech science: A problem to be taken seriously (2007) http://www.cs.columbia.edu/~julia/papers/eriksson&lacerda07.pdf。より一般的には、Douwe Korff, The use of the Internet & related services, private life & data protection: trends & technologies, threats & implications, Council of Europe (2007) 25 – 27 を参照。
4. EUの行動の論理的根拠
公共の場にバイオメトリックシステムを配備する法的根拠は、試験的なものであれ、本格的なものであれ、欧州および加盟国の国内法では不明瞭であり、場合によっては存在しないこともある。このような利用方法の多くは、違法な集団監視やその他の基本的権利の侵害につながる可能性があるにもかかわらず、事前のデータ保護影響評価(DPIA)やその他の保護措置の証拠がないまま、多くの導入が完全に実施されている39。結社と集会の自由に関する国連特別報告者のClément Vouleは、2019年の報告書の中で、「平和的な集会と結社の権利を行使している人々を、物理的空間とデジタル空間の両方で、無差別かつ対象を絞らずに監視するための監視技術の使用は禁止されるべきである」と表明している40。 このようなシステムの必要性と比例性については、プライバシーの権利に関する国連特別報告者のJoseph Cannataciが疑問を呈している41。また、表現の自由に関する国連特別報告者のDavid Kayeも、人権擁護者、ジャーナリスト、政治家、国連調査官への影響について同様の懸念を示している42。公共空間または市民空間とは、人々が自由に自分自身を表現し、アイデアを練り、志を同じくする人々やグループと議論し、反対意見を提起し、可能な改革を検討し、偏見や腐敗を暴露し、政治的、経済的、社会的、環境的、文化的な変化のために組織化する物理的およびデジタル的な環境を指す43。
(注39) GDPRの下では、Arts. 15、35、36およびLED Arts. 39 GDPR第15条、第35条、第36条およびLED第27条、第28条、第47条に基づき、大量のバイオメトリクス処理は、データ保護影響評価(DPIA)を実施するという法律上の要件を明確に誘発する。
(注40) UN, Report of the Special Rapporteur on the rights to freedom of peace assembly and of association (2019) 15 https://documents-dds-ny.un.org/doc/UNDOC/GEN/G19/141/02/PDF/G1914102.pdf?OpenElement
(注41) Biometric Update, UN privacy rapporteur criticizes accuracy and proportionality of Wales police use of facial recognition (2018) https://www.biometricupdate.com/201807/un-privacy-rapporteur-criticizes-accuracy-and-proportionality-of-wales-police-use-of-facial-recognition
(注42) OHCHR, UN expert calls immediate moratorium on the sale, transfer and use of surveillance tools (2019) https://www.ohchr.org/EN/NewsEvents/Pages/DisplayNews.aspx?NewsID=24736
(注43) Privacy International, Defending Democracy and Dissent https://privacyinternational.org/strategic-areas/defending-democracy-and-dissent
大規模な監視技術の効果は、長期的には、人々が自分の考えや言葉、行動を自己検閲することにあるのかもしれない。
欧州委員会は、2020年2月に「人工知能白書」を発表し、さまざまな人工知能(AI)の応用に関する政策オプションを提示した44。顔認識などのバイオメトリック処理について、同白書は、技術の使用がもたらす基本的なリスクのため、自動的に「高リスク」と見なされ、強制的な適合性評価が行われるべきだと提案した。しかし、この論文では、これらの「高リスク」のアプリケーションが基本的権利に与える影響については十分に検討されていなかったた。もしそうであれば、大量の監視を目的としたバイオメトリクス処理技術を禁止するという論理的な結論になっていたと考えられる。
このような懸念は、業界内でも共有されている。マイクロソフトの社長は、顔認識によってオーウェル的な監視社会が形成される危険性があると警告し45、アマゾンの株主は、市民的自由への脅威を理由に、同社の生体情報監視計画に反発した46。
バイオメトリクス処理技術は、一般的に「人工知能」技術(より具体的には機械学習)の使用を含んでいるが、私たちは、これらのシステムの正確な技術的実装は、その結果に比べて重要ではないと考えている。大量監視は、機械学習アルゴリズムによって実現されようと、ビデオ映像を確認する人間のチームによって実現されようと、基本的権利に与える影響は同じだが、AIはかつてない規模の大量監視を可能にするかもしれない。企業、市民社会、一般市民の間で懸念が広がっていることに加え、バイオメトリクス導入の法的説明責任や空白期間があることから、EUが対策を講じることを要求する強力な根拠がある。
(注44) 欧州委員会 COM(2020)65, 白書: On Artificial Intelligence – A European approach to excellence and trust (2020), https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf
(注45) マイクロソフト、顔認識。It’s Time for Action(2018年)https://blogs.microsoft.com/on-the-issues/2018/12/06/facial-recognition-its-time-for-action/
(注46) ニューヨーク・タイムズ紙、アマゾンの顔認識(2019年)https://www.nytimes.com/2019/05/20/technology/amazon-facial-recognition.html
5.政策分析と議論
本章では、基本的権利とデータ保護法を用いて、公共空間でのターゲットを絞らないバイオメトリック処理の正当性、合法性、必要性、比例性を精査し、公共空間でのターゲットを絞らないバイオメトリック処理を恒久的に停止するための法的・政策的論拠を探り、分析する。この分析により、第7章で提案されているバイオメトリックスによる大量監視の禁止に相当する一連の行動の正当性が示される。
憲章、ECHR、GDPR、LEDの下では、公共スペースにおける対象外のバイオメトリクス処理は、たとえ正当な公共政策の成果を達成するための手段であっても、必要または比例しているとは見なされない。なぜなら、機密性の高い個人データにもたらされる脅威の大きさと、それが私たちの権利と自由に与える制限は、それが決して最も侵入の少ない選択肢ではないことを意味するからだ。その使用は、不法な大規模監視のための条件を作り出し、その目的自体が人間の尊厳の根本的な侵害を構成している。CJEUの法務官は、「大規模で無差別な監視は、本質的に不均衡であり、プライバシーとデータ保護の権利に対する不当な干渉を構成する」と付け加えている47 。にもかかわらず、大規模な監視を確立するバイオメトリック技術の配備は、EU全域で野放しになっている。法律の断片化、施行上の課題、各国のデータ保護当局(DPA)のリソース(政治的、財政的、人的)の不足は、GDPR、LED、憲章に違反するバイオメトリック技術の不透明な展開という問題をさらに悪化させている。
5.1 基本的権利法
憲章(第52条1項)およびECHR(第8条~11条)は、バイオメトリック技術の展開によって予想される基本的権利の干渉は、「法律で規定」され、「比例の原則に従う」ものでなければならず、「必要性があり、連合が認識する一般的利益の目的または他者の権利と自由を保護する必要性を真に満たす場合」にのみ適用されると定めている。
(注47) CJEU, C-362/14, Maximillian Schrems v Data Protection Commissioner, Advocate General’s Opinion (2015) https://fra.europa.eu/sites/default/files/fra_uploads/fra-2015-surveillance-intelligence-services-summary-0_en.pdf
欧州データ保護監督官(EDPS)は、必要性と比例性の実証について厳しい指針を示している48。対照的に、現在の展開では、これらの法的基準を示すことがほとんどできていない。
大量監視の禁止は、欧州の判例法にも見られ、監視される側に合理的な疑いがないことが特徴となっている49。特に、欧州人権裁判所(ECtHR)の S. and Marper v UK 事件では、生体データを「包括的かつ無差別に」保持することは、ECHR の要件を満たさず、「民主的な社会において必要」とは見なされないため、プライバシー権に対する「不釣り合いな干渉」であると判断されている50。
ECtHR は、犯罪の検出や防止を目的とした秘密の監視や、Peck v UK 事件のような CCTV 映像の共有などの措置は、条約第 8 条の範囲内であるとしている。例えば、Digital Rights Ireland のケースでは、欧州連合司法裁判所(CJEU)が、データ保持指令 2006/24/EC と憲章の第 7 条及び第 8 条との適合性を検討した52 。52 欧州連合司法裁判所は、指令が以下の事実に特に留意した。
「重大な犯罪と闘うという目的に照らして、いかなる差別化、制限又は例外もなく、一般化された方法で全ての人及び全ての電子通信手段を対象としている」(パラグラフ57)。
裁判所は、この措置が「関係者の心の中に、自分の私生活が常に監視されているという感覚を生み出す可能性がある」(パラ37)と指摘している。これは、犯罪の疑いや公共の場での公共の秩序に対する脅威とは関係のない個人のあらゆる行動に対する大量監視にも当然適用される。Schrems Iでは、裁判所は次のように述べている。
(注48) EDPS, Guidelines on assessing the proportionality of measures that limit the fundamental rights to privacy and to the protection of personal data (2019) <edps.europa.eu/sites/edp/files/publication/19-12-19_edps_proportionality_guidelines2_en.pdf. これは、これらの原則が最初に開発されたECtHRとCJEUの広範な判例法に基づいています。ECtHRのSunday Times (I)判決とHandyside判決を参照。
(注49) 判例法については、Digital Rights Ireland (2014) CJEUおよびBig Brother Watch and Others v the United Kingdom (2018) ECtHRを参照。合理的な疑いの欠如については、Zakharov v Russia (2006) ECtHRを参照。
(注50) ECtHR, S. and Marper v the United Kingdom (2008) para 125.
(注51) ECtHR, S. and Marper v the United Kingdom (2008) para 112; ECtHR; Christine Goodwin v the United Kingdom (2002); Peck v UK (2003) ECtHR. 大量監視に関するECtHR Factsheet https://www.echr.coe.int/Documents/FS_Mass_surveillance_ENG.pdfも参照。
(注52) Joined Cases C-293/12 and C-594-12 Digital Rights Ireland Ltd v Minister for Communications, Marine and Natural Resources & Others and Seitlinger and Others (2014) ECR I-238.
(注53) Case C-362/14, Schrems v Data Protection Commissioner (2015) E.C.R. 627.
「公的機関が電子通信の内容に一般的にアクセスすることを認める法律は、憲章第7条で保証されている私生活を尊重する基本的権利の本質を損なうものとみなさなければならない。…」(パラ94)。
同様に、生体データを無差別に収集し、さらに利用することによって、大規模なグループ、さらには集団全体の政治的、芸術的、社会的活動を含む(オフラインまたはオンラインの)活動を大規模に監視することも、プライバシー、表現の自由、結社の権利の「本質」、すなわち「触れられない核」54に悪影響を及ぼすことは間違いない。これは、大多数の監視対象者と犯罪や公共秩序への脅威との間にいかなる関連性があるかどうかにかかわらず発生するものであり、したがって、常に憲章とは相容れないものとみなされなければならない。言い換えれば、恒常的なリアルタイムの監視を可能にする措置は、特に顔の生体情報などの機密性の高い特別なカテゴリーのデータを包括的または無差別に処理することを含み、それ自体がプライバシー、尊厳、表現の自由、結社の自由などの基本的権利の本質を侵害するものであり、EU法とは相容れないものである。
本憲章では、特に第5章(市民の権利)と第6章(司法)において、デュープロセス、適正手続き、法の支配に関する厳格な枠組みを定めており、市民が自らの問題がどのように処理されているかについての情報を入手できること(第41条および第42条)、効果的な救済措置と公正な裁判を受けることができること(第47条)、無罪の推定(第48条)を保証している。これらの基準は、人々が民主主義と正義の枠組みの中で扱われること、国家が恣意的に権力を乱用できないこと、人々が自分の扱われ方について知ることができることを保証する重要なセーフガードとなっている55。しかし、公共の場で顔認識やその他のバイオメトリクス処理を秘密裏に、遠隔地で、無差別に行うことは、CJEUやECtHRが適用しているこれらの基準に根本的に違反している。
これは、すべての人を永遠に並ぶ潜在的な容疑者として扱うものであり、尊厳を持って生活する自由と権利、プライバシー、自由、安全、および推定無罪とは相反するものだ。
(注54) すべての基本的権利の「触れられない核untouchable core」という概念は、どんなに緊急で深刻な理由であっても、決して侵害されてはならないというもので、最初はドイツの憲法で展開されたが、現在では国際人権法でも認められており、憲章第52条で明示的に規定されています。憲章の第52条に明記されている。参照。Pierre Thielbörger, The “Essence” of International Human Rights, German Law Journal (2019), 20, 924-939, https://www.researchgate.net/publication/335615595_The_Essence_of_International_Human_Rights
(注55) Schrems v Data Protection Commissioner, 2015 E.C.R. 627. Digital Rights Irelandにおいて、裁判所は、データ保持指令が通信のメタデータの保持を要求しているものの、通信の内容には及ばないため、プライバシー権の「本質」は影響を受けないとした(パラ39)。
本論文の基本的権利主導のアプローチは、EUでは憲章の下で大量監視が決して許されないことを示しており、したがって、定義上、大量監視につながる公共スペースでのバイオメトリクス処理の使用はすでに違法である。バイオメトリクス処理は本質的に侵入的であり、その機能は大量監視を助長するものであるため、明確かつ無期限に禁止されなければならない。このような行為を恒久的に止めるためには、EUの対応は、特定の技術ではなく、大量監視を構成したり、それにつながる意図や効果を持つあらゆる行為やプログラムを対象とする必要がありますが、このような技術は、適応される可能性はあっても、大量監視に使われる限りは有害であり、したがって、管理されることになります。集団監視は、その性質上、基本的権利の根本的な侵害であり、プライバシー、データ保護、その他の権利の本質を侵害するものである。正当な理由なくプライバシー権を侵害し、それによって集団監視を助長するようなバイオメトリクス処理の使用は、たとえ意図しないものであっても、その使用が法執行機関、公的機関、商業関係者のいずれによるものであるかを問わず、すべて対象となります。英国 ICO は、公共政策の目的であっても、ほとんどのバイオメトリクス技術は、公 共および民間の関係者の組み合わせによって開発・展開されると指摘している56 。
5.1.1 バイオメトリクスと尊厳の権利
5.1項で述べた基本的権利の意味合いを踏まえて、EUのすべての基本的権利は、憲章第1条の人の基本的尊厳に基づいており、「人間の尊厳は不可侵である。それは尊重され保護されなければならない。」 他の国内および国際的な人権文書も同様に、普遍的で不可分な人間の尊厳を中心に据えている57。このことから、尊厳は「母権」と考えられている58。しかし、特別なカテゴリーの個人データを認識、識別、検出するために公共の場で大規模な監視を行うことは、EU法や国内法で正当化されず、比例もしない方法で人々の資質、行動、感情、特徴を利用することになるため、根本的に尊厳権を侵害している。これは、第2章で広範囲にわたって検討されている、不法で尊厳を侵害する効果につながる。FRAの説明によると、顔認識の利用は、重要な場所やイベントを回避させることで尊厳を侵害する可能性がある。また、「不適切な警察の行動」によって、以下のようなことが確認されている。
「監視技術として人々が認識するものが生活に与える影響は、尊厳ある生活を送る能力に影響を与えるほど重大なものである可能性がある」と確認している。
(注56) Information Commissioner’s Office, Statement on Live Facial Recognition Technology in King’s Cross (2019) https://ico.org.uk/about-the-ico/news-and-events/news-and-blogs/2019/08/statement-live-facial-recognition-technology-in-kings-cross/
(注57) ドイツの憲法上の(原)権利である「(人間の)人格の尊重」(das allgemeine Persönlichkeitsrecht)や、1978年のフランスのデータ保護法(その後のすべての法律で維持され、現在は憲法上の地位を付与されている)の基礎となっている、”Informatics must serve mankind”(情報学は人類に奉仕しなければならない)という原則を参照。
(注58) Barak, A.Human Dignity: The Constitutional Value and the Constitutional Right (2015) 156-169.
(注59) FRA, Facial recognition technology: fundamental rights considerations in the context of law enforcement (2019) 20 https://fra.europa.eu/sites/default/files/fra_uploads/fra-2019-facial-recognition-technology-focus-paper-1_en.pdf
欧州データ保護監督官(EDPS)は、これを拡大して、特にアルゴリズムによる人々の顔の商品化と客観化、そして民間企業や国家による大規模な監視に利用されること、これらはすべて顔認識の固有の要素であり、それ自体が尊厳を侵害するものであると説明している60。 人々の身体的特徴を追跡することの親密さと押しつけがましさと相まって、公共空間における対象外のバイオメトリクス処理は、本質的に尊厳を侵害する行為となる。大規模な監視に使用される可能性があるため、基本的権利とは相容れないものとなっている。最後に、尊厳の権利は不可侵であるため、EU加盟国が国家安全保障や公共の緊急事態に対処するために措置を講じる場合でも、尊厳を侵害する行為は常に慎まなければならない。このように、尊厳は、バイオメトリックな集団監視の禁止を求める基本的な基盤を形成している。
5.2 データ保護法
GDPRは、個人データの処理に関する規則を定めており、法執行目的(LEDでカバーされる)以外のすべての個人データの処理に適用される。第9条1項では、バイオメトリクスデータ、およびその他の保護された特性を示すデータの処理は、そのようなデータの機密性のために原則として禁止されている。合法的な例外として、同意に基づく処理(第7条)などが可能となっているが、公共生活に欠かせない公共空間で大量の監視を行うことは、人々が十分な情報を得た上で自由に与える真の同意を根本的に妨げ、データ保護に関する人々の権利を侵害することになる。マルセイユのAmpère Schoolの例(セクション6.1)が示すように、公共スペースでのバイオメトリクス処理の現在の展開は、GDPR第5条の合法的根拠の要件を遵守しておらず、他の例では、データの最小化、データの使用量の削減、データの使用量の削減、データの使用量の削減など、GDPR第5条の要件に根本的に反している。GDPR第5条の要件には、データの最小化(収集したデータは、明確に定義され、明示的に指定された正当な目的のために必要なものに限定されるべきであるという意味)、目的の制限、十分に正確でない個人情報の使用を禁止するデータ品質要件、透明性、およびデータ管理者がこれらの要件を満たしていることを証明する義務などが含まれている。GDPR第22条では、さらに、特に生体データに基づいて完全に自動化された決定を行うことを禁止している。
LEDは、「管轄当局」による個人データの処理に関する規則を定めている。最も頻繁に行われるのは、刑事手続きにおける法執行機関ですが、これに限定されるわけではなく、法執行目的(犯罪の予防、発見、起訴など)で厳密に行われる場合である。
(注60) Wojciech Wiewiórowski, Facial recognition: A solution in search of a problem? (2019年) https://edps.europa.eu/press-publications/press-news/blog/facial-recognition-solution-search-problem_en
GDPRと同時に統合パッケージの一部として採択されたもので、同じ原則に基づいた姉妹文書である。また、「個人データの処理に関連する自然人の保護は基本的な権利である」ことを強調している61。
LEDは、法執行目的であっても、データは「合法的かつ公正」に処理されなければならないことを繰り返し述べている(第4条1項(a))。LEDはさらに、犯罪の有罪判決を受けた者や容疑者(この場合、法執行機関は「犯罪を犯した、または犯そうとしていると信じるに足る重大な理由」を有していなければならない)(第6条(a))の扱いを、犯罪行為の有罪判決を受けた者や容疑者ではない者と比較して区別している。この違いは、真正な容疑者を対象とする合法的なターゲティング(疑惑がLEDの「重大な理由」の閾値を満たすことが条件)と、対象外のバイオメトリクス処理に固有の一般市民を対象とする違法な無差別ターゲティングとの違いを示すもので、重要である。
法執行目的のデータ処理は、GDPRにあるように厳格な基準を満たす必要がある。LEDでは、このような処理は必要でなければならず(第8条1項)、生体情報を含む機密データには特別な要件が課せられ(第10条)、セーフガード、デュープロセス/適正管理、情報を得る権利、「デザインとデフォルトによるデータ保護」(第20条1項)などの長い要件を遵守しなければならない。GDPRとは異なり、同意は法的根拠とはならない。Working Party 29は、法執行のためのデータ処理は、「厳格な必要性」という高い基準を満たさなければならないと付け加えている62。
バイオメトリクス処理の用途の中には、明らかにGDPRの管轄内にあるもの(例えば、店舗での行列管理、学校教育などの地方自治体の活動)と、LEDの管轄内にあるもの(司法、警察の法と秩序の活動)があるが、法律の対象が重複しているため、いくつかのシナリオが曖昧になっている。例えば、犯罪者、被害者、目撃者の詳細を含む警察のデータベースや、警察がサッカーの試合で監視リストを使用して既知の犯罪者を特定するが、その際に群衆のメンバーを撮影するため、GDPRでは同意が必要となるなどの場合には、シナリオが不明確である。このような理由から、一部の加盟国では複合的な国内法を導入している。バイオメトリクス処理が違法な集団監視、データ保護規則の不当な侵害、尊厳の侵害につながるという本質的な問題は、この技術の具体的な導入事例にGDPRまたはLEDのどちらが適用されても変わることはない。いずれにしても、このような法的グレーゾーンは、裁判所やデータ保護機関・当局による法律の解釈を深めることが急務であることを示している。
(注61) ドイツの憲法上の(原)権利である「人間の人格の尊重」(dass allgemeine Persönlichkeitsrecht)や、1978年のフランスのデータ保護法の基礎となった原則(その後のすべての法律で維持され、現在は憲法上の地位を付与されている)である「情報学は人類に奉仕しなければならない」を参照してください。
(注62) European Commission, Opinion on some key issues of the Law Enforcement Directive (2017) 7-8 https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=610178
このような問題は、例えばアウトソーシングや法執行官が十分な技術的専門知識を持っていない可能性のある複雑な技術の提供の結果として、法執行データ処理における民間行為者の役割が増大していることにより、さらに複雑になっている。このような業者が、LEDやGDPRに含まれる厳格な「明示的同意の要件」、厳格な機密性、セキュリティ、保護、乱用防止の要件を遵守する立場にあるかどうかは疑問が残る。
国家安全保障上の理由で行われる活動は、法執行機関ではなく国家情報機関の権限であるため、LEDのデータ保護規則ではカバーされていない63。しかし、FRAは、国家安全保障上の問題であっても、「決定が国家安全保障に関係しているという事実だけで、EU法が適用できなくなるわけではない」と強調している64。法執行(すなわち、刑事問題)に基づいて行われる処理は、国家安全保障上の免除とは異なり、FRAは、基本的権利の対象であることを強調している。対照的に、法執行のための「公共の安全」措置は、LED の第 1(1)条の範囲内と考えらる。FRA は、この点を明確にし、「犯罪防止や公共の安全などの一般的な利益の目的は、それ自体では基本的な権利への干渉を正当化するのに十分ではなく、LED のデータ保護を適用しなければならない」と強調している65。
例えば、民間企業から法執行機関へのデータの移転(および国家安全保障機関への当該データのさらなる移転またはアクセスの可能性)66、バイオメトリクスおよび関連するセンシティブなデータの保護、または悪用されてきた抜け穴の解消など、GDPRおよびLEDの施行および相互関係の明確な解釈(訴訟を含む)が緊急に必要であり、また大きな機会でもある。GDPRの採択は、欧州の市民社会から歓迎されたが、その実施はEU全体で一貫しておらず、加盟国は特定の違反行為への対処方法について裁量権を与えられている。
(注63) 「公共の安全」と「法の執行」(EU法の対象)対「国家の安全」(EU法の対象外)に関連する行為は、ますます相互にリンクしている。Douwe Korff and Marie Georges, The DPO handbook (2019) section 1.4.3 in particular “Scope of the LEDPD” (pp.59 – 63) and section 1.4.6, 89ff, Transmission of personal data between different EU data protection regimes (これは、GDPRの対象となる事業体から加盟国の国家安全保障機関への個人データの移転は、受領機関の行為が憲章を含むEU法の対象とならない場合でも、GDPRの対象となることを明確にしている)を参照。国家安全保障活動に関連する法の支配の要件一般については、CoE人権委員会、Issue Paper on The Rule of Law on the Internet and in the wider digital environment (2014) section 4.6, 107 – 110 https://rm.coe.int/ref/CommDH/IssuePaper(2014)1 を参照。
(注64) Fundamental Rights Agency, Surveillance by intelligence services: fundamental rights safeguards and remedies in the EU, Volume I: Member States’ legal frameworks (2015) https://fra.europa.eu/en/publication/2015/surveillance-intelligence-services-volume-i-member-states-legal-frameworks?_cldee=ZG5AZGllZ29uYXJhbmpvLmV1&urlid=1
(注65) Fundamental Rights Agency, Facial recognition technology: fundamental rights considerations in the context of law enforcement (2019) https://fra.europa.eu/sites/default/files/fra_uploads/fra-2019-facial-recognition-technology-focus-paper-1_en.pdf
(注66) Douwe Korff and Marie Georges, o.c. (脚注62), section 1.4.6を参照。
各国のデータ保護当局(DPA)は、加盟国から十分なリソースを得られず、政治的にも力を奪われてきたため、GDPRやLEDを施行するための努力が損なわれ、法律に違反している行為者は遵守するためのインセンティブにほとんど直面していなかった。DPAやその他の監視機関に、プライバシーやバイオメトリックデータに関する専門知識を持たせることで、バイオメトリックによる大量監視から基本的権利を守る能力をさらに強化することができる。
要するに、あらゆるバイオメトリクス処理は、必要性、比例性、データ保護法への準拠を証明することの難しさに加えて、実存的な特徴を客観化することによる尊厳の侵害という本質的な課題があるため、深刻な問題となっている。しかし、公共スペースでの対象外の(大量の)処理の可能性が加わると、そのような処理は、明示された目的に従って正当化することがほぼ不可能になり、したがって、データ保護を理由に許されなくなる。
5.3 「認識」の定義。識別、検出、処理
GDPRでは、「自然人を一意に識別する目的」を含む特別なカテゴリーの個人データの処理を禁止している(特定の状況下で明示的に許可されている場合を除く)(第9条(1))。LEDの第10条では LEDの第10条では、さらに「厳密に必要」な場合にのみ認められている。「顔認識」および「生体認識」という用語は、広範な特別カテゴリーのデータ処理活動を説明するための一般的な―しかししばしば不正確な―方法だ。
欧州データ保護委員会(EDPB)は、「本人識別identification」は誰かの正式な名前や身元を明らかにする必要はなく、ある人を他の人と区別することを可能にするあらゆる処理を含むことを確認している67が、これは同様に押しつけがましいものになる可能性がある。つまり、識別だけでなく、外見、推測される行動、予測される感情、その他の個人的特徴の検出もすべて、GDPRで定義されているバイオメトリクス処理の範囲内であり、集団監視につながる目的で使用される場合は、本稿の範囲内となる。
ユーザーデータの一時的なローカル分析(データを中央サーバーに転送するのではなく)は、生体認識の使用が「処理」とみなされることを免責されるものではない。また、カメラからカメラへの移動時にユーザーを追跡しないことで、アプリケーションが「識別」とみなされないということもない。これらの例はいずれも、GDPRまたはLEDの下での関連するデータ処理義務の範囲内にある。これらの理由から、本分析では、認識、識別、または検出を区別せず、これらすべてを処理という広い範囲で捉える。
(注67) EDPB, Guidelines 3/2019 on processing of personal data through video devices (2019) 16 https://edpb.europa.eu/sites/edpb/files/consultation/edpb_guidelines_201903_videosurveillance.pdf
5.4 既存のバイオメトリックシステムの包括的分析
FRAは、調査対象となった少数の加盟国を除いて、「他のEU加盟国におけるライブの顔認識技術の使用やテストの可能性について、現在は限られた情報しか得られていない」と表明している。 68 基本的権利を守るというEUの責任を考慮すると、大量監視のためのバイオメトリクス処理の展開が必要であり、妥当であり、(データ保護影響評価などの)法的保護措置に準拠しているという証拠がないことから、公共の場でバイオメトリクス処理を展開している関係者(公共、民間、あるいは両者の協力関係にあるかどうかにかかわらず)の透明性を高め、説明責任を果たすとともに、法執行機関、国境警備、その他の公共安全保障機関(医療機関を含む)、国家安全保障機関の間でデータ交換を行うことが明確に求められている。スコットランド警察の例は、法執行機関が顔認識によって提起される基本的権利の問題に積極的に対応し、それを回避するための措置をとることが可能であり、かつ望ましいことを示している69。
FRA、各国のデータ保護当局(DPA)、市民社会、一般市民のすべてが、基本的権利を侵害する用途に異議を唱えるために、公共空間で行われているバイオメトリクス監視手段についての知識を深めることは有益です。情報に関する権利、手続き上の権利、その他すべての基本的権利と自由に準拠していることを保証するために、何をしているのかについて情報を提供することは、技術を開発・展開する主体に引き続き負担を強いる必要がある。欧州委員会は、すべてのバイオメトリクス処理について、配備、試行、および今後予定されている配備、動機、法的根拠、基本的権利の影響、関与している関係者、法的保護措置に関する包括的な調査が行われるようにしなければならない。Statewatchが「EUセキュリティ産業複合体」70と呼んでいるものの存在は、(PNRシステムの場合に示唆されているように71)CCTVカメラから難民のための「嘘発見器」に至るまでの「セキュリタイゼーション」技術の推進、防衛、(略)利用につながる可能性があるため、社会として、これらの技術を開発するのは誰なのか、我々の権利と自由を犠牲にして、誰がそうすることで利益を得るのかを理解する必要がある。
(注68) Fundamental Rights Agency, Facial recognition technology:fundamental rights considerations in the context of law enforcement (2019) https://fra.europa.eu/sites/default/files/fra_uploads/fra-2019-facial-recognition-technology-focus-paper-1_en.pdf
(注69) スコットランド警察の2026年戦略の発表を受けて、警察に関する司法小委員会は2020年に警察に対して、(a)顔認証を展開する意図がないこと、(b)現段階では展開できないことに同意することを確認するよう迫り、スコットランド警察は同意した。https://sp-bpr-en-prod-cdnep.azureedge.net/published/JSP/2020/2/11/Facial-recognition–how-policing-in-Scotland-makes-use-of-this-technology/JSPS0520R01.pdfとhttps://www.parliament.scot/S5_JusticeSubCommitteeOnPolicing/Inquiries/20200410_PstoJF_Facial_Recognitio….pdfを参照。
(注70) Statewatch, Market Forces: the development of the EU security-industrial complex (2017) http://www.statewatch.org/marketforces/index.htm
(注71) EURACTIV, The curious tale of the French Prime Minister, PNR and peculiar patterns 2016, https://www.euractiv.com/section/justice-home-affairs/opinion/checked-for-tuesthe-curious-tale-of-the-french-prime-minister-pnr-and-peculiar-patterns/
さらに、各加盟国のDPAは、法執行機関が既存の法律に基づいて技術を使用しているかどうかを審査することができる。特に、厳密な必要性の要件(第10条)に照らして審査されるべき、「公共の安全」とされる目的のために取られた措置に重点を置くことで、LEDの役割を明確にすることができる。GDPRの第9条(2)(g)に類似した規定をLEDに盛り込むか、あるいは裁判所やDPAがLEDをそのように読むだけで、「実質的な公益」の除外が、他の方法では違法なバイオメトリクス処理の使用を正当化する抜け道として利用されないようになるだろう。
5.5 禁止の範囲外のバイオメトリク処理
EU法はバイオメトリクス処理に対して高い事前基準を要求している。欧州データ保護監督官(EDPS)は、必要性と比例性が「個人データの処理を伴う措置案が遵守しなければならない本質的な二重要件」であることを強調している72。集団監視に貢献するバイオメトリックデータの使用の場合、第52条1項に違反して、憲章によって保護される基本的権利の「本質」を侵害するため、これらの基準を満たすことができないことが私たちの分析によって実証された。したがって、このような使用は本質的に違法であり、実際の配備に関する議論にかかわらず、禁止されるべきである。精度が向上してもバイオメトリクス監視技術の安全性が高まるわけではないが、精度の欠如に関する現在の問題は、アプリケーションの必要性を正当化しようとする公共機関や法執行機関にとって重大な問題だ。現段階では、極めて高いエラー率であることが判明しているパイロット展開の状況下では、公共利用の必要性を正当化することはできない73。
大量の監視に使用される可能性がない用途の場合、それにもかかわらず、すべての展開は、厳格な事前規則(大量のバイオメトリクス処理の場合、GDPRとLEDの下で必要とされるDPIAなど-脚注30参照)と事後の保護措置の要件に従わなければならず、開発ライフサイクル全体がすべてのEU法に準拠していなければならない。これは、バイオメトリックデータの大量監視以外の用途、例えば、ターゲットを絞った監視、個人の同意に基づく認証、公衆衛生の保護、商業目的での使用など、多くの用途が依然として違法である可能性があることを意味する。以下の例では、バイオメトリクス処理についてケースバイケースで行わなければならないデューデリジェンスのレベルを詳細に示している。すべてのステップを満たすことができない使用は、違法となる。
(注72) EDPS, Guidelines on assessing the proportionality of measures that limit the fundamental rights to privacy and to the protection of personal data (2019) 3
(注73) The Guardian, UK police use of facial recognition technology a failure, says report (2018) https://www.theguardian.com/uknews/2018/may/15/uk-police-use-of-facial-recognition-technology-failure
法執行機関の処理:「ケース・バイ・ケース」アプローチの実証
公的機関が法執行機関などで使用する場合、集団監視に貢献する可能性のないバイオメトリクス技術は、やはり4つの累積ステップのセーフガードを通過しなければならない。まず第一に、人権法では、基本的な権利を侵害する措置は、憲章第52条に基づいて、厳密に必要かつ求める目的に比例するものに限定することが求められる。このテストは、ある技術が法律に基づいて使用される可能性があるかどうかを評価する方法を提供づる。第2に、バイオメトリクス処理の使用を規定する法的枠組みは、合法性または「法に則って」の要件を満たさなければならない74。つまり、バイオメトリクスデータの展開を規定する規則は、厳格なアクセス可能性、予見可能性、法の質の要件を満たさなければならない。
その結果、バイオメトリクス処理の認可と展開は、法律によって明示的に規定され、正当な目的を達成するために厳密かつ実証的に必要な場合に限定されなければならない。その法律は、一般の人がアクセスでき、その適用と干渉の範囲を予見できるよう、十分に明確かつ正確でなければならない。とりわけ、バイオメトリクス処理の実施中に得られた、捜査対象者に属さない個人データの保持、アクセス、金額75および破壊を規定する明確なルールを法律で定める必要がある。
第3に、法執行のためのバイオメトリクス処理の使用には、この侵入権限の乱用を防止するための保護措置も伴わなければならない。これには、最低限、監視リストへの掲載基準の透明性76、この技術の導入を正当化する重大な犯罪または脅威への関与についての個別の合理的な疑いの存在77、事前のデータ保護影響評価(DPIA)(LEDリサイタル58)、および関連する監督当局との事前協議(リサイタル28)が含まれる。 個人が自分のバイオメトリクスデータの処理について適切に通知され、自分の権利(特に修正、アクセス、消去)を行使する機会が与えられ、裁判所や規制当局に訴えて処理操作に異議を唱える機会が与えられること78、法的救済を含む権利を確保するための独立した司法または行政の認可および監視。バイオメトリックデータが収集されたものの、(監視の対象とされなかったなどの理由で)訴訟が行われなかった個人に対しても、少なくとも事後的に情報を提供し、データの収集が不当であったり、違法に処理・共有・保持されていた場合には救済措置を与えることが極めて重要だ。バイオメトリックデータの取得と成功率に関する信頼性の高いタイムリーな統計を公表することで、これらの権限が濫用されていないという国民の信頼を確保することができる。
第4に、当局は処理された個人データの安全性と完全性を確保する義務を負う。基本的に、バイオメトリクス技術の使用は、脆弱性があったり、第三者による不正アクセスを防止するための適切なセキュリティ保護手段がない機器を使って、非常にセンシティブな個人データを処理することに関連している。例えば、たった1台のCCTVカメラがハッキングされただけで、政府の活動とは無関係の人を含む多くの人に影響が及ぶ可能性がある。このような基本的人権および法の支配に関する要件は、対象外のバイオメトリクス処理が行われない場合でも、認識、識別、その他の処理のためのバイオメトリクス技術の使用は、既存のEU法の下で例外的に厳しい管理下に置かれることを示している。
(注74) Privacy International, Briefing to the UN Counter-Terrorism Executive Directorate on the responsible use and sharing of biometric data to tackle terrorism (2019) 3-4 https://privacyinternational.org/sites/default/files/2019-07/PI%20briefing%20on%20biometrics%20final.pdf
(注75) EUのデータ収集手段とプログラムに関する基本的権利のレビュー、44 http://www.fondazionebrodolini.it/sites/default/files/final_report_0.pdf
(注76) Big Brother Watch v United Kingdom, para 387 を参照。
(注77) Szabó v. Hungary, para 260を参照。
(注78)これは、個人の権利と自由に高いリスクをもたらすすべての処理操作について、事前にDPIAを行い、DPAと事前に協議することが可能であるというGDPRの要件を反映したものであり、実際に、法律で規定されている場合には、DPAの事前承認が必要となる(GDPR第35条~第36条)。
ケーススタディの評価
本章では、本稿で実証された議論を、公共空間でのバイオメトリック処理が集団監視につながった実例に適用する。これは網羅的なリストではない。一般的に、処理が対象を絞り込んでおらず、公共または単に公共アクセス可能な空間で行われ、集団監視の認識や尊厳の侵害につながる可能性がある場合、EU法の下ですでに違法であり、実際には禁止されなければならないものに含まれる。ケーススタディの違いは、どのような展開も個別に検討する必要があり、そのようなツールやシステムを開発・展開する側が、各国のDPAと展開前のDPIAプロセスに関与することが必要であることを示している。
6.1 マルセイユのアンペール高校での顔認識
2019年7月、Provence-Alpes-Côte d’Azur(PACA)地域当局は、フランスのデータ保護当局であるCNILに、マルセイユのAmpère高校の入学管理に顔認識システムを使用する許可を求めた。この「試験」は1年間の実験を目的としたもので、同地域の別の学校(ニースのLycée les Eucalyptus)でも実施されており、生徒と保護者の同意に基づいて行われるとされていた79。このシステムの意図は、学校の警備員の仕事を容易にし、身分証明書の盗難を発見したり、無許可で人が学校にアクセスするのを防ぐのに役立てることであった。これは、生徒とスタッフの安全性を高め、生徒が学校の敷地に入るまでの時間を短縮するためのものだった。
EDRiの分析。
- 目的:CNILが示したように、このシステムは、学校への入場を管理し、正しい人が入場でき、悪い人が入場できないようにするという、公的機関の正当な目的を達成することを目的としていることに同意する。
- 必要性と比例性:CNILが強調したように、IDバッジを使用するというより侵入性の低い代替手段がある場合、学校の顔認識システムは必要ではない。さらに、この顔認識の使用は、単に学校に入るという目的のために、未成年者に対する大規模で侵入的なデータ監視プログラムを導入するものであり、不均衡である80。
79 The CNIL, Experimentation de la reconnaisance faciale dans deux lycees (2019) https://www.cnil.fr/fr/experimentation-de-la-reconnaissance-faciale-dans-deux-lycees-la-cnil-precise-sa-position
80 EDPS, quick-guide to necessity and proportionality (2018)
- その他の合法性の要件:GDPRでは、同意とデータの最小化に関する法的要件がある。CNILとマルセイユ地方裁判所で確認されたように、アンペールの顔認識裁判は、この2つの基準に著しく違反しており、不当にデータを収集し、公的機関と学生の間の力関係のために、根本的に正当な同意を得ることがでなかった。EU法では、若年層の保護が強化されている(情報社会サービスに関するGDPR第8条を参照)。GDPRでは、バイオメトリックデータは非常にセンシティブであると考えられている(第9条1項)。したがって、未成年者のバイオメトリックデータは最高レベルの保護を必要とするが、Ampère社はこれを満たしていなかった。
- リスクの重大性:顔認識を利用した入校管理は、未成年者のデータを不必要かつ違法に処理・保持するだけでなく、学習の場に不信感や監視の文化を生み出したり、オプトアウトを希望する人に適合するよう圧力をかけたりすることで、教育を受ける基本的権利を阻害する可能性がある。ポーランドのある学校では、給食を生徒に割り当てるためにシステムを導入していたが、これが法律違反であることが明らかになっている。生徒は脱退することができたが、600人の生徒が先に食事をするまで待たされるという事実上の罰を受けた81。
- その他の要因 この事件では、地域がCNILの意見を聞く前に実験を行ったようで、国家の説明責任を欠く危険な前例となっていることが問題となっている。また、PACA地域がこのような侵入的なシステムを試験的に導入することを決定したことは、PACA地域のデータ保護プロセス(DPIAなど)が基本的権利に十分な配慮をして行われていないことを示唆している可能性がある。
これは何を意味するか。
このシステムの目的は受け入れられるものであったかもしれないが、この分析により、学校の入館管理のための顔認識は、この目的を達成するための合法的、必要的、かつ比例的な方法ではないことが明らかになった。公共の場であるだけでなく、若者が通う義務のある重要な場である学校で、この大量のバイオメトリックシステムを使用することは、EDRiが禁止を求める範囲にしっかりと含まれている。若者のプライバシーとデータ保護の権利を侵害する規模があまりにも大きいため、セーフガードやDPIAを駆使しても、この種の利用を欧州の基本権法に準拠させることはできない。
入校システムの運用規模は、他の違反の可能性を大きく高めている。欧州の学校で同様のことが行われれば、何百万人もの若者が日常的に不必要かつ不法にデータを処理される可能性がある。これにより、非常に押しつけがましい顔認識が常態化し、適切な情報に基づいた公開討論ができなくなる可能性がある。
このような技術の使用に対する懸念は広く浸透しており、アンペール高校のケースのような公共の大量監視シナリオにおける顔認識および生体認識の使用について、政策決定にうまく情報を与えることができる可能性が高いことを意味している。CNILとマルセイユ地方裁判所の両方がこの裁判を違法と宣言したことで、若者の権利を侵害する可能性のある行為を早期に鎮圧したいという国家と国民の両方の要望がある。
81 Urzad Ochrony Danych Osobowych, Fine for processing students’s fingerprints imposed on a school (2020) https://uodo.gov.pl/en/553/1102
6.2 評価・分析を行ったその他のケーススタディ
(a) ソーシャルメディアのスクレイピングに使用される顔認識ソフトウェア
2020年1月に起きたClearviewAIのスキャンダルは、ソーシャルメディアやネットワーキングの目的でアップロードされた人々の画像が、営利目的の技術を構築するのに役立つような形で民間業者に密かに利用され、さらに警察にも販売されているというリスクについて、世間の認識を高めた82。これは、法執行における民間業者の役割と影響力、公的調達の問題、不正確さによる莫大な差別的結果の可能性、さらにClearviewAIのデータベースの(不)安全性という関連する問題を提起している。また、他のビッグテック企業も同様に、大量の人々の写真に対してアルゴリズムを学習させているが、人々は自分たちのデータがどのように使用されているかを知らない。このような状況で機械学習アルゴリズムを使用することは、さらなる懸念材料となる。学習データに顔が使用されていると、システムがその人にフラグを立てる可能性が高くなるため、さらなるリスクに直面することになる。
EU Horizon 2020が資金提供しているSPIRITプロジェクトの例では、ソーシャルメディアのスクレイピングを利用したケースにおいて、基本的権利の遵守、透明性、説明責任が欠如していることが強調されている。この研究プロジェクトには、ギリシャ警察(GR)、ウェストミッドランズ警察(UK)、テムズバレー警察犯罪委員会(UK)、セルビア内務省(RS)、シュシトノ警察学校(PL)の5つの法執行機関が参加している。まばらで不明瞭なウェブサイトによると、このプロジェクトは、顔の抽出やマッチングなどのツールを使い、大量監視の一形態を構成するソーシャルメディアのデータから情報を相関させ、犯罪捜査に関連するすべてのソースを対象に複雑な連想検索を継続的に開始することを目的としている83。情報公開請求によると、2020年と2021年に真正なエンドユーザーを対象としたトライアルが計画されている84。
(b) iBorderCtrl
Horizon 2020プログラムは、iBorderCtrlと呼ばれるハンガリー、ギリシャ、ラトビアの国境に関する一連の研究プロジェクトにも資金を提供している85。
82 The New York Times, The Secretive Company That Might End Privacy as We Know It (2020) https://www.nytimes.com/2020/01/18/technology/clearview-privacy-facial-recognition.html
83 スピリット(2018年)https://www.spirit-tools.com/index.php
84 Ask the EU, Ref. Ares(2020)1351062 – 04/03/2020, https://www.asktheeu.org/en/request/7495/response/25180/attach/2/REA%20reply%20confirmatory%20signed.pdf?cookie_passthrough=1
85 iBorderCtrl https://www.iborderctrl.eu/
その中には、生体データの自動分析を利用して、EUへの入国を目指す人々の間で偽装の証拠を予測するプロジェクトも含まれていた。情報公開請求により、ギリシャでのパイロットには、実際の旅行者は参加していないことが明らかになり86、このプロジェクトは2019年8月に終了した。本稿の大量監視の分析では、このような利用は、通行人のデータを無差別に処理するという基準を満たさない。しかし、この技術の使用は、合法的な関心を持つ特定の個人を対象としたものではないため、集団監視とみなされるための他の基準を満たすと考えている。さらに、このような欺瞞予測「嘘発見器」テストは、不平等な力関係を持つ監視技術に依存し、一般的に疎外された個人を対象に使用されていることから、国家による集団監視装置の一部と考えることができる。世間の批判を受けて、iBorderCtrlのプロジェクトチームは、このプロジェクトの潜在的に有害な倫理的意味合いを認め、世間の議論と基本的権利の分析の両方の必要性を認めた。
6.3 公衆衛生目的の大量監視(COVID-19)
2019年後半から、武漢で発生したコロナウイルスのアウトブレイクが急速に世界的なパンデミックになるのを世界が見守ってきた。公衆衛生上の対応により、世界中の人々の日常生活に前例のない制限が加えられた。様々な重要な権利、特に生存権がこの病気によって脅かされていることは言うまでもないが、世界中の対応が基本的な自由と領 域を脅かすこともある87 。
合理的な公衆衛生対策を講じることは正当な政策行動だが、パンデミックが国家や民間企業によって悪用され、違法で侵入性の高い集団監視手段を密かに導入することになるという重大なリスクがある。例えば、中国では、良心的とされる任意の追跡アプリ88 が、人々の公共スペースへのアクセスを自動的に制御し、個人データを警察に送信していることがすぐに明らかになった89 。ポーランドでは、検疫を強制するために顔認識ベースのアプリを強制的に導入し、警報が出てから20分以内にアプリで自撮り写真を共有できなかった人の家に警察を派遣している。同様に、ヨーロッパ各地で同様の脅威的な連絡先追跡アプリの導入を求める声や試みが増えている90。
本稿では、コロナウイルスのパンデミックとそれに伴う監視の意味、さらにはバイオメトリクスによる大量監視との交わりについて、すべてを論じることはできない。しかし、データの大量収集と共有は、その背景に関わらず、基本的権利に大きなリスクをもたらす可能性があることだけは述べておきたい。
86 Ask the EU, D6.4 Evaluation report of final prototype pilot deployment and Best Practices – Analysis of pilot feedback on final prototype (2019) https://www.asktheeu.org/en/request/7488/response/24777/attach/3/D6%204%20700626%20Eval%20report%20final%20prototype%20pilot%20deploy%20BestPractices%20redacted.pdf?cookie_passthrough=1
87 基本権庁、COVID-19との戦いにおける人権と公衆衛生の保護(2020年)https://fra.europa.eu/en/news/2020/protect-human-rights-and-public-health-fighting-covid-19
88 BBC, China launches coronavirus ‘close contact detector’ app (2020) https://www.bbc.co.uk/news/technology-51439401
89 New York Times, In Coronavirus Fight, China Gives Citizens a Color Code, With Red Flags (2020) https://www.nytimes.com/2020/03/01/business/china-coronavirus-surveillance.html
90 Gov.pl, Aplikacja “Kwarantanna domowa” – ruszya proces jej udostapniania (2020) https://www.gov.pl/web/cyfryzacja/aplikacja-kwarantanna-domowa–ruszyl-proces-jej-udostepniania
私たちは、本稿で検討されているような公共空間での大量監視につながるバイオメトリックの利用や、コロナウイルスに取り組むために提案されている多くのアプリやその他の技術的な「解決策」に共通する、基本的権利や法の支配に対する脅威にも同様に注意を払わなければならない。私たちは、これらの要件から逸脱するために、人権条約、特にECHR第15条の適用除外条項を行使する正当性はないと確信している。セクション5.1で述べたように、たとえ例外的な場合であっても、国家はこれらの権利の触れられない本質的な核心部分を侵害することはできない。
プライバシーを侵害する監視インフラの正当化と常態化は、常に監視され分析されることが許容されるという誤った感覚を生み出す危険性があり、疑惑、虐待、不信に満ちた社会を助長する。EUの市民的自由委員会(LIBE)が述べているように、大規模な監視は私たちをより安全にするものではない91。それは、私たちの自由や権利に不当な制限を加えるものであり、COVID-19パンデミックのような公共の緊急事態が緩和された後もずっと続く可能性がある。EDRiは、ウェブサイトにこれらの動向を報告・分析するセクションを開設した92。そこでは、法執行や公序良俗のための大量監視と同様に、公衆衛生目的のための大量監視に関しても、すべての基本的権利と原則を欧州各国が完全に尊重することを主張している。異なったチェック・アンド・バランスが必要になるかもしれませんが、基本的な原則と国家権力の本質的な限界は変わりらない。
91 欧州議会, Use of smartphone data to manage COVID-19 must respect EU data protection rules (2020) https://www.europarl.europa.eu/news/en/press-room/20200406IPR76604/use-of-smartphone-data-to-manage-covid-19-must-respecteu-data-protection-rules
92 EDRi, COVID-19 & Digital Rights Doc Pool https://edri.org/covid-19-digital-rights-document-pool
EDRiの推奨事項
法執行機関、公的機関、民間・商業関係者のいずれであっても、公共空間におけるバイオメトリクスデータ(または個人データの代理特殊カテゴリー)の対象外の処理のための技術の使用は、基本的権利および個人の自由にとって重大な問題を提起しており、真剣に取り組まなければならない。本稿で行った基本権分析では、集団監視につながる、あるいはつながる可能性のある公共空間でのバイオメトリック処理は、EUの基本権フレームワーク、特にデータ保護、尊厳、必要性と比例の原則と相容れないものであり、したがって違法であることを示している。このことは、明示された目的にかかわらず、また、そのような大量監視の効果が意図的であるか否かにかかわらず、同様である。これは、集団監視がプライバシーの不当な制限を意味し、生体データを使用する場合にはさらに踏み込んだものとなり、その使用は本質的に不釣り合いなものとなるからである。
広義では欧州人権条約とEU基本権憲章、具体的には欧州評議会データ保護条約(Modernised)、GDPRとその姉妹法であるLEDなど、欧州の4つの文書がすでに生体情報を用いた大量監視を禁止している。データ保護法は、バイオメトリク処理に対するさらなる障壁となっている。
しかし、実際には、これらの法律は適切に調和されておらず、統一的に適用されておらず、完全に施行されていない。そのため、欧州の公共空間では、欧州の基本法や原則とは相容れない大規模な監視に相当する対象外のバイオメトリクス処理が数多く行われている。これらの展開は、尊厳、自由、安全、プライバシー、データ保護、特にデータ最小化、デザインとデフォルトによるデータ保護、同意、平等と無差別、表現の自由、集会と結社の自由、情報の自由、効果的な救済と公正な裁判を受ける権利を含む司法などの基本的権利を侵害している。大規模な監視は、これらの権利の触れられない「本質」を侵害するものである。これらの配備は、加盟国のデータ保護当局(DPA)93、欧州データ保護監督官(EDPS)94、場合によっては国内裁判所さえも反対しているにもかかわらず行われている。さらに、DPA は、「その任務を効果的に遂行するために十分な資源を提供」しなければならない96。
7.1 提言:バイオメトリック大量監視の禁止
EDRiは欧州連合に対し、集団監視を確立する効果または可能性がある場合には、公共および公的にアクセス可能な空間におけるすべてのバイオメトリクス処理を恒久的に停止するよう求める。この呼びかけは、6つのアクションで構成されている。EDRiは、生体情報による集団監視を根絶するために、以下のすべての措置を実施するよう求めていますが、これらの措置は、それぞれの具体的な行動に必要とされる期間や努力が異なる。
- EU加盟国は、公共の場での集団監視に相当する可能性のあるすべての処理を、現在および将来の展開を含めて直ちに停止する。これは、加盟国におけるバイオメトリクスの大量処理が基本的権利に与える影響についての欧州理事会による政治的討議によって支えられるべきである。
- EU加盟国は、欧州データ保護委員会(EDPB)および各国のデータ保護当局(DPA)の支援のもと、この権限に該当するすべての既存および計画中の活動と配備を公開する。
- EU加盟国は、公共空間での大規模な監視につながる可能性のあるバイオメトリクス処理を確立するために計画されているすべての法律を中止すること。その代わりに、明確で予見可能な法律は、問題や状況に比例した対象者の識別チェックのみを可能にし、乱用に対する効果的な救済策を提供するべきである。DPAは、各国の規制当局に助言し、各国政府に対応を要請することで、その役割を果たすことができる。
- 欧州委員会、特にHOME総局およびHorizon2020プログラムのRTD総局は、バイオメトリクスの研究や展開のために加盟国に提供される資金が、本憲章に完全に準拠した活動のためのものであることを保証すること、これには以下が含まれる。
公共空間での大量監視につながりかねないバイオメトリクス処理プログラムへの資金提供を直ちに中止すること。
公共空間での大規模な監視につながる可能性のある - バイオメトリク処理プログラムへの資金提供を直ちに中止するなど、憲章に完全に準拠した活動に対する資金提供を行う。
93 EDPB, School renders Sweden’s first GDPR fine (2019) https://edpb.europa.eu/news/national-news/2019/facial-recognition-school-renders-swedens-first-gdpr-fine_en; The CNIL, Experimentation de la reconnaissance faciale dans deux lycees (2019) https://www.cnil.fr/fr/experimentation-de-la-reconnaissance-faciale-dans-deux-lycees-la-cnil-precise-sa-position
94 EDPS, Facial Recognition: A Solution in Search of a Problem? (2019)
95 La Quadrature du Net et autres, Tribunal Administratif du Marseille, N.1901249 (2020)
96 EUのデータ収集手段とプログラムに関する基本的権利のレビュー、112
ユーロポール、フロンテックス、基本権機関(FRA)を含むがこれらに限定されない、EU機関に運用上の支援や助言を与えるすべてのEU機関は、加盟国が基本権の乱用につながる方法でこれらの技術を使用できないことを保証する。
- 欧州委員会は、EDPSの諮問的役割のもと、基本権とデータ保護を理由に、集団監視に寄与する、または集団監視に相当するEUのバイオメトリクスを対象とするすべての法律を見直し、事後評価を行い、必要に応じて、再修正、廃止、またはセーフガードに関する適切なガイダンスを加盟国に提供する97。
- 欧州委員会(特に、人工知能(AI)白書に関する欧州委員会の作業を主導する総局としてのGROW、CNECT、JUSTと、国境に関する権限を持つHOME総局)は、立法的および非立法的手段、また必要に応じて侵害訴訟や裁判所の訴訟を通じて、公共空間での大量監視につながる
- バイオメトリク処理の即時かつ無期限の禁止を実施する。このプロセスは、欧州データ保護監督官(EDPS)、欧州データ保護委員会(EDPB)、FRAおよびDPAの監督および/または支援の下で行われなければならない。
欧州データ保護監督官を含む欧州データ保護委員会、EU基本権機関(FRA)、各EU加盟国のデータ保護当局(DPA)、その他の監視機関の支援を受けながら、生体情報を利用した大量監視をEU全体で包括的に停止し、法律および実際に禁止するための適切な方法を決定することは、EU、特に欧州委員会、EU理事会、欧州議会の役割と責任である。
さらに我々は、欧州議会のメンバー、特に人工知能・デジタルに関するインターグループ、地域委員会(CoR)、欧州経済社会委員会(EESC)、およびEUの基本的権利、自由、価値の保護に関心のあるすべての関係者に、生体情報を用いた大規模監視の禁止を求めるこの呼びかけに参加することを奨励する。これらの公的機関には、議会決議を提案したり、意見書や報告書に禁止を求める内容を盛り込んだりするなど、さまざまな方法でこれらの問題に対する認識を高めていただきたいと思う。
97 関連する法律の多くは、報告書 Fundamental rights review of EU data collection instruments and programmes http://www.fondazionebrodolini.it/sites/default/files/final_report_0.pdf で分析されている。
7.2 AIに関する欧州委員会の白書
2020年2月19日付の「人工知能白書」で概要が示された欧州委員会の次期AI戦略の中で、欧州委員会は、顔や生体情報の処理をAIの「高リスク」な規制枠組みの中に含めることを提案した。欧州委員会は、ジェノサイドや拷問の「リスク評価」を提案しないのと同様に、大量監視につながる
無差別で対象を絞らない顔や生体情報の処理は、大規模な監視に相当し、プライバシー、データ保護、尊厳、基本的自由、正義に対する権利の侵害と本質的に関連している。顔認識やその他の生体情報の処理には、機械学習アルゴリズムの形でいわゆる人工知能が使用されている場合があるが、我々が特に懸念している問題は、あらゆる種類の集団監視の社会的影響であり、その結果を得るために使用される技術の種類ではない。
さらに、欧州委員会のAI戦略は、人権影響評価(HRIA)の実施や、理由の如何を問わず基本的権利を違法に侵害する措置の中止など、基本的権利を遵守した形で、禁止事項から外れたAIの使用を適切に規制しなければならない。EDRiが禁止を求める範囲は特に生体情報による集団監視に関連しているが、EDRiはさらに、行動予測に基づくすべての生体情報プロジェクトへの資金提供を中止し、資金提供を受けたすべてのプロジェクトの基本的権利の遵守状況を評価し、その評価を公開して市民社会と欧州議会の両方で公開討論を行うことをEUに強く求めている。
7.3 デジタル・ディストピアの防止
大量の監視を可能にしたり、その一因となったりする、データを大量に消費する顔認証やその他のバイオメトリクス処理は、人間の尊厳、民主主義社会、基本的権利と自由、個人データの保護、手続き上の権利、法の支配の本質とは根本的に対立する。大量のバイオメトリク処理において、権力の不均衡、差別、人種差別、不平等、権威主義的な社会的統制を増大させるリスクは、これらの技術の使用が考え得るいかなる「利益」の主張に対しても高すぎる。EUが基本的権利の本質を信じるのであれば、公共空間での大量監視につながるバイオメトリク処理の使用を禁止する以外に選択肢はありません。EDRiの呼びかけは、欧州の権利、自由、価値の根幹を侵害するバイオメトリク処理に取り組むためのベストの条件ではなく、最低条件である。
「生体情報を利用した監視システムは、権力者が監視し、無力な者が監視されるという構図を作り出す。」欧州デジタルの権利
出典:https://edri.org/wp-content/uploads/2020/05/Paper-Ban-Biometric-Mass-Surveillance.pdf