Howdy! How can we help you?
-
気候変動1
-
ブラウザ72
-
戦争36
-
ヘイトスピーチ10
-
偽情報、誤情報7
-
ジェンダー3
-
国家安全保障10
-
fediverse20
-
alternative_app18
-
デジタルセキュリティツール15
-
国内の監視社会化と反監視運動6
-
VPN10
-
GIFCT2
-
政府・国際機関の動向166
-
スパイウェア20
-
OS関係20
-
教育・学校9
-
監視カメラ16
-
労働現場の監視9
-
プライバシー159
-
デジタルID(マイナンバーなど)12
-
GPS1
-
AI78
-
オリンピックと監視社会7
-
文化12
-
労働運動17
-
リンク集12
-
金融監視3
-
COVID-19と監視社会18
-
検閲105
-
海外動向412
-
オンライン会議システム14
-
暗号化69
-
アクティビストとセキュリティ32
-
ビッグテック、大量監視262
-
SNSのセキュリティ20
-
共謀罪1
-
メールのセキュリティ43
-
Articles1
(EFF)顔認識は、顔の識別と照合だけではない。写真のクラスタリング、人種分析、リアルタイムトラッキングなど、さまざまな機能がある。
ベネット・サイファース、アダム・シュワルツ、ネイサン・シェアルド2021年10月7日
政府や企業は、私たちがどのように生活しているかを、私たちのほとんどが隠したり変えたりすることのできない固有の目印である自分の顔を使って追跡している。全米の地域社会は、この危険な技術を抑制するための法律を制定し、反発している。これに対し、一部の政府や企業は、これらの法律は、顔識別など一部の顔認識にのみ適用されるべきで、顔クラスタリングなどの他の顔認識には適用されるべきではないと主張している。
私たちはこうした考えをとらない。すべての顔認識は、プライバシー、言論の自由、そして人種的正義を脅かす。この記事では、さまざまな種類の顔認識について説明し、なぜすべての顔認識に法律で対処しなければならないのかを説明する。
顔認識とは?
顔認識技術は、最も基本的なレベルでは、人間の顔の画像を取り込んで、そこに写っている人間についての情報を抽出しようとするものである。
現在の一般的な仕組みは次の通り。
まず、画像を自動的に処理して、顔を識別する。これを “顔検出face detection “と呼ぶ。これは、後述するより高度な顔認識を行うための前提条件である。顔検出自体は、ユーザーのプライバシーを侵害するものではない。しかし、多くの顔検出技術には、人種による著しい差がある。
次に、顔の各画像から特徴量を抽出する。生の画像データは、顔の差別化された特徴を要約した小さな数値セットに処理される。これを 「フェイスプリントfaceprint 」と呼ぶ。
フェイスプリントは、生の顔画像ではなく、以下のような問題のあるすべての作業に使用することができる。コンピュータは、2つの異なる画像のフェイスプリントを比較し、それらが同一人物であるかどうかを判断する。また、顔写真からその人の他の特徴(性別や感情など)を推測することもできる。
顔適合Face Matching
顔認識の中でも最も広く普及しているのが「フェイスマッチング(顔適合)」と呼ばれるものだ。2つ以上の顔写真を照合して、同一人物であるかどうかを判断する。
顔適合は、未知の人物の写真とその実際の身元を結びつけるために使用できる。これは多くの場合、新しい画像(例:防犯カメラで撮影された画像)からフェイスプリントを取り、「既知の」フェイスプリントのデータベース(例:政府のID写真のデータベース)と比較することで行われる。未知の顔写真が既知の顔写真のどれかと十分に類似している場合、システムは一致の可能性を返す。これが「顔識別face identification」と呼ばれる。
顔適合は、2つのフェイスプリントが同じ顔かどうかを、その顔が誰のものであるかを必ずしも知らずに判断するためにも使用される。例えば、携帯電話では、ユーザーの顔を確認してロックを解除すべきかどうかを判断することがあり、これを “顔照合face verification “と呼ぶ。また、ソーシャルメディアのサイトでは、ユーザーの写真をスキャンして、その中に何人のユニークな人物が写っているかを判断することがある。この技術は、1対1の照合(2枚の写真が同一人物であるか)、1対多の照合(この参照用写真が一連の画像のどれかと一致するか)、または多対多の照合(一連の画像に何人のユニークな顔が存在するか)に使用することができる。顔と名前が一致しなくても、顔適合を利用して、例えば、店舗内や街中での人物の動きをリアルタイムで追跡することができ、「フェイストラッキング」と呼ばれている。
顔適合のすべての形態は、顔の識別、検証、トラッキング(追跡)、クラスタリングなど、デジタルの権利に関する深刻な問題を引き起こす。議員はこれらすべてに対処しなければならない。未知の人物の「トラッキング」、「クラスタリング」、「照合」に使用される顔認識システムは、容易に「識別」にも使用することができる。根本的な技術は全く同じであることが多い。例えば、「既知」の顔写真の集合を「未知」の顔写真の集合にリンクさせるだけで、クラスタリングを識別に変えることができる。
たとえ顔識別技術が使われなくても、顔のクラスタリングやトラッキング技術は、プライバシー、言論の自由、公平性を脅かす可能性がある。例えば、警察が顔オラッキング技術を使って、身元不明の抗議者を集会から自宅や車まで追跡し、住所やナンバープレートのデータベースを使って身元を確認するかもしれない。また、警察は、顔クラスタリング技術を使用して、特定の身元不明の抗議者の複数の写真の配列を作成し、その配列を顔写真データベースと比較することによって、手動でその抗議者を特定することができる。
精度、エラー、バイアス
2019年、Nijeer Parksは顔認識システムによって誤認され、不当に逮捕された。Parksは容疑者の犯行現場から30マイル離れた場所にいたにもかかわらず、警察がミスを認めるまで10日間刑務所で過ごした。
顔認識システムの誤認識により誤認逮捕されたのは、Parksで少なくとも3人目だ。3人とも黒人男性だったのは偶然ではない。顔認識は決して完璧ではないが、白人でシスジェンダー[生まれ持った性別と心の性が一致しており、その性別に従って生きる人:訳注]の男性ではない人に適用すると、驚くほどエラーが起こりやすくなる。2018年に行われた先駆的な研究では、Joy BuolamwiniとTimnit Gebru博士が、顔識別システムが有色人種の女性を白人男性の40倍以上の割合で誤認することを示した。さらに最近では、NISTが最先端のさまざまな顔認識システムをテストした結果、白人と男性以外の顔の誤認率が高くなるという、人口統計学的に見て格差のある劇的な傾向が確認された。
さらに、実験室でのベンチマークでは優れた性能を発揮する顔識別システムであっても、例えば、明るい場所で撮影されたヘッドショットを識別しようとすると、現実の世界でははるかに精度が低くなる。同じ技術を、空港の搭乗ゲートを歩く人の識別のような、より現実的なタスクに適用した場合、その性能は大幅に低下する。
多くの理由から、たとえ正確で偏りのない顔識別を広く普及させることは、自由な社会とは相容れない。しかし、現在の技術は正確さに欠け、刑事司法制度における体系的な人種差別を助長するような深い偏りがある。
私たちは、研究者たちが、顔識別ですでに発見されているように、顔のトラッキングやクラスタリングにおいても、受け入れがたいエラーやバイアスを発見すると想定される。これが、プライバシー法があらゆる形態の顔認識に対応しなければならないもう一つの理由だ。
もう一つの顔認識の形態。顔分析
顔認識は、あるフェイスプリントを別のフェイスプリントに照合するだけでなく、様々な用途に利用されている。顔の特徴に基づいて、その人の人口統計学的特徴や感情的状態などを推測するためにも使用されている。最近では、「顔分析face analysis」や「顔推論face inference」と呼ばれる手法を用いて、実写や録画された顔の画像からこれらの補助的な情報を抽出しようとする産業が急成長している。顔分析は、アイトラッキングのような他の技術と組み合わせて、見ているものに対する顔の反応を調べるために使われることもある。
人口統計学的分析
ベンダーの中には、顔認識技術を使って、ターゲットに性別、人種、民族、性的指向、年齢などの人口統計学的属性を割り当てることができると主張しているところがある。
しかし、このような人口統計学的な顔分析が本当に機能するかどうかは疑問だ。顔の構造の違いが人口統計学的特性を完全に反映しているという仮定に基づいているが、多くの場合、それは真実ではない。多くの場合、人口統計は社会的な構成要素であり、多くの人々は社会的なラベルにはきちんと適合しない。
少なくとも誰かがこれを導入した場合、人口統計学的顔推論技術は、社会から疎外されたグループにとって非常に危険なものとなる。例えば、これらのシステムは、マーケティング担当者が性別や人種に基づいて人々を差別することを可能にする。店舗では、顔分析を利用して、身元不明の客を性別や感情の状態に応じて異なる商品や割引に誘導しようとするかもしれないが、これは成功しても失敗しても誤った試みだ。極端に言えば、人口統計学的推論の自動化は、大量虐殺の自動化につながる。
これらの技術は、機能しないことで人々に害を与えることもある。例えば、「性別認識」は、伝統的な性別の特徴を持たない人を誤って認識し、トランスジェンダー、ノンバイナリー、ジェンダー・ノンコンフォーミング、インターセックスの人々を傷つける可能性がある。そのため、ジェンダーや性的指向の自動認識を禁止する運動をしている活動家もいる。
感情の分析
顔分析は、リアルタイムでも過去の画像でも、人の感情や「情動」を識別できると言われている。いくつかの企業が、顔を見てその人がどのように感じているかを判断できるとするサービスを販売している。
この技術は疑似科学だ。せいぜい、いくつかの文化的規範を特定することを学ぶ程度だろう。しかし、人は文化や気質、神経の発散などによって、感情の表現が異なることがよくある。「顔の表情」と「感情」の普遍的なマッピングを明らかにしようとするのは、スナイプハント[新人をからかうために、ありもしないものを取ってこさせるいたずらなどを指す。:訳注]のようなものだ。研究機関「AI Now」は、2019年に発表した厳しいレポートの中で、この技術の科学的根拠のなさと差別的な悪用の可能性を挙げ、人の命に関わる重要な判断に使用することを規制当局に禁止するよう求めている。
科学的な裏付けがないにもかかわらず、感情認識は多くの広告主や市場調査員の間で人気がある。消費者調査に限界を感じたこれらの企業は現在、本人の同意の有無にかかわらず、メディアや広告に対する人々の反応をビデオ観察によって評価しようとしている。
さらに驚くべきことに、これらのシステムは、コンピュータを使って精神状態を推測し、何も悪いことをしていない人を精査する「犯罪予防pre-crime」として警察に配備される可能性がある。例えば、米国国土安全保障省は、数百万ドルを投じて「FAST」というプロジェクトを立ち上げた。このプロジェクトでは、空港や国境で人々の「悪意」や「欺瞞」を検出するために、顔の推論などを使用する。また、顔の分析は、いわゆる「攻撃性探知機」にも利用されている。これらのシステムは非常に偏っており、信頼性はほとんどないが、システムが「怒っている」「人を欺いている」と判断した人に対して過剰な武力行使や不当な拘留を正当化するために使用される可能性が高い。アルゴリズムを使って拘束や懲戒処分の対象となる人を特定することは、非常に危険であり、誰かをより安全にするというよりも、既存の偏見を強化することになるだろう。
研究者の中には、人の顔から「犯罪性」が予測できると言う人もいる。これは明らかに事実ではない。このような技術は、予測的取り締まりの大きな問題をさらに悪化させるだろう。
行動を起こす
さまざまな顔認識技術のリスクを軽減するためには、私たち一人ひとりが、自分の生体データの収集、使用、共有について最終的な決定権を持つ必要がある。企業による意図しない生体情報の収集から自分自身と自分のコミュニティを守るために、あなたの代表者に連絡を取り、ジェフ・マークリー上院議員とバーニー・サンダース上院議員と共に、全国規模の生体情報プライバシー法の制定を提唱するよう伝えてほしい。
顔認識技術を政府が使用することは、私たちの本質的な自由をさらに脅かすことになる。だからこそ、政府機関はこのような行為を完全に止めなければならない。サンフランシスコからボストンまでの10以上の地域では、政府機関がこの技術を使用することを禁止するという行動をすでに起こしている。EFFの「About Face」ページでは、政府による顔認識技術の使用を禁止するための方法を紹介している。
この記事で取り上げた様々な種類の顔認識の分類案については、一般的に使用される用語のリスト(日本語、外部リンク)をご覧ください。