(Fight for the Future)共同書簡運動:法執行機関による顔認識、自動ナンバープレート読み取り機(ALPR)、発砲検知、予測的取り締まりなどのAIツールの使用は、保護されるべき権利を侵害する。

Categories
< Back
You are here:
Print

(Fight for the Future)共同書簡運動:法執行機関による顔認識、自動ナンバープレート読み取り機(ALPR)、発砲検知、予測的取り締まりなどのAIツールの使用は、保護されるべき権利を侵害する。

(訳者前書き)以下は、Fight for the Futureが、米国の捜査機関によるAIツールの利用を禁止するように要請する書簡を皆で送ろう、という運動で提唱されている書簡の文面と背景説明をキャンペーンサイトから翻訳したものです。直接の対象は米国の捜査機関ですが、書簡の内容は日本においても関心をもって注視すべき基本的な観点を網羅しているといえます。(小倉利丸)


特に以下のAIツールは、私たちのプライバシー、市民権、市民的自由に対するリスクをもたらすものであり、その使用を中止すべきである。

  • 顔認識: 顔認識テクノロジーは信頼性が低く、不当であり、基本的人権と安全への脅威である。顔認識監視プログラムは、最大98%の確率で人物を誤って認識する。こうした誤認は、嫌がらせ、不当な投獄、強制送還など、現実に影響を及ぼす。また、抗議行動への参加など、人々の保護されるべき権利の行使を萎縮させる効果もある。有色人種、女性、子どもの身元を誤認することも多く、偏見や差別を永続させ、これらの弱い立場にある人々を組織的虐待のリスクにさらす。このテクノロジーは正義を実現するどころか、自動化された広範な監視を可能にしている。それは管理、抑圧、監視のためのツールであり、安全や正義ではない。
  • 自動ナンバープレート読み取り機(ALPR): ALPRは、法執行機関が車を運転するすべての人の動きを追跡・追跡するのに役立つが、個人を守り、犯罪を阻止し、地域社会の安全を守ることにはほとんど役立たない。それどころか、抑圧され弱い立場にあるコミュニティを標的にするための道具である。これらは自由に移動する権利を侵害し、しばしば多くの間違いを犯し、警察との恐ろしい遭遇や不当逮捕につながる。ALPRによって記録されるデータの大半は、犯罪に関与した人々ではなく、一般の人々である。ALPRテクノロジーは、保健所、移民診療所、抗議活動、宗教的礼拝の中心地など、微妙な場所を訪れるドライバーをターゲットに使用されることが多い。ALPRは、地域社会の安全を確保することよりも、個人のプライバシーを侵害し、地域社会全体の権利を侵害することに重点を置いた広範な監視を可能にしている。
  • 個人ベースの予測的取り締まり: 人ベースの予測的取り締まりアルゴリズムも同様に、私たちのプライバシーと権利を脅かす。警察当局は、使用するツールの透明性や評価をほとんど(まったく)行わないまま、予測的取り締まりテクノロジーを地域社会に配備することで知られている。米国における人種差別的な取り締まりの長い歴史は、過去のデータの入力に依存する予測テクノロジーに影響を与えている。これは、人種差別的な取り締まりが、有色人種のコミュニティへの過剰な取り締まりを継続して将来の取り締まりに影響を与えるという、際限のないサイクルを生み出す結果をもたらしている。予測アルゴリズムが実際には人間によるバイアスをプロセスから除去していると主張する人もいるが、バイアスのかかったデータに依存しているという事実は、それらがバイアスを複製しているにすぎないということを意味している。
  • 発砲検知: ShotSpotterのような発砲検知テクノロジーは、発砲を検知し、発砲があった場所に警察を向かわせる方法として売り込まれている。しかし、多くの場合、警察官の出動を増やし、諍いを増やすという資源の浪費に繋がっている。多くの独立した分析では、誤報の割合が高いことが示されており、最大90%の「発砲の可能性がある」警報が、検証可能な発砲事件と結びつかなかったという報道もある。これらの警報によって、警察はこれまでに13歳の少年を殺害し、複数の冤罪事件を引き起こしている。

これらの手段はすべて、黒人や褐色の人々、宗教団体、移民など、社会から疎外され、抑圧されたコミュニティを標的にしかつ危害を加えるために、法執行機関によって不釣り合いに使用されている。米国の法執行システムには人種的偏見の長い歴史があり、それは予測的取り締まりやAIツールの使用によって再現されている。このテクノロジーの使用が、有色人種や社会全体にとって不当に危害を加えるものであることに疑問の余地はない。

結論として、司法省は既存の慣行を自動化するテクノロジーを厳しく精査すべきである。AIによって意思決定や行動をスピードアップできることは、しばしば強調材料として捉えられるが、偏った慣行をスピードアップし、監視を拡大するものであるため、これらのテクノロジーは善よりも危害をもたらす。

https://www.fightforthefuture.org/actions/ai-policing-is-dangerous


背景

AIに関するバイデン政権の大統領令は、司法長官、国土安全保障長官、科学技術政策局長に対し、法執行においてAIを使用する方法、特にプライバシー保護、公民権、市民的自由と整合性のある方法でAIを使用する方法についての提言を含む報告書を作成するよう求めている。

現実には、顔認識、自動ナンバープレート読み取り機(ALPR)、発砲検知テクノロジー、予測的取り締まりなどのAIツールは、本質的に私たちのプライバシー、権利、自由を脅かしている。これらのテクノロジーを安全に使用する方法はない。

報告書は、警察の監視や予測的取り締まりにおけるツールを含む、多くのAIの使用事例を取り上げ、提言をする予定である。私たちは、法執行機関が使用するAIツールが、過去の犯罪データのバイアスを模倣し、差別的な取り締まりを拡大することに責任を負っている、ということを知っている。米国の警察と法執行システムは、黒人コミュニティに対してデータを武器化してきた長い歴史がある。AIテクノロジーを支えるアルゴリズムは、差別的な意思決定の問題を解決するどころか、人種差別や差別を悪化させるということを、数多くの研究が示している。このテクノロジーの使用を制度化することは、黒人、褐色人種、移民、その他の対象となるコミュニティの監視、不当逮捕、投獄を増加させるだけである。

いくら規制や透明性、監督機能を強化しても、こうしたツールを警察で広く使用することに内在する危険性を解決することはできない。

Fight for the Futureは、顔認識、ALPR、ShotSpotterなど、特定のツールの取り締まりへの使用に反対するキャンペーンを展開し、提唱してきた。これは、これらのテクノロジーの問題点を浮き彫りにし、警察によって使用されるいかなるAIも、私たちがすでに目にしてきた危害を考慮しなければならないことを訴え、これらの危害を許し続けるテクノロジーの使用を阻止する好機である。

Table of Contents