Howdy! How can we help you?
-
EFF_自己防衛マニュアル11
-
気候変動1
-
ブラウザ73
-
戦争41
-
ヘイトスピーチ14
-
偽情報、誤情報13
-
ジェンダー3
-
国家安全保障10
-
fediverse22
-
alternative_app19
-
デジタルセキュリティツール17
-
国内の監視社会化と反監視運動7
-
VPN10
-
GIFCT2
-
政府・国際機関の動向168
-
スパイウェア20
-
OS関係20
-
教育・学校9
-
監視カメラ16
-
労働現場の監視9
-
プライバシー167
-
デジタルID(マイナンバーなど)12
-
GPS1
-
AI83
-
オリンピックと監視社会7
-
文化12
-
労働運動18
-
リンク集12
-
金融監視3
-
COVID-19と監視社会18
-
検閲113
-
海外動向425
-
オンライン会議システム14
-
暗号化71
-
アクティビストとセキュリティ33
-
ビッグテック、大量監視277
-
SNSのセキュリティ20
-
共謀罪1
-
メールのセキュリティ48
-
Articles1
(EFF)警察における人工知能の活用:2021年を振り返って
以下はEFFのブログの翻訳です。

数十年前、人工知能の実用化を考えていたSF作家たちは、自律したデジタル頭脳が人類に貢献することを想像していた。確かに、HAL 9000やWOPRが期待を裏切って暴走することもあったが、それは意図的なものではなかった。
そして、生活のさまざまな場面で、人工知能はその期待に応えている。私たちが話題にしているように、AIは火星に生命が存在する証拠を探している。科学者たちはAIを使って、より正確で迅速な天気予報の方法を開発しようとしている。
しかし、警察に関して言えば、実際のところはずっと楽観的ではない。 私たちのHAL9000は、自らの判断を世界に主張することはない。むしろ、AIを警察活動に利用すると主張するプログラムは、警察署がすでに行っている意見や行動を再確認し、正当化し、正当化するだけなのだ。
AIには、「技術洗浄 tech-washing」と「古典的なフィードバックループ」という2つの問題がある。技術洗浄とは、その結果を支持する者が、その結果が「数学」から導き出されたものであることを理由に、偏りのないものとして擁護するプロセスのことをいう。そして、フィードバックループとは、その数学が、歴史的に根付いた有害な結果を永続させ続ける方法をいう。ある科学哲学者が指摘するように、「機械学習に基づくアルゴリズムを使用する問題点は、これらの自動化されたシステムに偏った正義の例が与えられれば、結局は同じ偏りを永続させることになる」ということだ。
警察における人工知能は、警察が収集したデータに基づいていることが多いため、警察がすでに取り締まっている地域のデータに基づいてしか犯罪を予測することができない。しかし、犯罪データは不正確なことで有名で、取り締まり用のAIは、他の地域で起こる犯罪を見逃すだけでなく、すでに過剰に取り締まっている地域こそが、まさに警察がパトロールや監視すべき地域だという考えを強化してしまう。
不当な刑事司法制度によって作られた不当なデータを、AI技術がどのように正当化するのかが明らかになってきた。
2021年、私たちは「データ駆動型の警察活動」の本当の意味をよりよく知ることができた。GizmodoとThe Markupが行った調査では、地図にPredPol(現在はGeoliticaと呼ばれています)を搭載したソフトウェアが、労働者階級の人々や有色人種、特に黒人が住む地域で犯罪が起きることを不均衡に予測していることがわかった。これらのアルゴリズムが、刑事司法制度における人種的格差をいかに永続させるかについて、彼らが行った技術的・統計的分析については、こちらを参照してほしい。
Gizmodoによると、「逮捕データを提供してくれた11の警察署について、PredPolがその日に犯罪を予測してもしなくても、予測された地域での逮捕率は変わらないことがわかった。つまり、検挙数と予測数の間に強い相関関係は見られなかった。」これこそが、いわゆる予測型の警察活動や、データ駆動型の警察活動の仕組みが使われるべきではない理由だ。警察は、主に有色人種が住んでいる地域をパトロールしているが、それはつまり、これらの場所で、警察は逮捕し、警告を書くということだ。アルゴリズムは、これらの逮捕歴を考慮して、これらの地域が将来的に犯罪を目撃することになる可能性が高いと判断し、黒人居住区での警察の厳重な監視を正当化する。このようなサイクルが繰り返される。
このようなことは、人工知能に依存した他の技術でも起こり得る。例えば、音響式銃声検知機能は、銃声の存在を示す偽陽性の警告を警察に送ることができる。
今年は、ユタ州から数百万ドルの資金と膨大な政府データを受け取ったいわゆる人工知能企業の少なくとも1社は、問題のある地域に法執行機関や公共サービスを管理するという約束を実際には果たせなかったことも判明した。
サンタクルーズ市やニューオリンズ市をはじめとする多くの都市が、政府による予測警察プログラムの使用を禁止しているのは、まさにこのためだ。当時、サンタクルーズ市の市長はこう言っていた。
「もし警察に人種的偏見があるとすれば、それはつまり、これらのアルゴリズムに入力されるデータはすでに本質的に偏っており、偏った結果になるということです。ですから、有色人種のコミュニティに悪影響を与える可能性が明らかなテクノロジーを使おうとすることは、無意味なことだ。」
来年も、警察による人工知能や機械学習の無責任な利用に対する戦いは続く。EFFは、いわゆる予測型またはデータ駆動型の取り締まりに対する地方自治体や州政府の闘いを支援していく。
この記事は、「Year in Review」シリーズの一部です。2021年のデジタル権利のための戦いに関する他の記事を読む。
出典: https://www.eff.org/deeplinks/2021/12/police-use-artificial-intelligence-2021-review