(Accessnow)自動化と違法コンテンツ:私たちは、私たちのために決断を下す機械に頼ることができるのか?

Categories
< Back
You are here:
Print

(Accessnow)自動化と違法コンテンツ:私たちは、私たちのために決断を下す機械に頼ることができるのか?

自動化と違法コンテンツ:私たちは、私たちのために決断を下す機械に頼ることができるのか?
公開日:2020年2月17日最終更新日:2023年1月13日 2023年1月13日

自動化は、ユーザーによって共有される膨大な量のコンテンツを処理するために必要だが、あなたの権利や社会の幸福に大きく影響するようなミスを犯すこともある。

私たちの多くは、くだらない問題や深刻な問題について自分の考えや意見を話し合い、嬉しいことや悲しいことを共有し、インターネット上で一緒に遊ぶことが好きだ。そして、それは素晴らしいことだ。私たちは皆、自由に新しいことを学び、友人と連絡を取り、新しい人々に手を差し伸べたいと願っている。毎分、私たちは写真やビデオ、アイデアを継続的に共有している。Snapchatでは527,760枚の写真を共有し、YouTubeでは4,146,600本の動画を視聴し、456,000件のツイートを共有し、Instagramでは約46,740枚の写真が、1分おきに投稿されている。私たちの1日の時間が何分あるか知っている?1440.

これらの情報の断片は、それぞれ性質が異なる。中にはホームビデオもあり、法律とは関係ない。しかし、児童虐待の素材や暴力の扇動など、明らかに法に触れるコンテンツもある。そして、合法と非合法の間に、有害と感じる人もいれば、問題ないと思う人もいる第三のグループがある。 違法ではないが、12歳の子供がポルノに触れることを避けたいと思う親もいる。何が有害か、誰にとって有害かを定義し、分類するのは簡単ではない。文化、年齢、状況、その他多くの要因に左右される。

大量のインターネットコンテンツがオンラインプラットフォームによってホストされているため、違法または潜在的に有害なコンテンツのさまざまなカテゴリーを発見し、対処するための自動化ツールに頼らざるを得ない。特に、FacebookやGoogleのような支配的なプレーヤーは、コンテンツの識別と除去のために監視とフィルタリング技術を使用してきた。児童虐待の資料を削除することに同意するか?確かにそうだ。ISISの勧誘ビデオが拡散するのを防ぐことに同意するか?もちろんだ。

EUは、いくつかの加盟国とともに、オンライン上のヘイトスピーチやテロリズムなど、違法または潜在的に有害なコンテンツを迅速に削除するよう、オンラインプラットフォームに継続的に求めており、迅速に対応しない場合は罰金を課すという脅しをかけていることもある。このような要求に応えるため、テック企業は、ネット上に公開すべきでない情報をフィルタリングする自動化ツールに頼らざるを得ない。

自動化は、ユーザーによって共有される膨大な量のコンテンツを処理するために必要であるが、あなたの権利や社会の幸福に大きく影響するようなミスを犯す可能性がある。

1. 自動化された手段の文脈の見えなさが、正当な言論を沈黙させる

自動化された意思決定ツールは、言語や文化の違いを理解することができない。コンテンツ認識技術は、表現の文脈を正確に評価することができない。わかりやすいケースでも、誤ったマッチングをしてしまう。2017年、ポップスターのアリアナ・グランデは、自身のYouTubeチャンネルで慈善コンサート「One Love Manchester」をストリーミング配信した。このストリームは、YouTubeのアップロードフィルターによって、グランデのショーが彼女自身の著作権を侵害していると誤ってフラグを立てられ、速やかに停止された。さらに深刻なことに、同じ自動化ツールは、シリアで民間人に行われた残虐行為の証拠となりうる何千ものYouTube動画を削除し、戦争犯罪者を裁くことができる将来の戦争犯罪調査を危険にさらす可能性がある。文脈無視、言い換えれば、ユーザーの本当の意味や意図を理解することができないため、完全に合法的なコンテンツにフラグを立て、削除してしまうのだ。したがって、ジャーナリスト、活動家、コメディアン、アーティスト、そして自分の意見やビデオや写真をオンラインで共有するすべての人が、インターネット企業がこれらの機能しないツールに依存しているため、検閲される危険がある。

2. 銀の弾丸ではない

これらのテクノロジーは「人工知能」と表現されることがある。この言葉は、超人的な計算知能を連想させる。しかし、そのようなものは存在しないし、そのようなものが登場する可能性もない。むしろ、この言葉が指すのは、パターンを認識するように訓練された高度な統計モデルであり、実際の「理解」や「知能」はない。コンテンツ認識技術は、ソーシャルメディア上の投稿を共有する人の意味や意図、あるいはそれが他者に与える影響を理解することはできない。それらは、「ヘイトスピーチ」や「テロリストのコンテンツ」として識別するように訓練されたものに対応する、視覚、言語、音声ファイルなどの特定のパターンがないか、コンテンツをスキャンするだけである。完璧で曖昧さのないトレーニングデータは存在しないため、これらのパターンを認識する能力は、本質的に、彼らが認識するためにトレーニングされたものに限定されるのである。曖昧さのない一貫したパターンを認識する精度は非常に高いが、ヘイトスピーチにあたるかどうかを判断するという非常に繊細な作業を自動化する能力は、常に根本的に制限されることになる。

当然のことながら、政府は、テロやヘイトスピーチ、子どもの虐待、著作権侵害から私たちの安全を守るために何かをしていると市民にアピールしたいのだろう。そして、企業は、単純な答えを必死に探している政治家に対して、銀の弾丸のような解決策として、自社のオートメーション技術を売り込むことに大いに喜びを感じている。しかし、どんなオートメーションでも、社会に深く根ざした問題を解決することはできないことを肝に銘じなければならない。プラットフォームへの負担を軽減するためのツールとして使うことはできるが、訓練不足の自動化ツールのために人権の自由が犠牲にならないようにするためのセーフガードが必要だ。

では、私たちがオンラインで何を見るかは、誰が決めるべきなのか?このシリーズの次の回を読んで、それを確かめよう。

著者紹介 アクセス・ナウのエリシュカ・ピルコヴァー、リバティーズのエバ・サイモン

Table of Contents