Categories
Table of Contents
< Back
You are here:
Print

(EFF) 網にかかる。「過激主義」言論の規制が人権コンテンツに与える影響


Caught in the Net Report

by jillian c. york2019年5月30日号
Caught in the Netレポート
電子フロンティア財団、Syrian Archive、Witnessによる共同出版物

アブドゥル・ラフマン・アル・ジャラウド、ハディ・アル・ハティブ著
ジェフ・ドイッチ、ディア・カヤリ、ジリアン C.ヨーク

目次
はじめに
コンテンツ・モデレーションと “過激主義的コンテンツ”
鈍感な措置が疎外されたユーザに影響を与える
例1: チェチェンの独立
例2: クルド人活動家
例3:風刺コメンテーター
証拠と記憶としてのソーシャルメディア
シリア、イエメン、ウクライナの紛争文書に対するYouTubeの検閲
ソーシャルメディアにおける紛争の証拠と判例
おわりに
著者について

PDFをダウンロード(英語)

はじめに

ソーシャルメディア企業は、自社のプラットフォーム上に存在する過激主義的なコンテンツをどう扱うかについて、長い間悩んできた。ほとんどの企業は、コミュニティ基準に「過激主義的」コンテンツに関する規定を設けているものの、つい最近まで、そのようなコンテンツの定義は曖昧で、政策立案者やコンテンツモデレーターが何を削除し、何を許可するかを決定する上で大きな裁量権を与えていた。しかし、残念なことに、企業は広範で曖昧なポリシーと慣行で対応したため、人権コンテンツを破壊するような大規模なミスを犯してしまった。

オンラインプラットフォーム上のコンテンツを削除すれば、現代社会に深く根ざした過激主義の問題を解決できると考えるのは誤りだ。本書で取り上げた例は、欠陥のある自動モデレーションテクノロジーでインターネットに広く網をかけると、過激主義的とみなされるコンテンツを捕らえるだけでなく、人権に関するドキュメントのような有用なコンテンツも不用意に捕らえ、民主主義領域を萎縮させることを示している。この問題に対して、自動的なコンテンツモデレーションの提案者は誰も満足のいく解決策を提示していない。

近年、「イスラム国」の台頭を受け、企業はこうした言論に対してより厳格な対応を迫られている。米国では、立法提案[1]、テロ事件の被害者からの民事訴訟[2]、連邦政府行政府からの圧力という形で、そのような圧力がかかっている[3]。 欧州委員会は、2017年に開始した、報告された過激主義的なコンテンツを24時間以内に確認するよう企業に求める行動規範[4]から、過激主義的なコンテンツに1時間以内に対処できない場合、企業に金銭的なペナルティを設けるという、より強力な規制へと取り組みを強化した5。

これらの規制の有無にかかわらず、大多数の企業はすでに過激主義的なコンテンツに対して制限を設けている。[5]このような規制の有無にかかわらず、大多数の企業は、過激派コンテンツに関してすでに制限を設けている。また、テロリストの構成要素について世界的に合意された定義はないため(特定の団体がその定義に合致するかどうかについては、必然的に各国の意見が異なる)、Facebook、Twitter、YouTubeなどの米国に拠点を置く企業は、米国の規制に基づいてその方針を決定することにしている。その結果、最も注目される過激主義的なグループは、通常、米国務省の外国テロ組織リストに掲載されているグループである。[6] 例えば、Facebookはモデレーターに対して、このリストに掲載されているグループの指導者の写真を含むリストを提供している。[7]

しかし、企業はこのリストを指針として利用しているものの、米国法の下では、これらのグループから発信されるコンテンツを削除する法的義務を負っていない。公になっている限り、米国政府は、指定された外国テロ組織が無料で自由に利用できるオンラインプラットフォームを使用することを許可することが、米国の継ぎはぎだらけの反テロ法の下で禁止されている、当該組織への「物質的支援の提供」に相当するという立場をとっていない。これらの法律はテロ組織に「サービス」を提供することを禁止しているが、米国最高裁はこれを「他人の利益のために、または他人の命令によって行われる」協調的行為に限定している。[8]また、米国裁判所は、テロ組織が通信にオンラインプラットフォームを使用した場合に、オンラインプラットフォームに民事責任を課す試みを一貫して拒否している。[9]

コンテンツ・モデレーションと “過激主義的コンテンツ”

商業的なコンテンツ・モデレーションは、プラットフォームが、独自の利用規約、「コミュニティ基準」、またはその他の規則に基づいて、サイトに掲載できるコンテンツとできないコンテンツについて決定を下すプロセスだ。このプロセスは、通常、コミュニティ警察システムに依存しており、特定のサービスのユーザーが、規則に違反していると思われるコンテンツを報告したり、「フラグ」を立てることによって行われる。その後、コンテンツはモデレーション・キューに入り、人間のモデレーターがルールに違反しているかどうかを判断する。ほとんどのプラットフォームで違反が繰り返されると、「処罰」が下され、ユーザーは徐々に長い時間、一時的に禁止されることになる。

これは、各プラットフォームが独自に開発したツールを用いて、違反の可能性があるコンテンツを自動的に検出し、人間のモデレーターがその内容を確認するプロセスだ。このプロセスは、多くの場合、コンテンツがユーザーの目に触れる前に実施される。

近年、企業は機械学習アルゴリズムの利用を飛躍的に増やしている。コンピュータの世界では、アルゴリズムは何かを行うための命令の集合体であると考えられている。機械学習アルゴリズムは、最初のデータセットといくつかのルールを与えられ、より多くのデータと接触することで学習し変化していくアルゴリズムである。この目的のために機械学習アルゴリズムを学習させるには、企業は1つのカテゴリーにかなりの量のコンテンツを含むデータセットを作成し、それをアルゴリズムに与えて学習させる必要がある。例えば、YouTubeのような企業が過激主義的なコンテンツを正確に識別するためには、ISISの動画を大量に収集するなど、自社で過激主義的と定義したデータセットを作成し、そのデータをアルゴリズムに与えることになる。

アルゴリズムが間違いを犯すと、以下に挙げる事例のように、その理由を理解するのが難しくなることがある。機械学習アルゴリズムは、特に「解釈できる」ように設計されていない限り、人間が理解することはできない。機械学習アルゴリズムは、人間が入力しなくても自ら学習し成長するため、その「思考プロセス」を見ることができないからだ。残念ながら、プラットフォームは、独自に開発され、外部からのレビューから遮断された機械学習アルゴリズムを使用している。実際、市民社会や政府は、学習データやアルゴリズムを動かしている基本的な前提条件へのアクセスを拒否され、こうしたテクノロジーに対する第三者による監査のようなものはこれまで一度も行われたことがない。

この問題は、過激主義的なコンテンツを追跡・除去するためのハッシュ・データベースの導入でより深刻になっている。ハッシュとは、コンテンツのデジタル「指紋」のことで、企業が自社のプラットフォームからコンテンツを特定し、削除するために使用する。ハッシュは基本的に一意であり、特定のコンテンツを容易に識別することができる。ある画像が「テロリストのコンテンツ」であると認識されると、その画像にハッシュタグが付けられ、データベースに登録され、今後同じ画像がアップロードされた場合、容易に特定できるようになる。

このようなデータベースは、これまでにも児童搾取画像の追跡やソーシャルメディアからの削除に成功した例があるが、これらのデータベースはNational Center for Missing and Exploited Children (NCMEC) とInternational Center for Missing and Exploited Children (ICMEC) によって運営されており、法執行機関からの監視を受け、企業や個々の法執行官がデータベースの画像に直接アクセスできるわけではない。

Facebook、Microsoft、Twitter、YouTubeが結成した業界団体Global Internet Forum to Counter Terrorism(GIFCT)は、同様のテクノロジーを用いて、2016年に「テロリスト」の画像を集めたデータベースを導入した。このデータベースはGIFCTのメンバー企業で共有されており、その中には自社でデータベースを構築するリソースがない中小企業も含まれている。しかし、その結果、一つのデータベースがインターネット上で広く利用されることになり、そのためにエラーが多発した。

GIFCTのデータベースは、過激主義的コンテンツ・アルゴリズムのトレーニング・コンテンツと同様、人権に焦点を当てた市民社会のメンバーとは共有されておらず、GIFCTのウェブサイトでは、その機能に関する最低限の情報しか提供されていない。また、NCMECやICMECが運営するデータベースとは異なり、GIFCTデータベースは外部の監督機能なしに運営されている。その代わりに、何が過激主義であるかの判断は企業側に委ねられている。

この問題の規模を理解するためには、数字を見ることが重要だ。Googleの透明性レポートによると、2018年にYouTubeが削除した動画は3300万本で、1日あたりおよそ9万本に相当する。[10]利用規約違反の可能性があるとしてフラグが立てられたもののうち、73%は動画が視聴可能になる前に自動処理で削除されたものだ。Facebookは2017年10月から2018年10月の間に、「テロリストのプロパガンダ」とみなされたコンテンツをおよそ1,500万件削除した。同社は、2018年第3四半期に、Facebookは「99.5%のコンテンツはユーザーが報告する前に削除され、残りの0.5%は最初にユーザーから報告された」[11]と書いている。 また、2015年から2017年最終四半期にかけて120万のテロ関連アカウントを削除したことでよく知られているTwitterは[12]、2018年後半にテロコンテンツについてさらに16万6153個のアカウントを削除している。[13]

鈍感な措置は、疎外されたユーザーに影響を与える

ソーシャルメディアプラットフォームは、いくつかの異なるカテゴリの言論にまたがるコンテンツを誤って削除しており、大手ソーシャルメディア企業はそのエラー率を公表していない。そのため、ユーザーがいつ、どこで、どれくらいの頻度で不正確で間違った削除に遭っているかを把握するのは難しい場合がある。しかし、以下の例から明らかなように、過激主義に関するアクティビズム、カウンタースピーチ、風刺を一貫性をもって過激主義そのものと区別することは、人間の校閲者にとっては難しく、機械には不可能なことである。大規模なコンテンツ・モデレーション・システムは必然的に間違いを犯し、その代償を払うのは疎外されたユーザーたちである。

例1:チェチェンの独立

2017年、チェチェン共和国イスケリア共和国の独立を主張するFacebookグループ「チェチェンに独立を!」は、トレーニングマニュアルでイスケリア共和国が「規則に違反していない」と明記されていたにもかかわらず、「テロ活動または組織的犯罪活動に従事する組織」を禁じる同社のコミュニティ基準に違反するとして誤って削除された。Facebookの広報担当者は、削除は誤りで、同社は「ときどき間違えることがある」と述べている。[14]

例2:クルド人活動家

クルディスタン労働者党(PKK)だけが政府によってテロ組織とみなされているにもかかわらず、クルディスタンの独立を主張するグループはしばしば行き過ぎたコンテンツ規制の対象となる。このため、Facebookではこのグループに対する批判や非難は許されているが、賞賛は許されていない。[15]

ヒューマン・ライツ・ウォッチによると、クルド人はトルコ政府による人権侵害のターゲットになることが多い。[16]トルコ政府は世界最悪のジャーナリスト投獄国であり[17]、検閲要求のリーダー的存在で、国の創設者アタチュルクへの批判など、国内で違法なものを削除するように企業に要求している。

クルド人活動家は、Facebookがプラットフォームの基準に違反しない投稿を繰り返し削除していると主張している。[18]自分のページを閉鎖されたクルド人政治家は、トルコ政府とFacebookの「汚い連合」と呼び、トルコの与党AKPが(米国政府の外国テロ組織リストにも掲載されている)ハマスの指導者の画像を平然と共有していることを指摘している。[19]このようなクルド人活動家のような正当な反対意見を企業が誤って、あるいは政府の圧力の結果として削除した場合、その企業は事実上、政治的論争の片棒を担ぐことになる。

例3:風刺的なコメント

2017年、Facebookは、首長国の著名なジャーナリストが投稿した、ヒズボラ指導者のハッサン・ナスララに虹色のプライドフラッグを重ねた画像を削除した。[20]この投稿は、ヒズボラがLGBTQの権利を支持していないにもかかわらず一部の政治左派の間で人気があるというコメントだったが、周知のテロリスト指導者の顔を含むほとんどの画像を削除するよう指示されているコンテンツモデレーターにとってはきわめて理解しがたいコンテンツだった。[21]

証拠と記憶としてのソーシャルメディア

人権侵害のソーシャルメディアによる記録は、正義と説明責任の遂行に不可欠であり、場合によっては集合的記憶として機能する。オンラインに投稿されたビデオやテキストは、一部のディアスポラコミュニティにとって生きた歴史であり、時にはこの文書が犯罪が行われたことを示す唯一の証拠となるかもしれない。しかし、過激主義をめぐるソーシャルメディアのコンテンツ修正ポリシーによって、重要な文書が削除されるケースがあまりに多い。コンテンツを投稿した人物が生存していない場合、逮捕された場合、電子メールにアクセスできない場合など、紛争地域でよくある問題で、不当に削除されたコンテンツを復元することはほぼ不可能である。

シリア、イエメン、ウクライナでの紛争文書に対するYouTubeの検閲

シリアでは、人権擁護者は主にソーシャルメディアのプラットフォームを利用して紛争文書を公開・公表しており、このメディアを効果的かつ頻繁に利用することができる。シリアの蜂起が始まった頃のグループへのインタビューで、活動家はこう語っている。

「私たちは、自分たちで何か組織的なことを始めるべきだとわかったとき、ある地点に到達したのです。すべてのメディアチャンネルが、この種のビデオの公開を拒否していたからです……実際にはメディア報道はなく、このチャンネルとソーシャルメディア、YouTubeとFacebookだけでした……若者はチャンネルと協力し、彼らが実際にYouTubeでチャンネルを作りました。 これは、YouTubeに基づく最初のローカルグループでした。彼らは組織化され、あらゆる場所に通信員を配置していました。シリアで最初に組織化された現象は、メディア・グループだったのです」[22]

シリア紛争に関するソーシャルメディアコンテンツは、紛争そのものが起きた時間よりも長い時間を占めている。現在も毎日50本以上の動画がアップロードされており、シリアは歴史上初めて、紛争を世界中の誰もが実質的にリアルタイムで目撃することができる国になっている。[23]

YouTubeは、機械学習を利用した自動フラグ立てにより、人権侵害を記録した動画を公開していた数千のシリアのYouTubeチャンネルを閉鎖した。これには、シリア人権監視団、暴力ドキュメントセンター、シャム・ニュース・エージェンシー、アレッポ・メディア・センターのチャンネルが含まれる。停止されたソーシャルメディアのアカウントは、シリアでの抗議活動の記録から、暴力的な攻撃を報告する非伝統的なメディアまで幅広く、暴力を扇動したり、危険な活動を奨励したりするものではなかった。[24]

2011年から2019年5月の間に、少なくとも206,077本の権利侵害を記録した動画がYouTubeで利用できなくなった。[25] これには、病院や医療施設を標的とした空爆を記録した381本の動画が含まれる。そのうちの1本は、「Tafas:Heavy artillery shelling of the national hospital 11/8/2012」」と題されたものだ。シリア政府軍が病院内の医療スタッフや患者を砲撃している様子が映っている。[26]

同様の例はイエメンにも見られ、2015年以降、主にサウジ主導の連合軍とフーシ派の戦争により、推定7万人が直接殺害され[27]、300万人以上が避難し[28]、推定8万5000人の子供が餓死している。[29]The first moment of bombing the big hall in Sana’a 08/10/2016″ [30]と題された動画と “Saudi massacre targeting displaced camps in Mazraq”[ 31]と題された動画はいずれもコンテンツモデレーションのポリシーにより閲覧できない状態になっている。

2014年のロシアによるクリミア併合以来、戦争に明け暮れるウクライナでは、親ロシア勢力や反政府勢力の武装を記録したYouTubeの動画も削除されている。一例として、「ロシアがドンバスに提供した軍装備」と題されたものがある[32]。

ソーシャルメディアの紛争証拠および判例

コンテンツのモデレーションは、法的説明責任のための人権活動を阻害する。ソーシャルメディアは、特に外国人ジャーナリスト、NGO、国際監視機関が権利侵害を記録するためにその国でアクセスすることが困難な場所において、紛争地域からかけがえのない証拠を提供することができる。[33]裁判所と従来の記録作成グループは、この潜在力を活用する上でしばしば遅れをとっているが、ソーシャルメディアのコンテンツが大きく取り上げられる判例法が新たに登場してきている。

例えば、2016年には、捕虜となった7人のシリア兵の殺害に参加した元シリア反政府勢力に対して、スウェーデンの裁判が終了している。裁判所は、FacebookとTwitterで公開されたコンテンツに依拠して、兵士たちが捕まった時間と場所を特定し、さらに捕縛から処刑までわずか41時間しか経過していない事実を明らかにした。コンテンツのメタデータを確認するために、Facebook は検察から連絡を受けた。[34]

2017年、そして2018年にも、国際刑事裁判所(ICC)はリビア人のマフムード・ムスタファ・ブサイフ・アル=ウェルファリに逮捕状を発行した。アル=ワルファリは、33人の殺害に直接関与した、またはそれらの人々の処刑を命じたとして告発さ れた。逮捕状には、そのうちの7件の事件の証拠が、主にアル=ウェルファリのソーシャルメディア・プロフィールに投稿されたビデオ素材とそのトランスクリプトに基づいている、と記されている。[35]

結論

クライストチャーチのような悲劇が起きると、対応に追われ、意図しない結果を招くことがある。実際、クライストチャーチの呼びかけに署名した企業の多くは、ここ数カ月、政策立案者の目の前で、自動削除のための立法提案に反撃している。これらの企業は、ニュースにおける自動的なコンテンツモデレーションについて大きな約束をしているが、その一方で、このテクノロジーが確実なものではないことも認めている。残念なことに、上記の数多くの例が示すように、コン テンツ・モデレーションはすべての集団に均等に影響 するわけではなく、すでに疎外されているコミュニティの 権利をさらに剥奪する可能性を持っている。

しかし、政府も企業も、表現の自由、集会の権利、情報へのアクセス権を侵害するような解決策を性急に求めてはならない。


著者について
電子フロンティア財団
電子フロンティア財団は、デジタル・プライバシー、言論の自由、イノベーションを擁護する主要な非営利団体。1990年に設立されたEFFは、インパクト訴訟、ポリシー分析、草の根活動、テクノロジー開発を通じて、ユーザーのプライバシー、表現の自由、そしてイノベーションを擁護している。テクノロジーの利用が拡大する中で、権利と自由が強化され保護されるよう取り組んでいる。

シリア・アーカイブ
Syrian Archiveは、シリア紛争に関わるあらゆる側面の人権侵害に関連するリスクの高い文書の保存、追悼、価値の付加を目的とする組織。Syrian Archiveは、これらのコンテンツを使用して、正義と説明責任の取り組みを支援し、ソーシャルメディアプラットフォームと連携して、コンテンツ修正ポリシーにより不注意に削除された人権コンテンツを回復または復活させる文書化団体を支援している。

WITNESS
WITNESSは、人権擁護者と偶然に目撃した人々が、人権のための闘いにおいて倫理的、安全、かつ効果的にビデオを使用できるように、教育とアドボカシーを行う国際的な非営利組織。WITNESSは、ビデオアドボカシー、証拠としてのビデオ、アーカイブなどに関するトレーニングや資料を提供している。WITNESSのTech + Advocacyプログラムは、政策提言やプラットフォームのアカウンタビリティ活動を通じて、ハイテク企業のツールやポリシーが人権擁護者に危害を加えるのではなく、むしろ支援する必要性に焦点を合わせている。

注釈
1 Kelsey Harclerode, “Mandatory Reporting of User Content Chills Speech and Violates Privacy Rights,” Electronic Frontier Foundation, 5 August 2015, https://www.eff.org/deeplinks/2015/08/mandatory-reporting-user-content-chills-speech-and-violates-privacy-rights.(英語)。

2 Aaron Mackey, “EFF to Court: Holding Twitter Responsible for Providing Material Support to Terrorists Would Violate Users’ First Amendment Rights,” Electronic Frontier Foundation, 8 June 2017,  https://www.eff.org/deeplinks/2017/06/eff-court-holding-twitter-responsible-providing-material-support-terrorists-would。

3 CBS News, “The Delicate Balance Fighting ISIS Online,” 20 February 2015, https://www.cbsnews.com/news/world-governments-try-to-shut-down-isis-social-media-propaganda-operations/.

4 Amar Toor, “Facebook, Twitter, Google, and Microsoft agree to EU hate speech rules,” the Verge, 31 May 2016, https://www.theverge.com/2016/5/31/11817540/facebook-twitter-google-microsoft-hate-speech-europe.

5 Colin Lecher, “Aggressive new terrorist content regulation passes EU vote,” the Verge, 17 April 2019, https://www.theverge.com/2019/4/17/18412278/eu-terrorist-content-law-parliament-takedown.

6 米国務省、外国人テロ組織リスト、https://www.state.gov/foreign-terrorist-organizations/ (2019年5月29日アクセス)。

7 The Guardian, “How Facebook Guides Moderators on Terrorist Content,” 2017年5月24日, https://www.theguardian.com/news/gallery/2017/may/24/how-facebook-guides-moderators-on-terrorist-content.

8 Holder v. Humanitarian Law Project,  561 U.S.1 (2010)。

9 例えば、Fields v. Twitter, 881 F.3d 739 (9th Cir. 2018)を参照。

10 Google Transparency Report, “YouTube Community Guidelines enforcement,” https://transparencyreport.google.com/youtube-policy/removals (accessed 12 May 2019).

11 Facebook, “Community Standards Enforcement Report”, https://transparency.facebook.com/community-standards-enforcement#terrorist-propaganda (accessed 12 May 2019)。

12 Don Reisinger, “Twitter Has Suspended 1.2 Million Terrorist Accounts Since 2015,” Fortune, 5 April 2018, http://fortune.com/2018/04/05/twitter-terrorist-account-suspensions/.

13 Foo Yun Chee, “Twitter suspended 166,153 accounts for terrorism content in second half 2018,” Reuters. 2019 年 5 月 9 日、https://www.reuters.com/article/us-twitter-security/twitter-suspended-166153-accounts-for-terrorism-content-in-second-half-2018-idUSKCN1SF1LN。

14 Julia Carrie Wong, “Facebook blocks Chechnya activist page in latest case of wrongful censorship,” the Guardian, 6 June 2017, https://www.theguardian.com/technology/2017/jun/06/facebook-chechnya-political-activist-page-deleted.

15 The Guardian, “How Facebook Guides Moderators on Terrorist Content.” https://www.theguardian.com/news/gallery/2017/may/24/how-facebook-guides-moderators-on-terrorist-content。

16 Human Rights Watch, “Turkey, Events of 2017,” https://www.hrw.org/world-report/2018/country-chapters/turkey (accessed 29 May 2019).

17 Elana Beiser, “Hundreds of journalists jailed globally becomes the new normal,” Committee to Protect Journalists, 13 December 2018, https://cpj.org/reports/2018/12/journalists-jailed-imprisoned-turkey-china-egypt-saudi-arabia.php.

18 Sara Spary, “Facebook Is Embroiled In A Row With Activists Over “Censorship,” Buzzfeed, 8 April 2016, https://www.buzzfeed.com/saraspary/facebook-in-dispute-with-pro-kurdish-activists-over-deleted. “Facebook Is Embroiled In A Row With Activists Over “Censorship,” Buzzfeed, 8 April 2016, https://www.buzzfeed.com/saraspary/facebook-in-dispute-with-pro-kurdish-activists-over-deleted。

19 Hurriyet Daily News, “Kurdish politicians to take action after Facebook admits to banning pages with PKK content,” 29 April 2013, http://www.hurriyetdailynews.com/kurdish-politicians-to-take-action-after-facebook-admits-to-banning-pages-with-pkk-content-53465.

20 Sophia Cope, Jillian C. York, and Jeremy Gillula, “Industry Efforts to Censor Pro-Terrorism Online Content Pose Risks to Free Speech,” Electronic Frontier Foundation, 12 July 2017, https://www.eff.org/deeplinks/2017/07/industry-efforts-censor-pro-terrorism-online-content-pose-risks-free-speech.(英語)。

21 The Guardian, “How Facebook Guides Moderators on Terrorist Content” https://www.theguardian.com/news/gallery/2017/may/24/how-facebook-guides-moderators-on-terrorist-content.

22 Revolutionary Echoes from Syria, (Hourriya, 2016), 18-21. 音声は https://archive.org/details/RevolutionaryEchoesFromSyria で入手可能。

23 Armin Rosen, “Erasing History: YouTube’s Deletion Of Syria War Videos Concerns Human Rights Groups,” Fast Company, 7 March 2018, https://www.fastcompany.com/40540411/erasing-history-youtubes-deletion-of-syria-war-videos-concerns-human-rights-groups.

24 Syrian Archive、https://syrianarchive.org/en/tech-advocacy (accessed 29 May 2019)。

25 同上。

26 “Tafas: Heavy artillery shelling of the national hospital 11/8/2012,” YouTube video no longer available, https://www.youtube.com/watch?v=ipaaQGqtfTk.

27 Al Jazeera, “More than 70,000 killed in Yemen’s civil war: ACLED,” 19 April 2019,https://www.aljazeera.com/news/2019/04/yemen-war-death-toll-reaches-70000-report-190419120508897.html.

28 United Nations Agency for Refugees and Migrants, “More than 3 million displaced in Yemen – joint UN agency report,” 22 August 2016, https://refugeesmigrants.un.org/more-3-million-displaced-yemen-%E2%80%93-joint-un-agency-report。

29 Sam Magdy, “Save the Children says 85,000 kids may have died of hunger in Yemen,” USA Today, 21 November 2018, https://eu.usatoday.com/story/news/world/2018/11/21/yemen-children-hunger/2076683002/.

30 “The first moment of bombing the big hall in Sana’a 08/10/2016”, YouTube video no longer available, https://www.youtube.com/watch?v=dNax-YKBLNE.

31 “Saudi massacre targeting displaced camps in Mazraq,” YouTube video no longer available, https://www.youtube.com/watch?v=_Z5peAj4kTo.

32 “Military equipment supplied by Russia to the Donbass,” YouTube video no longer available,  https://www.youtube.com/watch?v=CJm5bjM3Z5c.

33 Elliot Higgins, “Weapons From the Former Yugoslavia Spread Through Syria’s War,” The New York Times, 25 February 2013, http://atwar.blogs.nytimes.com/2013/02/25/weapons-from-the-former-yugoslavia-spread-through-syrias-war/.

34 Christina Anderson, “Syrian Rebel Gets Life Sentence for Mass Killing Caught on Video,” The New York Times, 16 February 2017, https://www.nytimes.com/2017/02/16/world/europe/syrian-rebel-haisam-omar-sakhanh-sentenced.html.

35 The Prosecutor v. Mahmoud Mustafa Busayf Al-Werfalli, Case No.ICC-01/11-01/17-2, Warrant of Arrest (15 August 2017),https://www.icc-cpi.int/Pages/record.aspx?docNo=ICC-01/11-01/17-2。

36 Ariana Tobin, Madeleine Varner, and Julia Angwin. “Facebook Uneven Enforcement of Hate Speech Rules Allows Vile Posts to Stay Up,” ProPublica, 28 December 2017, https://www.propublica.org/article/facebook-enforcement-hate-speech-rules-mistakes.

ダウンロード
Caught in the Net: The Impact of “Extremist” Speech Regulations on Human Rights Content

出典:https://www.eff.org/wp/caught-net-impact-extremist-speech-regulations-human-rights-content

Print Friendly, PDF & Email
Previous (EFF) 電子フロンティア財団の歴史
Next (Schneier on Security)サイバーセキュリティの国際条約への企業の関与