Howdy! How can we help you?
-
気候変動1
-
ブラウザ72
-
戦争36
-
ヘイトスピーチ11
-
偽情報、誤情報9
-
ジェンダー3
-
国家安全保障10
-
fediverse20
-
alternative_app18
-
デジタルセキュリティツール15
-
国内の監視社会化と反監視運動6
-
VPN10
-
GIFCT2
-
政府・国際機関の動向167
-
スパイウェア20
-
OS関係20
-
教育・学校9
-
監視カメラ16
-
労働現場の監視9
-
プライバシー159
-
デジタルID(マイナンバーなど)12
-
GPS1
-
AI78
-
オリンピックと監視社会7
-
文化12
-
労働運動17
-
リンク集12
-
金融監視3
-
COVID-19と監視社会18
-
検閲107
-
海外動向414
-
オンライン会議システム14
-
暗号化69
-
アクティビストとセキュリティ32
-
ビッグテック、大量監視264
-
SNSのセキュリティ20
-
共謀罪1
-
メールのセキュリティ43
-
Articles1
(EFF) ウクライナ侵攻の中、プラットフォームは重要な戦争犯罪文書を削除し続けている
by Mukund Rathi 2022年4月27日
マリウポリ、ガザ、カブール、クライストチャーチなどで残虐行為が発生したとき、ユーザーやソーシャルメディア企業は次のような難問に直面する。残虐行為を示すオンラインコンテンツをどう扱うか?残虐行為を含む暴力的なコンテンツと、ジャーナリストや人権活動家によるドキュメントを区別することができるのか、また区別する必要があるのか。紛争が起きたとき、プラットフォームは誰の暴力的なコンテンツが許されるのかに関して、どちらの側に立つべきなの か?
過去10年間、ソーシャルメディアプラットフォームは戦争犯罪の証拠の文書化と保存に重要な役割を果たすということが証明されている。ソーシャルメディアはそのようなコンテンツを共有するための理想的な場所ではないものの、紛争地域に住む人々にとって、これらのプラットフォームはそのようなコンテンツを素早くアップロードする最も簡単な場所であることが多いというのも事実だ。
ほとんどのプラットフォームでは、過激主義や 画像による暴力に対するポリシーがますます厳しくなっている。そのため、人権侵害の文書や、反論、ニュース、アート、抗議などが、しばしば網に引っかかってしまう。プラットフォームは、一般市民にとって価値のあるコンテンツや、将来戦争犯罪の裁判の証拠として使われる可能性のあるコンテンツを削除している。これは何年も前から続いている問題で、ロシアのウクライナ侵攻の最中にも続いている。
YouTubeは、3月のわずか10日間で、ウクライナに関連する15,000本以上の動画を削除したと誇らしげに宣伝している。YouTube、Facebook、Twitter、その他多くのプラットフォームも、これらのカテゴリーにおけるコンテンツ削除の大部分を自動スキャンで行っている。しかし、自動化がもたらす迅速さは、ミスにもつながる。例えば、4月上旬、Facebookはウクライナ北部の町ブチャで起きた民間人殺害事件に関するコメントや記録に使われたハッシュタグを一時的にブロックした。Facebookを運営するMeta社は、暴力的なコンテンツを自動的にスキャンして取り除いているため、このようなことが起こったと述べている。
私たちは何年も前から、プラットフォームが「暴力的」あるいは「過激主義的」なコンテンツを行き過ぎた方法で削除していることを批判してきた。 これらの削除は、結局のところ、社会から疎外されたユーザーを最大の標的としている。例えば、テロを止めるという名目で、プラットフォームはしばしばクルド人やその擁護者のコンテンツを選択的に削除している。Facebookは、トルコ政府によるクルド人弾圧を批判するコンテンツを繰り返し削除してきた。
Facebookは、削除されたコンテンツを米国務省がテロ組織と指定するクルド労働者党(PKK)に関連付けることで、さまざまな場面で自らの過ちを認めたり、弁明したりしている。この正当化が真実かどうかは別として(Facebookはトルコの与党が、同じく米国指定のテロ組織であるハマスの写真をアップしたままにしていると言われている)、事実上、プラットフォームが政治的異端者に対して政府に加担していることを意味する。
プラットフォームが「暴力的」なコンテンツを削除すると、紛争を記録するジャーナリストを事実上検閲し、証拠としてそのコンテンツを必要とする人権活動家の活動を妨げる可能性がある。シリアの蜂起が始まったとき、好意的なメディアチャンネルにアクセスできない活動家は、すぐに YouTube やその他のプラットフォームに切り替えて、自分たちの経験を整理し、ドキュメント化した。
YouTubeは、化学物質による攻撃、病院や医療施設への攻撃、民間インフラの破壊などの残虐行為を記録した何十万もの動画を削除し、復元を拒否したため、彼らは厳しい検閲にさらされた。検閲にとどまらず、ソーシャルメディア上のコンテンツを証拠として利用することが増えている人権訴訟にも支障をきたしている。ある戦争犯罪調査官はヒューマン・ライツ・ウォッチに対し、「私はいつも、重要な証拠となりうるものなのに、もはやアクセスできないという問題に直面している」と語っている。
ウクライナ侵攻の際、オンライン・プラットフォームは、以前の紛争にはなかったコンテンツ・モデレーション・ポリシーに、いくつかの期待できそうなニュアンスを加えた。たとえば、Facebookは、ウクライナとその他数カ国のユーザーに対して、「ロシアの侵略者に死を」というようなロシア兵に対する暴力的な言動を許可し、これを政治的表現の一形態であるとした。Twitterは、情報アクセスを制限することを表明したり、「国家間の武力紛争 」に関与することを表明するような政府アカウントの拡大や推奨を停止した。これはロシアの偽情報に対する懸念に配慮したものと思われるが、サウジアラビアなど、間違いなく同様の行動をとる米国の同盟国に対して、Twitterが新しいポリシーを適用するかどうかは未知数である。もちろん、Facebookがネオナチを起源とするウクライナの民兵組織であるアゾフ大隊への禁止措置を撤回したように、この「ニュアンス」の一部には異論もあるかもしれない。
結局のところ、オンライン・プラットフォームは、コンテンツ・モデレーションの実践にもっと多くのニュアンスを加味する必要があり、それと同様に重要なことは、ユーザーに対してもっと透明性を持たせることである。例えば、Facebookはアゾフに関する措置の撤回をユーザーに知らせず、Interceptは内部資料からこのことを知った。なぜ反対意見が削除されたのか、なぜ政府のプロパガンダが放置されているのか、ユーザーはしばしば闇のなかに置かれ、深刻な被害を受ける可能性がある。プラットフォームはジャーナリストや人権活動家、ユーザーと協力して、表現の自由と情報へのアクセス権を尊重した明確なコンテンツモデレーションポリシーを確立する必要がある。
付記:下訳にDeepLを用いました。