サンタ・クララ原則―コンテンツモデレーションにおける透明性と説明責任について

Categories
< Back
You are here:
Print

サンタ・クララ原則―コンテンツモデレーションにおける透明性と説明責任について

サンタ・クララ原則―コンテンツモデレーションにおける透明性と説明責任について

これらの原則は、出発点としての役割を果たすことを意図しており、将来的にはより綿密な対話の基礎となることを期待して透明性と説明責任の最低限のレベルを概説するものである。

2018年2月2日にカリフォルニア州サンタクララで開催された第1回Content Moderation at Scaleカンファレンスにおいて、オンラインでの表現の自由の権利を支持する団体、擁護者、学識経験者による小規模な非公開ワークショップが開催され、インターネットプラットフォームによるユーザーが生成したコンテンツの積極的なモデレーションについて、有意義な透明性と説明責任を得る最善の方法を検討した

さて、2018年5月7日にワシントンDCで開催される第2回「Content Moderation at Scale」会議を機に、私たちは、影響を受ける発言者に有意義なデュープロセスを提供し、コンテンツのガイドラインの実施が公正、偏りのない、バランスのとれたもので、ユーザーの権利を尊重したものであることをより確実にするために、コンテンツのモデレーションに携わる企業が取るべき最初のステップとして、以下の3つの原則を提案する。

ACLU Foundation of Northern California
Center for Democracy & Technology
Electronic Frontier Foundation
New America’s Open Technology Institute
Irina Raicu
Markkula Center for Applied Ethics, Santa Clara University

Nicolas Suzor
Queensland University of Technology

Sarah Myers West
USC Annenberg School for Communication and Journalism

Sarah T. Roberts
Department of Information Studies, School of Education & Information Studies, UCLA

1. 数について

企業は、コンテンツガイドラインに違反したために削除された投稿の数、アカウントが永久的または一時的に停止された数を公表すべきである。

最低でも、この情報は、これらの各側面に沿って分類されるべきである。

  • フラグが設定された個々の投稿とアカウントの総数。
  • 保留とされた個々の投稿とアカウントの総数。
  • 違反したルールのカテゴリー別に、フラグが立てられた個々の投稿とアカウントの数、および削除された個々の投稿と保留とされたアカウントの数。
  • 問題となっているコンテンツの形式(例:テキスト、オーディオ、画像、ビデオ、ライブストリーム)別に、フラグが設定された個々の投稿とアカウントの数、および削除された個々の投稿とアカウントの数を表示すること。
  • フラグの発生源別(例:政府、信頼できるフラグ管理者、ユーザー、さまざまなタイプの自動検出)で、フラグが設定された個々の投稿とアカウントの数、削除された個々の投稿と保留とされたアカウントの数。
  • フラグを立てた人と影響を受けたユーザーの場所別(明らかである場合)のフラグが設定された個々の投稿とアカウントの数、削除された個々の投稿と保留とされたアカウントの数。

このデータは、定期的に、理想的には四半期ごとに、オープンライセンスで機械可読形式の報告書として提供されるべきである。

2 注意事項

企業は、コンテンツが削除されたり、アカウントが停止されたりしたユーザーに対して、削除や停止の理由を通知しなければならない。

一般的に、どのようなコンテンツが禁止されるのかについて、許容されるコンテンツと禁止されるコンテンツの例や、審査員が使用するガイドラインを含めて、コミュニティに対して詳細なガイダンスを提供する。また、企業は、コンテンツの各カテゴリーにおいて自動検出がどのように利用されているかを説明する必要がある。投稿が削除された理由やアカウントが停止された理由をユーザーに通知する場合、適切な通知のための最低限の詳細レベルは以下の通り。

  • URL、コンテンツの抜粋、および/または削除されたコンテンツを特定するのに十分なその他の情報。
  • コンテンツが違反していることが判明したガイドラインの具体的な条項。
  • コンテンツがどのようにして検出され、削除されたか(他のユーザー、政府、信頼されたフラッガー、自動検出、または外部からの法的その他の苦情によってフラグが立てられたか)。フラッグを立てた個人の身元は一般的に明らかにすべきではないが、政府によってフラグが立てられたコンテンツは、法律で禁止されている場合を除き、特定されるべきである。
  • ユーザーが決定に異議を申し立てることができるプロセスの説明。

通知は、ユーザーのアカウントが停止または終了した場合でもアクセス可能な耐久性のある形式で提供されるべきである。また、コンテンツにフラグを立てたユーザーには、ユーザーが報告したコンテンツのログと、モデレーションプロセスの結果を提示すること。

3 苦情の申立て

企業は、コンテンツの削除やアカウントの一時停止について、時期を逸することなく異議を申し立ての有意義な機会を提供すべきである。

有意義な異議申し立てのための最低基準は以下の通り。

  • 最初の決定に関与していない人物または複数のパネルによる人によるレビュー。
  • レビューで考慮される追加情報を提示する機会。
  • レビューの結果の通知、及び利用者が決定を理解するのに十分な理由の説明。

長期的には、独立した外部レビュープロセスも、利用者が救済を求めることができるようにするための重要な要素となるかもしれない。

謝辞
サンタ・クララ大学のHigh Tech Law Instituteには、「Content Moderation & Removal at Scale」会議を主催していただき、また、本文書の作成に至ったワークショップの開催を支援していただいたEric Goldmanに感謝します。このワークショップは、ペンシルバニア大学のthe Internet Policy Observatory からの支援(project number DE160101542)のおかげで実現しました。

https://santaclaraprinciples.org/

Table of Contents