Howdy! How can we help you?
-
EFF_自己防衛マニュアル8
-
気候変動1
-
ブラウザ8
-
戦争8
-
ヘイトスピーチ8
-
偽情報、誤情報8
-
ジェンダー3
-
国家安全保障8
-
fediverse8
-
alternative_app8
-
デジタルセキュリティツール8
-
国内の監視社会化と反監視運動7
-
VPN8
-
GIFCT2
-
政府・国際機関の動向8
-
スパイウェア8
-
OS関係8
-
教育・学校8
-
監視カメラ8
-
労働現場の監視8
-
プライバシー8
-
デジタルID(マイナンバーなど)8
-
GPS1
-
AI8
-
オリンピックと監視社会7
-
文化8
-
労働運動8
-
リンク集8
-
金融監視3
-
COVID-19と監視社会8
-
検閲8
-
海外動向8
-
オンライン会議システム8
-
暗号化8
-
アクティビストとセキュリティ8
-
ビッグテック、大量監視8
-
SNSのセキュリティ8
-
共謀罪1
-
メールのセキュリティ8
-
Articles1
(EFF)Metaの新しいコンテンツポリシーは脆弱なユーザーに有害である。もし本当に言論の自由を尊重しているのなら、このような変更は行わないはずだ

Jillian C. York、Paige Collings、David Greene 著
2025年1月9日
今週初め、Metaがコンテンツモデレーションプロセスに関する変更を発表した際、私たちは、この投稿で以下に詳しく述べるいくつかの変更により、長年私たちが主張してきた、この企業のプラットフォームにおける表現の自由が拡大されるのではないかと期待した[日本語]。Metaの当初の発表は主に誤情報ポリシーの変更についてであり、私たちが長年批判してきた行き過ぎた規制や自動化ツールの撤廃が含まれていたが、私たちは「Metaは、LGBTQ+の言論、政治的反対意見、セックスワークなど、他の一般的に検閲されているトピックに関するコンテンツモデレーションの慣行についても、同様に詳細に調査する」ことを期待していると表明した。
Facebookは、すでに抑圧されている人々をさらに沈黙させ、疎外するような明確かつ憂慮すべき過去があり、また、コンテンツモデレーションポリシーについても誠実とは言えない対応をしてきた。
しかし、私たちの最初の声明が発表された直後、Metaは、歴史的に行き過ぎたモデレーションが行われてきたテーマに対処するどころか、反対の方向に向かっていることが明らかになった。また、Independent紙が報じているように、特定の脆弱なグループに対する人間性を否定するような発言を許容するようなヘイト行為ポリシーの変更を計画していることもわかった。
ポリシー変更が文書化される前に、今後予定されているポリシー変更に関する実質的にはマーケティングビデオのようなものに対して、私たちが反応や期待を表明してしまったのは間違いだった。私たちは、人々が実際に経験しているオンライン検閲の影響に焦点を当てたい。それは、コミュニティガイドラインや利用規約に記載されているポリシーとは、さらにかけ離れている傾向がある。Facebookは、すでに抑圧されている人々をさらに沈黙させ、疎外する一方で、コンテンツモデレーションポリシーについては誠実ではないという、明確で憂慮すべき実績がある。Facebookのコミュニティ基準文書に実際に反映された最初の変更は、これと同じ流れにあるようだ。
具体的には、Metaのヘイト行為ポリシーには現在、以下のような内容が含まれている。
- トイレや特定の学校、特定の軍、法執行機関、教育職、健康や支援グループなど、性別やジェンダーによって制限されることが多い場所へのアクセスについて議論する際、人々は時に性別やジェンダーを排除するような表現を使用することがある。また、トランスジェンダーの権利、移民、同性愛など、政治や宗教に関するトピックを議論する際に、排除を呼びかけたり、侮辱的な表現を使用することもある。最後に、恋愛関係の破局を機に、ある性別の人々をののしる場合もある。当社のポリシーは、このような種類の言論を許容するよう設計されている。
しかし、このポリシーの実施状況を見ると、特定のグループに対する憎悪的な言論をより許容することに重点が置かれており、特にLGBTQ+の権利の正当性を否定する言論をより許容することに重点が置かれていることが明らかである。例えば、
- 保護された特性に基づく人々に対する精神疾患の申し立ては依然としてレベル2の違反であるが、改訂されたポリシーでは「トランスジェンダー主義[sic]や同性愛に関する政治的・宗教的言説を根拠とする、性別や性的指向に基づく精神疾患や異常の申し立て」が許容されるようになった。
- 改訂されたポリシーでは、Metaが、軍や法執行機関、教員などの職やスポーツリーグ、トイレから、性別や性的指向に基づく排除を主張する言論を許容することが明記された。
- また、改訂されたポリシーでは、保護された特性に基づいて人々を無生物や糞便、不潔なものに例えることに対する以前の禁止事項も削除された。
これらの変更は、Metaが表現の自由という原則にそれほど関心がないことを示しており、むしろ米国の新政権を満足させることに重点を置いていることを示している。私たちは、コンテンツポリシーチームが「偏見の疑い」に対処するためにカリフォルニアからテキサスに移転すると発表したことについて、当初の声明でこの懸念を表明した。Metaは、これらのトピックは「政治的な議論や討論の対象となることが多く」、「テレビや議会の議場でも話題になる」として、それらを反映するよういくつかの変更を加えると述べた。しかし、それが本当にMetaの新しい基準であるならば、その選択的な適用方法に驚かされる。特に、反LGBTQ+の言論をより多く許容している。
私たちは、Metaのプラットフォーム上に残る憎悪に満ちた反トランスジェンダーコンテンツに断固として反対し続けるとともに、米国および国際社会における、脆弱なコミュニティに対する憎悪を助長することを直接目的としたあらゆるポリシー変更を強く非難する。
現実的かつ誠実なコンテンツモデレーション改革は、表現の自由を促進すると同時に、疎外されたユーザーを保護する
Metaは当初の発表で、ポリシーの施行方法を変更し、ミスを減らし、コンテンツのフラグ付けを自動化されたシステムに頼ることをやめ、アピールをレビューするスタッフを増員するとも述べた。 私たちは、理論的には、これらの措置は、グローバルなデジタルの権利擁護団体や、アーティスト、セックス・ワーカーの政策提言活動を行う団体、LGBTQ+の擁護者、パレスチナの擁護者、政治団体などから長年批判されてきた表現の検閲を減らす結果につながるはずだと考えている。
しかし、私たちは、Metaのような偏向的で有害なモデレーションの歴史を持つ企業では、表現の自由というより広範な目標を損なわないよう、慎重に熟考された誠実な修正が必要であることを認識している。
EFFは10年以上にわたり、大規模なコンテンツモデレーション、特に自動化されたコンテンツモデレーションがさまざまなグループに与える影響について批判してきた。もしMetaが本当に自社のプラットフォーム全体で表現の自由を促進することに真剣であるならば、私たちは、憎悪的な発言をさらに許容するのではなく、以下に挙げる必要性の高い改善を優先するよう、改めて強く求める。
Metaはグローバルなユーザーベースに投資し、より多くの言語に対応しなければならない
Metaは、コンテンツの不正確な削除につながることも多いモデレーション業務において、文化的および言語的な能力を提供することへの投資を長年怠ってきた。また、自動化ツール(その多くは欠陥がある)への依存度も高くなっている。これは私たちにとって、以前から明らかなことである。2011年のアラブの春の後、私たちはFacebookの報告プロセスと中東および北アフリカの活動家への影響について懸念を文書化した。さらに最近では、業界全体における文化的な適応能力の必要性が、改訂されたサンタクララ原則で強調された。
長年にわたり、Metaのグローバルな欠陥は、そのプラットフォームが多くの地域で憎悪や過激主義の宣伝に使用されたことで、さらに明白になった。その主な例のひとつは、ミャンマーにおけるロヒンギャ族に対する反感を抑制できなかったことである。これは、ビルマ語を話すモデレーターが極端に少ないことが直接的な原因である(2015年、ロヒンギャ族に対する過激な暴力や暴力的な感情がすでに高まっていた当時、そのようなモデレーターはわずか2人しかいなかった)。
もしMetaが本当に、ほとんどのコンテンツにフラグを立てて対処する自動化の使用を廃止し、申し立てシステムが効果的に機能するようにするつもりであるならば、それはこうした問題のいくつかを解決することになるだろう。しかし、米国以外の国々や英語以外の言語によるコンテンツが公平にモデレーションされるように、質の高いコンテンツモデレーション担当者を世界的に雇用することも必要である。
過激主義的コンテンツにフラグを立てる自動化への過度な依存は、誤ったモデレーションを許容する
私たちはかねてより、Metaによるテロリストおよび過激派の言論に対する過剰な取締り、とりわけそれが人権に関するコンテンツに与える影響について批判してきた。問題の一部は、Metaが過激主義的コンテンツのフラグを立てるためにモデレーションに過度に依存していることにある。中東および北アフリカにおけるモデレーションをレビューした2020年の文書では、アラビア語のテロリストコンテンツを検出するために使用されるアルゴリズムが、誤って77%の投稿にフラグを立てていると主張している。
さらに最近では、Metaの自動化されたモデレーションによって「川から海まで」というフレーズが削除されるという事例も見られる。私たちが監督機能委員会に提出した意見書で主張したように(同委員会も同意した)、このフレーズには歴史的に重要な使用例があり、憎悪的でもなく、またMetaのコミュニティ基準に違反するものでもないため、モデレーションの決定は個別に行われるべきである。
言語能力に関するMetaの欠点と相まって生じるこの問題の別の例は、「shaheed」という用語に関連している。これは「殉教者」と最も近い意味で訳され、アラビア語話者や世界のその他の地域のアラビア語話者以外の多くのムスリムが、主に(ただし、排他的ではない)イデオロギー上の大義のために命を落とした個人を指すために使用している。私たちは、ECNLと共同で提出したMeta監督機能委員会への申し立てで主張したように、この用語の使用は文脈に依存するものであるが、Metaは自動モデレーションを使用して、この単語の使用例を無差別に削除している。監督機能委員会は、ポリシーに関する助言的意見の中で、暴力の防止を目的とした表現の自由に対するいかなる制限も、「不適切なコンテンツの削除は効果的ではなく、場合によっては逆効果となる可能性がある」ことを踏まえ、必要かつ適切なものでなければならないと指摘している。
オフラインで迫害を受けている社会的に疎外されたコミュニティは、オンラインで不公平な検閲に直面することが多い。Metaは、表現の自由を擁護する上で、グローバルなユーザーベースに対して負っている責任を認識することが不可欠である。特に、自国で検閲に直面する可能性のあるコミュニティに対しては、その責任は大きい。
性的なテーマのコンテンツは依然として差別的な過剰検閲の対象となっている
私たちが批判したMetaによる性的なテーマのコンテンツの削除は、10年以上前にさかのぼる。 成人向け性的行為やヌードに関する同社のポリシーは、幅広い人々やコミュニティに影響を及ぼすが、とりわけLGBTQ+個人やセックス・ワーカーに深刻な影響を与える。通常、サイトを「家族向け」に保つことや「子どもを守る」ことを目的としているこれらのポリシーは、しばしば不公平に適用され、LGBTQ+のコンテンツを「成人向け」や「有害」と分類する一方で、同様の異性愛者向けのコンテンツはそう分類しないことが多い。これらのポリシーは、しばしば差別的に策定され、ジェンダーが固定されていない人々やノンバイナリーの人々を犠牲にして適用されてきた。私たちは、この差別を是正することを目的としたWe the Nippleキャンペーンに参加した。
政治的な対立が続くなか、このような問題はソーシャルメディアユーザーに深刻な影響を与えている。
ほとんどのヌードコンテンツは合法であり、オンラインでそのような素材と関わることは、個人が安全でオープンな枠組みの中で自分自身のアイデンティティを探究し、社会的な受容の拡大やヘイトに対する主張、コミュニティの構築、新たな関心の発見を行うことを可能にする。Metaが介入し、人々がヌードや性的なコンテンツを制作し、関わる方法の裁定者となったことで、あらゆる種類のユーザーにとって重要な参加形態が失われ、影響力の弱い人々の声は定期的に遮断されるようになった。
中絶に関するコンテンツの行き過ぎた削除は、ユーザーが重要な関連情報にアクセスする権利を妨げている
「殺す」という言葉を含む中絶関連の投稿をMetaのプラットフォームから削除することは、ユーザーの表現の自由を制限する基準を満たしていない。Metaは定期的に中絶関連のコンテンツを過剰に削除しており、ユーザーが政治的信条を表明する力を削いでいる。コンテンツモデレーションに自動化ツールを使用することは、この言葉や重要な情報を偏って削除することにつながる。2022年、Viceは「中絶薬は郵送できる」というFacebookの投稿が公開されてから数秒でフラグ付けされたと報じている。米国全土でオンラインでの中絶関連情報の交換を制限する法案が提出されている現在、医療管理の多くの側面と同様に、中絶への安全なアクセスとリプロダクティブ・ジャスティスは、私たちのデジタルライフに根本的に結びついている。そして、どのようなコンテンツがオンラインでホストされるかを企業が決定しているため、この削除の影響はさらに悪化している。
無害だったオンラインデータは、今や事実上、潜在的な犯罪の証拠となり得る。デジタルの権利に対するこの脅威の拡大は、有色人種、低所得者、移民、LGBTQ+の人々、その他の伝統的に疎外されてきたコミュニティ、そしてこれらのコミュニティにサービスを提供する医療従事者にとって特に危険である。Metaは、国際人権法を尊重するという責任を遵守し、中絶関連のコンテンツの削除が必要かつ妥当であることを保証しなければならない。
Metaがコンテンツチームをカリフォルニアからテキサス州に移転するという象徴的な動きは、中絶情報の流通を違法化しようとしているテキサス州への移転であり、この問題についてMetaは、改善するどころか、テキサス州の州法が中絶を禁止しているのと足並みを揃えて後退するのではないかという深刻な懸念を私たちは抱いている。
Metaはユーザーに透明性を提供するよう改善しなければならない
EFFは、Facebookの透明性の欠如について、長い間批判的な立場を取ってきた。コンテンツモデレーションに関して、同社の透明性に関する報道は、基本的な情報も欠如している。例えば、人間のモデレーターは何人いて、各言語を何人が担当しているのか?モデレーターはどのように訓練されているのか?同社のコミュニティ基準の施行に関するレポートには、どのカテゴリーのコンテンツがどれだけ削除されたかについての概算は記載されているが、なぜそのような決定がなされたのか、またどのように決定がなされたのかについては記載されていない。
Metaは、私たちのデータを自社の利益のために利用することで数十億ドルもの利益を上げているが、その際、私たちのプライバシーよりも自社の利潤を優先しがちである。可能な限り多くのデータを収集することを選択する一方で、ユーザーが自分のデータを直感的に管理することを否定している。この問題は、多くの点で、この企業のその他の有害な行為の根底にある。つまり、この企業の中心的なビジネスモデルは、ユーザーに関する情報を可能な限り多く収集し、そのデータを広告のターゲット設定や競合他社のターゲット設定に使用することに依存している。
だからこそ、EFFは他団体とともに、ユーザー生成コンテンツのモデレーションがますます攻撃的になる中、Metaのような企業が有意義な透明性と説明責任をどのようにして最もよく確保できるかについての「サンタクララ原則」を発表した。そして、Facebook、Instagram、Xなどのプラットフォームが、私たちの発言を裁定し、私たちのデータを管理する役割をますます拡大し続ける中、それらの影響力を抑えるだけでなく、縮小させることが急務となっている。
検閲による誤情報のモデレーションに対する不適切なアプローチ
誤情報は、Metaを含むソーシャルメディアプラットフォーム上で蔓延している。私たちは最初の声明で述べたように、また以前にも書いているように、Metaやその他のプラットフォームは、コミュニティによる指摘やプロのファクトチェック担当者など、利用可能なさまざまなファクトチェックおよび検証ツールを使用し、それによって生じるフラグをすべてチェックする強固なシステムを導入すべきである。
また、Metaやその他のプラットフォームは、ユーザーが読まずに記事を共有することのないよう促すなど、メディアリテラシーのツールを採用し、ユーザーがそのサイトの情報の信頼性を評価するのに役立つリソースを提供すべきである。私たちはまた、Metaやその他の企業に対し、一般ユーザーよりも政府関係者に、より多くの嘘をつく機会を与えることをやめるよう求めてきた。
火曜日に私たちはある程度の希望を表明したが、今では他の人々が示したような懐疑的な見方が正当化されるように思われる。長年にわたり、EFFや多くの他の団体は、Metaに改善を迫るために活動してきた。例えば、「実名」ポリシーでは、LGBTQコミュニティや政治的反対派に不公平な影響を及ぼすという点で、ある程度の成功を収めた。また、授乳中の女性の画像を「性的コンテンツ」としてマークするのではなく、授乳中の女性の画像を許可するMetaのポリシーの改善を求めて闘い、勝利を収めた。もしMetaが本当に表現の自由を尊重しているのなら、自身の批判者たちをエンパワーするのではなく、歴史的に疎外されてきた発言者たちをエンパワーすることに焦点を移すよう強く求める。く、歴史的に疎外されてきた発言者に力を与えることに焦点を移すよう強く求める。