Categories
Table of Contents
< Back
You are here:
Print

(Access Now) Appleに自社デバイスのエンド・ツー・エンド暗号化を回避する計画を撤回して信頼を回復するよう要請

Access Now、Appleに自社デバイスのエンド・ツー・エンド暗号化を回避する計画を撤回して信頼を回復するよう要請
2021年8月10日|午後1時33分

Appleは、プライバシーを守ることを約束してブランドを築いてきたが、2021年8月5日に発表したシステムアップデートで、暗号化を回避してiCloudにアップロードされたすべての写真とiMessageで送信された特定の画像の監視を導入するという、アプローチの基礎的な変化を示唆している。

これらのアップデートは、アップルの「子供のための保護の拡大」の一環であり、対処すべき深刻な問題である児童性的虐待資料(Child Sexual Abuse Material: CSAM)の拡散を抑制することを目的としています。しかしながら、アップル社が計画している対策は、実行可能な解決策ではなく、また、エンド・ツー・エンドの暗号化を回避し、個人が自分のデバイスをコントロールする力を弱めることで、すべての人のプライバシーとセキュリティを危険にさらしています。

Access NowのEncryption Policy FellowであるNamrata Maheshwariは、「Appleが計画しているデバイス上の監視は、すべての人のプライバシーを危険にさらすものであり、権威主義的な政府や悪意のある行為者に悪用される可能性があります。また、Appleがこれまで優先してきたエンド・ツー・エンドの暗号化、プライバシー、セキュリティから決定的に逸脱しています」と述べています。

ペガサス・プロジェクトは、アップル社のiMessageの脆弱性を悪用して、多くのデバイスが標的にされ、監視されていることを明らかにしてから1ヶ月も経っていません。

Access Nowのシニア・インターナショナル・カウンセル兼グローバル・サイバーセキュリティ・リードであるラマン・ジット・シン・チマは、「脆弱性の修正、エンド・ツー・エンドの暗号化の強化、プライバシー保護の強化のために、より強固な措置を講じる必要があるときに、アップルは、私たちの多くが毎日持ち歩いているデジタルデバイスを標的にして、権威主義的な政府による脆弱性の悪用と悪用の範囲を効果的に拡大している」と述べています。

アップルは、今年後半に導入予定の新技術により、iCloud Photosに保存されている画像をデバイス上でスキャンし、CSAMを識別する機能をアップルデバイスに提供します。Apple社は、すべてのAppleデバイスに保存されているOSソフトウェアをアップデートし、米国のNational Center for Missing and Exploited Children(NCMEC)および「その他の子どもの安全に関する組織」から提供された既知のCSAMのハッシュをベースにした画像ハッシュのデータベースと、iCloudにアップロードされているデバイス上の画像のハッシュをCSAMデータベースと比較する機械学習メカニズム(これについてはほとんど分かっていません)を搭載する予定です。一致した場合、アップルは手動でコンテンツを確認し、CSAMであることが判明した場合は、アカウントを無効にしてNCMECにレポートを送信します。

このようなデバイス上でのスキャンシステムは、すべての画像をスキャンするために使用することができ、アップル社は、これに反して保証していたにもかかわらず、iCloudにアップロードされた画像のみをスキャンするという決定をいつでも変更することができる。また、画像ハッシュデータベースの範囲を容易に拡大し、個人のデバイス上のより広範なコンテンツを特定することも可能です。クライアントサイドスキャンは、個人が自分のデバイスをコントロールすることを妨げ、エンドツーエンドの暗号化を弱め、システムに脆弱性をもたらします。

アクセス・ナウのシニア・インターナショナル・カウンセル兼グローバル・サイバーセキュリティ・リードであるRaman Jit Singh Chimaは、「善人だけが開ける裏口がないように、CSAMのアップロードや共有を防ぐためだけに使われるクライアントサイド・スキャニング・システムはありません」と述べています。「人々をより安全にするための措置が、かえってすべての人の個人情報や表現を悪用、乱用、検閲の対象にしてしまうのです」と述べています。

アップル社の近日中のアップデートでは、子どものアカウントのメッセージを監視する機能も導入されます。この機能は、親が許可した場合に有効になります。この機能により、iMessageで子どもとの間で送受信される「露骨な画像」が検出されると、アップルはその画像の露骨な性質について未成年者に警告し、両親に通知する可能性があることを伝えます。このようなスキャンが子どものアカウントにのみ適用されるという保証はなく、LGBTQ+コミュニティを含む脆弱なコミュニティに属する未成年者は、支援を受けていない両親のもとで、十分かつ意味のある協議を経ずに実施されるこの変更の影響を最も受けやすいと考えられます。

何をもって「露骨な画像」とするかは非常に主観的であり、すべての「露骨な画像」が警告の対象となるわけではありません。誤ったフラグを立てることは避けられず、エンド・ツー・エンドの暗号化で守られているはずの個人の私的な会話の監視が継続的に拡大する可能性があることから、この措置がプライバシーの不当な剥奪や表現の自由の抑圧につながるのではないかという深刻な懸念があります。

「アクセス・ナウのヨーロッパ・ポリシー・アナリストであり、グローバル・フリーダム・オブ・エクスプレッション・リードであるエリシュカ・ピルコバは次のように述べています。「クライアントサイド・スキャニングのような対策が実施されると、ミッション・クリープが作動し、他のカテゴリーのコンテンツにまで範囲が拡大されるのは時間の問題です。「さらに、権威主義的な政権は、監視を強化し、個人的な通信における正当なコンテンツを監視、ブラックリスト化、ブロックするために、クライアントサイドスキャンを導入する可能性があります。例えば、ハッシュのデータベースを強化して、抗議や反論、LGBTQ+コミュニティ、さらには特定の芸術表現に関わるコンテンツを検閲することが考えられます。これは最終的に、表現や意見の自由の権利の抑制、プライバシー保護の侵食、民主的統治の基本原則の弱体化など、人権侵害の深刻なリスクを生み出します」と述べています。

Apple社は、同社の製品やポリシーが表現の自由や情報へのアクセスに与える影響についての人権コミュニティの懸念に対処するため、ごく最近になって漸進的な措置を講じました。プライバシーやセキュリティのリスクに加えて、クライアント側でのスキャンの実施は、コンテンツガバナンスに関する人権保護への取り組みにさらなる不確実性をもたらします。

私たちは、他のプラットフォームで機械学習システムを利用してユーザー生成コンテンツの管理・選別を行った経験から、これらのシステムは、透明性の欠如、歴史的に疎外されたグループに対する固有の差別的バイアス、違法なテイクダウンをもたらす文脈上の盲目性などにより、基本的な自由の不当な制限につながることが多いことを知っています。Appleのクライアントサイドのスキャンシステムは、AppleユーザーがiCloudストレージにアップロードしたり、子どものiMessageアカウントとやり取りしたりするすべての画像を自動的かつ無差別にスキャンするように特別に設計されています。このようなシステムの範囲を制限することは本質的に不可能であり、実装されれば、スクリーニングや不正なテイクダウンなどの悪用は避けられません。

私たちは、Appleがクライアントサイドスキャンの導入計画を撤回し、何十年にもわたって人々のプライバシーとセキュリティを守り、信頼を得てきたAppleデバイスのエンドツーエンドの暗号化を回避したり、損なうような技術的手段を導入しないことを強く求めます。アップルは、市民社会団体やその技術の影響を受ける個人、特に脆弱なコミュニティとの継続的な協議を行い、実際の影響を理解した上で、プライバシーを有意義に保護し、ユーザに力を与えるような施策を実施すべきです。

出典:https://www.accessnow.org/apple-encryption-expanded-protections-children/

付記:下訳にhttps://www.deepl.com/translatorを用いました。

Print Friendly, PDF & Email
Previous プライバシーを侵害するAppleのコンテンツスキャン技術に対する公開書簡
Next (EFF) バックドア作ればやつらが来る:アップルは、世界中で監視と検閲を強化するためのバックドアを開いた