Categories
Table of Contents
< Back
You are here:
Print

CDT:アップル社によるメッセージングおよびフォトサービスの変更は、ユーザーのセキュリティとプライバシーを脅かすものである

(注意:機械翻訳のままで校正作業前のものです。)

CDT:アップル社によるメッセージングおよびフォトサービスの変更は、ユーザーのセキュリティとプライバシーを脅かすものである
2021年8月5日

業界標準である暗号化されたメッセージングシステムを置き換える計画は、米国および世界で新たなリスクを生み出します

(ワシントン発】本日、アップル社は、米国におけるメッセージングおよび写真サービスにいくつかの変更を加える計画であることを発表しました。この変更は、ユーザーのセキュリティとプライバシーを脅かし、最終的には世界中の安全なメッセージングを脅かすものであると、Center for Democracy & Technology(CDT)は考えています。

アップル社は、これらの新しいポリシーを、子どもたちを守るための取り組みとしていて、これは間違いなく重要で価値のある目標です。児童性的虐待資料(CSAM)の拡散は、断固とした対応が求められる忌まわしい犯罪です。しかし、CDTは、今回のアップル社の変更が、子どもたちをはじめとするすべてのユーザーに新たなリスクをもたらし、これまでのプライバシーおよびセキュリティプロトコルから大きく逸脱するものであることを深く懸念しています。

「アップル社は、業界標準であるエンドツーエンドの暗号化されたメッセージングシステムを、監視と検閲のためのインフラに置き換えようとしています。このインフラは、米国だけでなく世界各国で、悪用され、なし崩しに監視が拡大されていくものです」と、CDTのSecurity & Surveillance Projectの共同ディレクターであるグレッグ・ノジムは述べています。「Appleはこれらの変更を断念し、Appleのデバイスやサービス上のデータの安全性と完全性に対するユーザーの信頼を回復すべきです」と述べています。

Appleが本日発表した変更は、バックドアを作り、iMessageがエンドツーエンドの暗号化を提供しなくなるようにするものです。また、この変更は本質的に、あるアカウントが別のアカウントの監視を行うことを可能にする危険な前例となります。具体的には、Apple社はiOSに機能を追加し、家族アカウントを共有するユーザーの間で送受信されるiMessageの画像をスキャンします。このようなアカウントでは、機械学習を利用した「クライアント・サイド・スキャニング」が行われ、性的に露骨な画像の検出が試みられます。

ファミリーアカウントの子どものユーザーとの間で「露骨」と疑われる画像が検出されると、その画像がデリケートなものであることを警告するとともに、“子ども” がその画像の送信を選択した場合には、親に通知が送られる可能性があることを通知します。

また、写真保存のポリシーの変更も発表しました。アップルは、児童性的虐待資料(CSAM)のハッシュ(画像の“指紋” となるような小さなデータ列)のデータベースをユーザーの携帯電話に保存します。iCloudでの写真保存を有効にしているユーザーの場合、OSはユーザーの写真をiCloudにアップロードする前にデータベースと照合します。あるアカウントで、データベースと一致する画像があらかじめ設定された閾値に達し、その画像がCSAMを描写していると人間の審査員が同意した場合、AppleはNational Center for Missing & Exploited Children(NCMEC、全米行方不明・被搾取児童センター)に報告を送信します。また、Appleは、アカウント所有者が異議を申し立てなければ、そのアカウントを停止します。

これらの新しい慣行は、AppleがiMessageを通じての完全にエンド・ツー・エンド暗号化されたメッセージングをもはや提供しなくなることを意味し、iPhoneユーザーの写真の保存についてこれまで提供されていたプライバシーが損なわれることになります。アップル社がiMessage内の画像をスキャンすることを可能にする仕組みは、バックドアの代替ではなく、バックドアなのです。通信の一方の「端」でクライアント側がスキャンすることで、通信のセキュリティが破られ、第三者(親)に通信内容を知らせることで、プライバシーが損なわれます。クライアント・サイド・スキャンは、政府や企業が私的な通信内容を取り締まる手段として利用される可能性があるため、世界中の組織が注意を促しています。

Apple社が考案した親子のアカウント構造が、実際の親や “子ども” によって意図されたとおりに使用されるという保証はないため、18歳未満のユーザーに対するiMessageのプライバシーの変更は、特に懸念されます。Apple社が、子どもや若者を猟ろうとする者に対抗するため作ったまさにそのツールが、若者の性的アイデンティティという機微情報を無関心な大人にさらしてしまう可能性があるのです。また、ヌードや性的に露骨なコンテンツを検出する機械学習の分類法は、エラーを起こしやすいことで知られています。Apple社の新しいツールが、健康情報、ミーム、アート、アドボカシーのメッセージさえも誤って「露骨」と判定し、子どもがセクスティングをしていることをほのめかす警告的な通知を親に送ることはほぼ確実でしょう。

ノジムは、「Appleが発表した変更は、ユーザーのプライバシーと通信のセキュリティに対するAppleのリーダーシップと取り組みを考えると、非常に残念なものです。Apple社がエンド・ツー・エンドの安全な暗号化サービスの提供から手を引いたことは、すべてのユーザーのプライバシーを脅かす可能性があると同時に、若者にとっては新たな脅威となります。特に、LGBTQの若者や虐待を受けている家庭の子どもたちは、親や保護者を含めて、傷害や報復を受けやすく、自分や友人の機密情報をうっかり大人にさらしてしまい、悲惨な結果を招く可能性があります。”

“これまでエンド・ツー・エンドの暗号化で保護されていたメッセージに添付された画像は、非公開アルゴリズムを使って日常的に検索されるようになります。また、iPhoneで撮影・共有した写真にプライバシーを期待しているユーザーは、それらの写真がiCloudにバックアップされても、もはや期待することはできません。その代わりに、Appleがそれらの写真をスキャンすることを知っておくべきです」とノジムは付け加えています。

###

CDTは、25年の歴史を持つ501(c)3の非政党の非営利団体で、技術政策や日常生活に影響を与えるインターネットのアーキテクチャを定義し、促進し、影響を与えることで、個人の権利と自由を強化する活動を行っています。

出典:https://cdt.org/press/cdt-apples-changes-to-messaging-and-photo-services-threaten-users-security-and-privacy/

付記:下訳をhttps://www.deepl.com/translatorで作成しました。

2021年9月17日改訳

Print Friendly, PDF & Email
Previous (CDT)何が間違っているのか?エンド・ツー・エンドの暗号化を廃止しようとするAppleの誤った計画
Next GoogleとAppleのプライバシーに関する変更点について