Howdy! How can we help you?
-
気候変動1
-
ブラウザ72
-
戦争36
-
ヘイトスピーチ10
-
偽情報、誤情報7
-
ジェンダー3
-
国家安全保障10
-
fediverse20
-
alternative_app18
-
デジタルセキュリティツール15
-
国内の監視社会化と反監視運動6
-
VPN10
-
GIFCT2
-
政府・国際機関の動向166
-
スパイウェア20
-
OS関係20
-
教育・学校9
-
監視カメラ16
-
労働現場の監視9
-
プライバシー159
-
デジタルID(マイナンバーなど)12
-
GPS1
-
AI78
-
オリンピックと監視社会7
-
文化12
-
労働運動17
-
リンク集12
-
金融監視3
-
COVID-19と監視社会18
-
検閲105
-
海外動向412
-
オンライン会議システム14
-
暗号化69
-
アクティビストとセキュリティ32
-
ビッグテック、大量監視262
-
SNSのセキュリティ20
-
共謀罪1
-
メールのセキュリティ43
-
Articles1
プライバシーを侵害するAppleのコンテンツスキャン技術に対する公開書簡
(注意:以下は機械翻訳の校正を経ていません。正確性に欠けます。原文を参照ください)
プライバシーを侵害するAppleのコンテンツスキャン技術に対する公開書簡
セキュリティとプライバシーの専門家、暗号学者、研究者、教授、法律専門家、Appleの消費者は、ユーザーのプライバシーとエンドツーエンドの暗号化を損なうAppleの計画的な動きを非難します。
→GitHub経由で手紙に署名してください。
親愛なるAppleへ。
2021年8月5日、Apple Inc.は、「Expanded Protections for Children(子どものための保護の拡大)」と称して、事実上すべてのデバイスに適用される新しい技術的措置を発表しました。児童の搾取は深刻な問題であり、それに対処するための努力はほぼ疑いなく善意であると言えますが、Appleの提案は、Apple製品のすべてのユーザの基本的なプライバシー保護を損なう恐れのあるバックドアを導入するものです。
アップル社が提案する技術は、ユーザーのiPhone、iPad、Macに保存または共有された写真を継続的に監視することで機能します。あるシステムでは、iCloudのストレージに一定数の好ましくない写真が検出された場合、当局に警告を発します。また、機械学習アルゴリズムによってヌードが含まれていると判断された写真がiMessageで送受信された場合、子どもの両親に通知するシステムもあります。
これらのチェックはユーザーのデバイス上で行われるため、ユーザーのプライバシーを保護するエンド・ツー・エンドの暗号化を回避できる可能性があります。
アップル社の発表直後、世界中の専門家からは、アップル社の提案する対策によって、すべてのiPhoneが、好ましくないコンテンツを法執行機関に報告するために、通過するすべての写真やメッセージを継続的にスキャンするデバイスになってしまうのではないか、という警鐘が鳴り響いていました。
電子フロンティア財団は、「アップル社は、より広範な悪用への道を開いている」と指摘しています。
「子どもたちが送受信する性的に露骨な画像にのみ使用できるクライアントサイドのスキャンシステムを構築することは不可能です。結果として、そのようなシステムを構築しようとする善意の努力であっても、メッセンジャーの暗号化自体の重要な約束を破り、より広範な悪用への道を開いてしまうことになります[…]これは滑りやすい斜面ではなく、完全に構築されたシステムであり、外部からの圧力によってわずかな変更が加えられるのを待っている状態なのです」。
Center for Democracy and Technology(民主主義技術センター)は、「アップル社の変更が、実際には子どもたちやすべてのユーザーに新たなリスクをもたらし、長年にわたって維持されてきたプライバシーとセキュリティのプロトコルから大きく逸脱していることを深く懸念している」と述べています。
「CDTのSecurity & Surveillance Projectの共同ディレクターであるGreg Nojeim氏は、「Appleは、業界標準のエンドツーエンドの暗号化されたメッセージングシステムを、監視と検閲のためのインフラに置き換えようとしています。”Appleはこのような変更を断念し、Appleのデバイスやサービス上のデータの安全性と完全性に対するユーザーの信頼を取り戻すべきです。”
セキュリティ&プライバシーの研究の第一人者であり、スイス・ローザンヌにあるEPFLの教授であるカルメラ・トロンコソ博士は、「アップルが新たに導入した児童性的虐待資料(CSAM)の検出器は、子どもの保護とプライバシーの傘の下で推進されているが、それは普及した監視と管理への確固たる一歩である」と述べています。
また、セキュリティとプライバシーに関する研究の第一人者であり、メリーランド州ボルチモアにあるジョンズ・ホプキンス大学の教授であるマシュー・D・グリーン博士は、「昨日、私たちは、自分の情報を自分以外の誰かの管理や審査を受けなければならないことが少なくなる未来に向かって、徐々に進んでいた」と述べています。1990年代以降、初めて私たちはプライバシーを取り戻すことができたのです。今日、私たちは別の道を歩んでいます」と付け加えました。
「英国、米国、インド、中国から圧力がかかってくるでしょう。それがどのようなものになるのか、私は恐れています。アップル社が『こんなツールがありますよ』と世界に向けて発信したい理由は何なのでしょうか?
Open Privacy Research Societyのエグゼクティブ・ディレクターであるサラ・ジェイミー・ルイスは、次のように警告しています。
「もしアップル社がこの導入に成功したら、他のプロバイダーにも同じことが求められるようになるのはいつのことになると思いますか?アップルがこの導入に成功した場合、他のプロバイダーにも同じことが求められるようになるまで、どれくらいかかると思いますか?それが法律で規定されるまでには?このデータベースが「テロリスト」のコンテンツにまで拡大されるのはいつのことだと思いますか?「有害だが法的には問題のないコンテンツ」や「国家単位の検閲」などに拡大されるのはいつになるだろうか。
セキュリティ&プライバシー問題の研究者であるナディム・コーベイスィ博士は警告しています。
「アップル社はサウジアラビアでFaceTimeを搭載していないiPhoneを販売していますが、これは現地の規制で暗号化された電話が禁止されているからです。これは、アップル社が現地の圧力に屈した数多くの例の一つに過ぎません。サウジアラビアの現地規制で、児童の性的虐待ではなく、同性愛や君主制に対する違反行為がないかどうかメッセージをスキャンするように命じられたらどうなるでしょうか」と述べています。
この問題に関する電子フロンティア財団の声明では、上記の懸念を裏付けるように、アップル社の提案する技術が世界的な悪用につながる可能性があることを示す追加の例を挙げています。
「例えばインドでは、最近可決された規則に、メッセージの出所を特定し、コンテンツを事前に審査することをプラットフォームに求める危険な内容が含まれています。また、エチオピアでは、”誤報 “のコンテンツを24時間以内に削除することを義務付ける新しい法律が、メッセージングサービスに適用される可能性があります。また、他の多くの国(多くの場合、権威主義的な政府を持つ国)でも、同様の法律が制定されています。今回のAppleの変更により、エンド・ツー・エンドのメッセージングサービスにおいて、このようなスクリーニング、テイクダウン、報告が可能になります。悪用されるケースは容易に想像できます。同性愛を禁止している政府は、明らかにLGBTQ+のコンテンツを制限するように分類器を訓練することを要求するかもしれませんし、権威主義的な政権は、人気のある風刺画像や抗議のチラシを見分けることができるように分類器を要求するかもしれません」と述べています。
さらに、電子フロンティア財団は、このミッション・クリープをすでに目の当たりにしていると主張しています。「もともと児童の性的虐待画像をスキャンしてハッシュ化するために作られた技術の1つが、”テロリスト “コンテンツのデータベースを作成するために再利用されています。このデータベースは、GIFCT(Global Internet Forum to Counter Terrorism)によって管理されていますが、市民社会からの要請にもかかわらず、外部からの監視が行われていないことが問題となっています」と述べています。
アップルの提案するアプローチの根本的な設計上の欠陥は、専門家からも指摘されており、「アップルは、ユーザーごとに異なるメディアフィンガープリントデータセットを些細なことで使用できる。あるユーザーには児童虐待が、別のユーザーにはもっと幅広いカテゴリーが対象になるかもしれない」と主張しています。これにより、対象となるユーザーに対して選択的なコンテンツ追跡が可能になります。
アップル社が子どもの保護対策として提案しているタイプの技術は、監視や技術的な制限ができない拡張可能なインフラに依存しています。専門家たちは、問題はプライバシーだけではなく、説明責任の欠如、拡張のための技術的障害、エラーや誤検出の可能性についての分析や認識の欠如であると繰り返し警告しています。
ハーバード・ロースクールのサイバーロー・クリニックの弁護士であるケンドラ・アルバートは、「このような “子どもの保護 “機能は、クィアの子どもたちを家から追い出したり、殴ったり、もっとひどい目に遭わせることになる」と警告し、次のように付け加えています。
「これらの機械学習アルゴリズムが移行写真にフラグを立てることは、(今になって)わかっています。もしあなたが “女性の乳首 “を持っていたら、友達に自分の写真をメールするといいわね」と述べています。
私たちの要求
私たち、以下のことを要求します。
1. Apple Inc.が提案しているコンテンツ監視技術の展開を直ちに中止すること。
2. Apple Inc.は、エンドツーエンドの暗号化とユーザのプライバシーに対するコミットメントを再確認する声明を発表してください。
Apple Inc.の現在の方針は、技術者、学者、政策提言者が何十年にもわたって取り組んできた、消費者向け電子機器やユースケースの大部分でプライバシーを保護する強力な手段を標準とすることへの取り組みを台無しにする恐れがあります。私たちは、Appleがこの重要な仕事を台無しにしないよう、テクノロジーの展開を再考することを求めます。
署名
団体
→ GitHubから署名してください。
- Alphachain Capital
- Calypso IT Services GmbH
- Chaos Computer Club Siegen e. V.
- Collectif Onestla.tech
- Collé Group, LLC
- Cryptomator
- Digital Society Switzerland
- dotplex Secure Hosting
- Freedom of the Press Foundation
- Gigahost
- Giordano Bruno Foundation
- GUN
- IVPN
- knowledgeatwork UG
- Latency: Zero, LLC
- MacDailyNews
- MentorLycon
- Mojeek
- Netsite A/S
- NixNet
- NRB Tech, Ltd.
- PayLive
- Peergos
- Possible Security
- Privacy Foundation
- Safe Network Forum
- SIGDEV LLC
- Small Technology Foundation
- Swifty Nodes IT Solutions
- Swivro
- SymbioSystems LLC
- ThinkPrivacy
- WebTorrent
- Xeovo VPN
出典:https://appleprivacyletter.com
付記:下訳にhttps://www.deepl.com/translatorを用いました。