Appleが暗号政策を転換(エンド・ツー・エンド暗号化が危機に)
ここ数週間、監視社会問題やプライバシー問題にとりくんでいる世界中の団体は、アップルが政策の大転換をしようとしていることに大きなショックを受けました。これまでユーザしか解読できないとされていたエンド・ツー・エンド暗号化で保護されていたはずのiCloudに捜査機関が介入できるようにするという声明をAppleが出したのです。以下はこのアップルの方針転換への世界各国91団体による反対声明です。日本ではJCA-NETが署名団体になっています。
いつものことですが、人権団体が取り組みにくい問題(今回は主に児童ポルノ)を突破口に、暗号化に歯止めをかけようとする米国政権の思惑が背後にあると思います。日本でもデジタル庁が秋から発足します。官民一体の監視社会化に対抗できる有力な武器は暗号化ですが、そのことを「敵」も承知していて、攻勢を強めているように思います。今回はAppleの問題でしたが、日本政府の暗号政策での国際的な取り組みの方向は明確で、捜査機関には暗号データを復号可能な条件を与え、こうした条件を満たさない暗号技術の使用を何らかの形で規制しようとするものになるのではと危惧しています。とくにエンド・ツー・エンドと呼ばれる暗号の場合、解読できるのは、データの送り手と受け手だけです。自分のデータをクラウドに上げている場合、クラウドでデータが暗号化されており、その暗号を解読する鍵をクラウドサービスの会社も持っておらず、コンテンツにアクセスできない、といった場合がこれに該当します。これまでAppleのiCloudはこのようなエンド・ツー・エンド暗号化でユーザーを保護してきたことが重要な「売り」だったわけですが、この方針を覆しました。メールではProtonmailやTutanotaが エンド・ツー・エンド暗号化のサービスを提供しています。Appleが採用した方法は、私の理解する範囲でいうと、自分が保有しているデバイスの写真をiCloudにアップロードするときにスキャンされて、児童ポルノに該当すると判断(AIによる判断を踏まえて人間が判断するようです)された場合には、必要な法的手続がとられたりアカウントの停止などの措置がとられるというもののようです。これをiPhoneなど自分が保有しているデバイスに組み込むというわけです。これはある意味ではエンド・ツー・エンド暗号化の隙を衝くようなやりかたかもしれません。画像スキャンや解析の手法と暗号化との組み合わせの技術が様々あり、技術の詳細に立ち入って論評できる能力はありませんが、問題の本質的な部分は、自分のデバイスのデータをOS提供企業がスキャンしてそれを収集することが可能であるということです。スキャンのアルゴリズムをどのように設計するかによって、いくらでも応用範囲は広がると思います。児童ポルノはこうした監視拡大の最も否定しづらい世論を背景として導入されているにすぎず、同じ技術を別の目的で利用することはいくらでも可能ではないかと考えられます。OS提供企業が捜査機関や政府とどのような協力関係を結ぼうとするのかによって、左右されることは間違いありません。ちなみに、iCloudそのものは暗号化されているというのが一般の理解で、わたしもそう考えてきましたが、復号鍵をAppleが保有しているとも指摘されているので、もしこれが本当なら、そもそものエンド・ツー・エンドの暗号化そのものすら怪しいことになります。
このAppleの決定はたしかに意外ではありますが、他方で全く予想できなかったことかといえばそうではないと思います。とくに米国の多国籍IT企業は、トランプの敗色が濃くなったころから、掌を返したようにトランプやその支持者を見限ったように、企業の最適な利益を獲得するために権力に擦り寄ることはとても得意です。バイデン政権は民主党伝統の「人権」政策を押し立てるでしょうから、今回のAppleの決定もこうした政権の傾向と無関係だとは思いせん。そして、常にインターネットをめぐる問題、あるいは私たちのコミュニケーションの自由を規制しようとする力は、「人権」を巧妙に利用してきました。人道的介入という名の軍事力行使もこの流れのひとつであるように、人権も人道も政治的権力の自己再生産のための道具でしかなく、資本主義がもたらす人権や人道と矛盾する構造を隠蔽する側に立つことはあっても、こうした問題を解決できる世界観も理念も持っているとはいえないと思います。今回は「児童ポルノ」など子どもへの性的暴力が利用されました。児童ポルノをはじめとする子どもの人権を侵害するネットが槍玉に挙げられることはこれまでもあったことですが、こうした規制によって子どもへの性的暴力犯罪が解決したとはいえず、子どもの人権の脆弱な状況に根本的な改善がみられたわけでもなく、もっぱら捜査機関などの権限だけが肥大化するという効果しかもたらしていません。現実にある暴力や差別などの被害を解決するという問題は、現実の制度に内在する構造的な問題を解決することなくしてはありえないことであり、その取り組みは既存の権力者にとっては自らの権力を支えるイデオロギー(家父長制イデオロギーや性道徳規範など)の否定が必要になる問題です。だからこそ、こうした問題に手をつけずに、ネットの表象をその身代わりにすることで解決したかのようなポーズをつくることが繰り返されてきたのだと思います。
この公開書簡の内容はいろいろ不十分なところもあります。上述したようにAppleがなぜ方針転換したのかという背景には切り込んでいませんし、暗号化は悪者も利用する道具であることを前提してもなお暗号化は絶対に譲ってはならない私たちの権利だという観点についても十分な議論が展開されていません。こうした議論が深まらないと、網羅的監視へとつきすすむグローバルな状況に対抗する運動も政策対応以上のものにはならないという限界をかかえてしまうかもしれません。議論は私(たち)に課せられた宿題なので、誰か他の人に、その宿題をやってもらおうという横着をすべきではないことは言うまでもありませんが。
(付記)iCloudの暗号化については以下のAppleのサイトを参照してください。
https://support.apple.com/ja-jp/HT202303?cid=tw_sr
下記の記事が参考になりました。
(The Hacker Factor Blog)One Bad Apple
==================================
出典: https://www.jca.apc.org/jca-net/ja/node/130
JCA-NETをはじめとして、世界中の91の団体が共同で、アップル社に対して共同書簡を送りました。以下は、その日本語訳です。 英語本文はこちらをごらんください。
公開書簡
宛先:ティム・クック
Apple, Inc.CEO
クック氏へ。
世界中の市民権、人権、デジタルライツに取り組む以下の団体は、Appleが2021年8月5日に発表した、iPhoneやiPadなどのApple製品に監視機能を搭載する計画を断念することを強く求めます。これらの機能は、子どもたちを保護し、児童性的虐待資料(CSAM)の拡散を抑えることを目的としていますが、保護されるべき言論を検閲するために使用され、世界中の人々のプライバシーとセキュリティを脅かし、多くの子どもたちに悲惨な結果をもたらすことを懸念しています。
Appleは、テキストメッセージサービス「Messages」の画像をスキャンする機械学習アルゴリズムを導入し、ファミリーアカウントで子どもと特定された人との間で送受信される性的表現を検出すると発表しました。この監視機能は、アップルのデバイスに組み込まれます。このアルゴリズムは、性的に露骨な画像を検出すると、その画像がセンシティブな情報の可能性があることをユーザーに警告します。また、13歳未満のユーザーが画像の送受信を選択すると、ファミリーアカウントの管理者に通知が送られます。
性的表現を検出するためのアルゴリズムは、信頼性が低いことが知られています。芸術作品、健康情報、教育資料、擁護メッセージ、その他の画像に誤ってフラグを立ててしまう傾向があります。このような情報を送受信する子どもたちの権利は、国連の「子どもの権利条約」で保護されています。さらに、Appleが開発したシステムでは、「親」と「子」のアカウントが、実際には子どもの親である大人のものであって、健全な親子関係を築いていることを前提としています。こうした前提は必ずしも正しいものではなく、虐待を受けている大人がアカウントの所有者である可能性もあり、親への通知の結果、子どもの安全と幸福が脅かされる可能性もあります。特にLGBTQ+の若者は、無理解な親のもとで家族のアカウントを利用しているため、危険にさらされています。この変更により、送信者と受信者のみが送信情報にアクセスできるエンドツーエンドで暗号化されたメッセージシステムを通じた機密性とプライバシーがユーザーに提供されなくなります。このバックドア機能が組み込まれると、政府はアップル社に対して、他のアカウントへの通知や、性的表現以外の理由で好ましくない画像の検出を強制することが可能になります。
また、Appleは、米国の「National Center for Missing and Exploited Children(行方不明および搾取される子供のための全国センター)」やその他の子供の安全に関する組織が提供するCSAM画像のハッシュデータベースを自社製品のOSに組み込むと発表しました。これは、ユーザーがiCloudにアップロードするすべての写真をスキャンします。一定の基準に達した場合には、そのユーザーのアカウントを無効にし、ユーザーとその画像を当局に報告します。多くのユーザーは、撮影した写真を日常的にiCloudにアップロードしています。このようなユーザーにとって、画像の監視は選択できるものではなく、iPhoneやその他のAppleデバイス、そしてiCloudアカウントに組み込まれています。
この機能がApple製品に組み込まれると、Appleとその競合他社は、CSAMだけでなく、政府が好ましくないと考える他の画像も含めて写真をスキャンするよう、世界中の政府から大きな圧力を受け、法的に要求される可能性があります。それらの画像は、こうした企業が人権侵害や政治的抗議活動、「テロリスト」や「暴力的」コンテンツとしてタグ付けした画像であったり、あるいはスキャンするように企業に圧力をかけてくる政治家の不名誉な画像などであるかもしれないのです。そしてその圧力は、iCloudにアップロードされたものだけでなく、デバイスに保存されているすべての画像に及ぶ可能性があります。このようにしてAppleは、世界規模での検閲、監視、迫害の基礎を築くことになります。
私たちは、子どもたちを守るための取り組みを支援し、CSAMの拡散に断固として反対します。しかし、Appleが発表した変更は、子どもたちや他のユーザーを現在も将来も危険にさらすものです。私たちは、Appleがこのような変更を断念し、エンドツーエンドの暗号化によってユーザーを保護するという同社のコミットメントを再確認することを強く求めます。また、Appleが、製品やサービスの変更によって不均衡な影響を受ける可能性のある市民社会団体や脆弱なコミュニティと更に定期的に協議することを強く求めます。
敬具
[署名団体]
Access Now (Global)
Advocacy for Principled Action in Government (United States)
African Academic Network on Internet Policy (Africa)
AJIF (Nigeria)
American Civil Liberties Union (United States)
Aqualtune Lab (Brasil)
Asociación por los Derechos Civiles (ADC) (Argentina)
Association for Progressive Communications (APC) (Global)
Barracón Digital (Honduras)
Beyond Saving Lives Foundation (Africa)
Big Brother Watch (United Kingdom)
Body & Data (Nepal)
Canadian Civil Liberties Association
CAPÍTULO GUATEMALA DE INTERNET SOCIETY (Guatemala)
Center for Democracy & Technology (United States)
Centre for Free Expression (Canada)
CILIP/ Bürgerrechte & Polizei (Germany)
Código Sur (Centroamerica)
Community NetHUBs Africa
Dangerous Speech Project (United States)
Defending Rights & Dissent (United States)
Demand Progress Education Fund (United States)
Derechos Digitales (Latin America)
Digital Rights Foundation (Pakistan)
Digital Rights Watch (Australia)
DNS Africa Online (Africa)
Electronic Frontier Foundation (United States)
EngageMedia (Asia-Pacific)
Eticas Foundation (Spain)
European Center for Not-for-Profit Law (ECNL) (Europe)
Fight for the Future (United States)
Free Speech Coalition Inc. (FSC) (United States)
Fundación Karisma (Colombia)
Global Forum for Media Development (GFMD) (Belgium)
Global Partners Digital (United Kingdom)
Global Voices (Netherlands)
Hiperderecho (Peru)
Instituto Beta: Internet & Democracia – IBIDEM (Brazil)
Instituto de Referência em Internet e Sociedade – IRIS (Brazil)
Instituto Liberdade Digital – ILD (Brazil)
Instituto Nupef (Brazil)
Internet Governance Project, Georgia Institute of Technology (Global)
Internet Society Panama Chapter
Interpeer Project (Germany)
IP.rec – Law and Technology Research Institute of Recife (Brazil)
IPANDETEC Central America
ISOC Bolivia
ISOC Brazil – Brazilian Chapter of the Internet Society
ISOC Chapter Dominican Republic
ISOC Ghana
ISOC India Hyderabad Chapter
ISOC Paraguay Chapter
ISOC Senegal Chapter
JCA-NET (Japan)
Kijiji Yeetu (Kenya)
LGBT Technology Partnership & Institute (United States)
Liberty (United Kingdom)
mailbox.org (EU/DE)
May First Movement Technology (United States)
National Coalition Against Censorship (United States)
National Working Positive Coalition (United States)
New America’s Open Technology Institute (United States)
OhmTel Ltda (Columbia)
OpenMedia (Canada/United States)
Paradigm Initiative (PIN) (Africa)
PDX Privacy (United States)
4
PEN America (Global)
Privacy International (Global)
PRIVACY LATAM (Argentina)
Progressive Technology Project (United States)
Prostasia Foundation (United States)
R3D: Red en Defensa de los Derechos Digitales (Mexico)
Ranking Digital Rights (United States)
S.T.O.P. – Surveillance Technology Oversight Project (United States)
Samuelson-Glushko Canadian Internet Policy & Public Interest Clinic (CIPPIC)
Sero Project (United States)
Simply Secure (United States)
Software Freedom Law Center, India
SWOP Behind Bars (United States)
Tech for Good Asia (Hong Kong)
TEDIC (Paraguay)
Telangana (India)
The DKT Liberty Project (United States)
The Sex Workers Project of the Urban Justice Center (United States)
The Tor Project (Global)
UBUNTEAM (Africa)
US Human Rights Network (United States)
WITNESS (Global)
Woodhull Freedom Foundation (United States)
X-Lab (United States)
Zaina Foundation (Tanzania)