(The Intercept)Googleがイスラエルに高度なAIツールを販売していることが文書で明らかになった

Categories
< Back
You are here:
Print

(The Intercept)Googleがイスラエルに高度なAIツールを販売していることが文書で明らかになった

Googleがイスラエルに高度なAIツールを販売していることが文書で明らかになった。
「Nimbus」AIプロジェクトのことを知らされてこなかったGoogleの従業員は、イスラエルの人権侵害を懸念している。

サム・ビドル
2022年7月24日 午前6時
The Interceptが閲覧したトレーニング資料によると、Googleは物議を醸している「Project Nimbus」契約を通じて、イスラエル政府に高度な人工知能と機械学習機能を提供していることが確認された。イスラエル財務省は2021年4月、GoogleとAmazonが共同で構築した12億ドルのクラウド・コンピューティング・システムの契約を発表した。「このプロジェクトは、政府や国防機関などに包括的なクラウド・ソリューションを提供することを目的としている」と同省は発表の中で述べている。

Googleのエンジニアたちは、自分たちの取り組みが、現在進行中のイスラエルによるパレスチナ軍事的占領を気づかないうちに助長することにならないか、懸念を持ちながら時間を過ごしてきた。2021年、Human Rights WatchAmnesty Internationalは、イスラエルがパレスチナ人に対するアパルトヘイト体制を維持し、人道に対する罪を犯していると正式に非難した。イスラエル軍と治安機関はこれまでコンピューターによる高度な監視システムに頼ってきているが、Googleが提供するデータ分析の洗練度は、データ主導の軍事的占領をより一層悪化させる可能性がある。

Nimbusのユーザー向けに一般公開されている教育訓練ポータルを通じてThe Interceptが入手したトレーニング文書とビデオによると、GoogleはGoogle Cloud Platformを通じて利用可能な機械学習とAIのツール一式をイスラエル政府に提供している。Nimbusがどのように使用されるのか、具体的なことは書かれていないが、この文書によると、新しいクラウドはイスラエルに顔検出、自動画像分類、物体追跡、さらには写真、スピーチ、文章の感情に関する内容を評価するとされている感情分析の機能を提供するとのことだ。Nimbusの資料では、オンライン学習サービスCourseraを通じて政府職員が利用できる機関別のトレーニングについて言及し、その例として国防省を挙げている。

監視団体Tech Inquiryのディレクターであるジャック・ポールソンは、イスラエルの契約文書に引用されているポータルのアドレスを見つけ、The Interceptと共有した。

2018年にGoogleの研究科学者としての職を抗議のために辞職したポールソンは「Google Enterpriseの元セキュリティ責任者(現在はOracleのイスラエル支社長)は、Nimbusの目的の1つは、ドイツ政府が国際刑事裁判所にイスラエル国防軍に関するデータを要求するのを阻止することだと公言している」とあるメッセージのなかで述べている。「イスラエル政府がパレスチナ人に対して『アパルトヘイトと迫害の人道に対する罪』を犯しているというHuman Rights Watchの結論を考慮すると、GoogleとAmazonによる IDF[イスラエル国防軍]へのAI監視支援が最大限に記録されていることは極めて重大なことだ」。

文書の一部にはGoogleのロゴとイスラエルの国旗を組み合わせたハイブリッドなシンボルが描かれているが、大部分はNimbus独自のものではない。むしろ、Google Cloudのカスタマーに配布された標準的な教材であり、他の場所でもトレーニングで提供されたものと思われる。

Googleはこの件について、コメントの要請に応じなかった。

The Interceptが入手した文書には、Nimbusとの契約を通じて提供されたGoogle Cloudの機能が詳細に記された初めての文書である。Nimbus については、それが存在すること以外はほとんど何も公表されておらず、システムの具体的な機能は、これを構築した企業で働くほとんどの人々にとっても謎のままだった。2020年、アメリカ税関・国境警備局は、同じAIツールを使って、国境監視塔のネットワークから得られる画像を処理するためにGoogle Cloudを採用した

The Interceptが入手した文書に概説されている能力の多くは、イスラエルの人々を監視し、膨大な蓄積データを処理する能力を容易に増強することができるもので、すでにイスラエル占領の顕著な特徴となってきたものだ。

イスラエルのセキュリティ国家は何十年もの間、この国の活発な研究開発部門からの恩恵を受けており、パレスチナ人を取り締まり管理するためにAIを利用する関心は仮定の話ではない。2021年、『ワシントン・ポスト』紙は、顔認識対応のスマートフォンとカメラのネットワークを通じてパレスチナ人を監視することを目的とした軍の秘密プログラム「Blue Wolf」の存在を報じている。

7amleh-The Arab Center for Social Media Advancementのパレスチナ人デジタル権利擁護者、モナ・シュタヤは「長年監視国家の下で生活してきた私たちは、イスラエル/パレスチナの文脈で収集されるすべての情報が、安全保障化され、軍事化される可能性のあることを教えられてきました」「画像認識、顔認識、情動認識などは、監視国家の力を強め、パレスチナ人のプライバシーの権利を侵害し、彼らの主な目的である、私たちは常に監視されているというパノプティコン的感覚をパレスチナ人の間に植え付け、これがパレスチナ人の人口管理を容易にしています」とメッセージアプリで述べている。

『The Intercept』が入手した教育トレーニング資料でGoogleはイスラエル政府に対して、機械学習の一形態としてますます物議を醸し信用を失くしている感情検出と呼ばれる機能の使用について説明している。Googleは、このシステムが人の顔や発言から内にある感情を見分けられると主張しているが、この技術は一般的に侵襲的で疑似科学的であるとして否定され、骨相学とほとんど変わらないとみなされているものだ。Microsoftは6月、Azureクラウド・コンピューティング・プラットフォームによる感情検出機能の提供を科学的根拠がないことを理由に、終了すると発表した。これは、GoogleがNimbusで提供しているのと同様のテクノロジーである。

GoogleはMicrosoftの懸念を共有していないようだ。あるNimbusのプレゼンテーションでは、Googleの画像解析ツールセットであるCloud Vision APIの「顔、顔のランドマーク、感情」検出機能を宣伝していた。プレゼンテーションでは、シドニーのルナパークの入り口にある巨大なニヤニヤ顔の彫刻を使ったデモが行われた。表向きに動作しているこの機能に含まれるスクリーンショットは、巨大な笑顔がどのような感情も示す可能性は「非常に低い」ことを示している。そしてGoogleは、有名な遊園地がアミューズメントパークであることを64パーセントの確度で評価できただけで、ランドマークが「礼拝所」または「ヒンズー教寺院」であることをそれぞれ83%と74%の確信度で推測した。

Google AIが画像の特徴を検出する能力を示す、Nimbusユーザーに提示されたスライド。クレジット:Google

この文書をレビューしたGoogleの従業員たちは、雇用主がこれらのテクノロジーをイスラエルに売却することを懸念しており、その精度の低さと、監視やその他の軍事目的に使用される可能性の両方を恐れていると述べた。

「監視にとても役立つので、私にとってはVision APIが第一の懸念事項です」とある労働者は言い、画像解析は軍事やセキュリティの用途に当然適していると説明した。「物体認識はターゲティングに有効だし、データ分析やデータラベリングにも使える。AIは、収集した監視カメラの映像を人間にはできない方法で調べ、特定の人々を見つけたり、多少の誤差はあっても誰かに似た人々を特定したりすることができる。だからこそ、こうしたシステムは本当に危険なのです」。

Nimbusのユーザーに提示された、同社のCloud Vision APIを通じて様々なAI機能の概要を説明するスライド。クレジット:Google

The Interceptの取材に応じた他のGoogleの従業員と同様、職場からの報復を避けるために匿名を希望したこの従業員は、Nimbusを通じて提供されるもうひとつのGoogleのAIツールAutoMLの監視型広告などによる軍事的な用途の可能性をさらに警戒していると付け加えた。機械学習は主に、将来の監視について予測を立てるために、パターンを認識するようにソフトウェアを訓練する機能である。例えば、明日子猫の写真を見ていると自信を持って主張するために、今日何百万もの子猫の画像を分析する。このトレーニングプロセスは、「モデル」として知られているものを生み出す。つまり、ある対象物や 特徴を将来のデータの中で自動的に認識するよう適用できる、コンピューター化された教育の体系である。

効果的なモデルをゼロからトレーニングすることは、財政的にも計算量的にも、多くのリソースを必要とする。Googleのような世界規模の企業では、資金もコンピューティング・ハードウェアも底知れぬ量が用意されているため、それほど問題にはならない。Googleのカスタマーに対するアピールのひとつは、事前に訓練されたモデルを使用するというオプションだ。基本的に、この予測作成教育を省略して、企業の無限のリソースの恩恵を受けて十分訓練されたプログラムをカスタマーに利用させるのだ。

Cloud Visionはそのような事前学習済みモデルのひとつで、クライアントはすぐに高度な予測システムを導入することができる。一方、AutoMLは、カスタマー独自の設計のためにカスタマー独自のデータを使用して、カスタムメイドのモデルをトレーニングするプロセスを効率化する。GoogleではCloud Visionにいくつかの制限を設けている。例えば、人物を特定する認識ではなく、顔検出、つまり顔として識別できるかどうかに制限している。しかしAutoMLを使えば、イスラエルは、Googleのコンピューティング能力を活用し、事実上あらゆる目的のために、政府自身のデータを使って新しいモデルを訓練することができる。「Googleの機械学習能力とイスラエル国家の監視インフラは、パレスチナ人の人権を脅かすものです」と、Amnesty Internationalのアルゴリズム・アカウンタビリティ・ラボを率いるダミニ・サティジャは言う。「イスラエル政府がすでに保有している膨大な監視データをシステムの訓練に使用するという選択肢は、このリスクを悪化させるだけです」。

AutoMLを通じて生成されたカスタムモデルは、オフラインの “エッジ[コンピューティング] “の利用、つまりクラウドから切り離して現場で展開するためにダウンロードできると、あるプレゼンテーションでは指摘されている。[訳注:(参考)オフライン環境で画像解析 エッジコンピューティングを試すhttps://xtech.nikkei.com/atcl/nxt/mag/sys/18/032300016/102300008/]

AI監査スタートアップParityのCEOであり、米国国家人工知能諮問委員会のメンバーでもあるリズ・オサリバンによれば、Googleが把握できない場所や方法でNimbusがGoogleクライアントに高度なデータ分析や予測を使わせていることは、悪用のリスクを生むという。オサリバンはあるメッセージのなかで「国はAutoMLを使用して、機能しているように見えるだけの粗悪な監視システムを導入することが可能です」「エッジ・コンピューティングでは、それはさらに悪い – ボディカム、交通カメラ、携帯電話のような携帯端末でさえ、監視マシンになる可能性があり、Googleはそれが起こっていることさえ知らないかもしれない」と述べた。

The InterceptがレビューしたNimbusに関するウェビナーでは、プレゼンテーション後の質疑応答で、AutoMLの潜在的な使用と誤用が例示されていた。匿名の聴衆が、その場にいたGoogle Cloudのエンジニアに、嘘をついているかどうかの判断にNimbusを使ってデータを処理することは可能かと質問した。

「この質問に答えるのはちょっと怖いですね」と、セミナーを担当したエンジニアは冗談めかして言った。「原理的には可能です。後でもっと詳しく説明しますが、端的に答えれば、イエスです」。続いて、別のGoogleの担当者が飛び込んできた。「正しいデータさえあれば、Googleのインフラを使って、ある人物が嘘をついている可能性がどの程度高いかを、その人物の声から識別するモデルを学習させることは可能です」 。このような機能を実現するには、このモデルのために膨大な量のデータが必要になることを指摘した2人目のプレゼンターは、Nimbusの利点の1つは、このようなモデルを訓練するためにGoogleの膨大なコンピューティングパワーを利用できることだと付け加えた。

しかし、単純なポリグラフであれ、「AI」に基づく声の変化や顔の手がかりの分析であれ、「嘘発見器」という概念そのものがジャンク・サイエンスであることを多くの研究が示している。Googleの担当者たちは、企業であれば計算能力を駆使してそのようなことが可能になると確信しているように見えたが、この分野の専門家たちは、真実や感情のような深遠で無形のものを評価するためにコンピュータを使用する試みは、危険なほど欠陥があると言う。

この文書を校閲したあるGoogleの従業員は、私たちは企業がこのような科学的に疑わしい技術をほのめかすことすら懸念していると述べた。「答えは “ノー “であるべきだった。そんなものは存在しないのだから」とその従業員は言った。「Googleのテクノロジーは強力だと宣伝するためのもののように思えるが、不可能なのにそのように言うのは、結局、極めて無責任だ」。

ウェールズにあるバンガー大学のデジタルメディア教授で、Emotional AI Labの代表であるアンドリュー・マクステイは、嘘発見器の応答は「憂慮すべきもの」であり、Googleが疑似科学的なAIツールを政府に売り込もうとしているのも同じことだとThe Interceptに語った。「この分野は間違いが大きいので、これをベースに作られたテクノロジーは、信頼できないものを自動化することになる」「繰り返しますが、こうしたものにさらされる人々は苦しむでしょう。私は、それが保護しようとしている市民にとっても、これらのシステムが主張通りにできるかどうか非常に懐疑的です」と彼は言う。

一部の評論家によれば、これらのツールが機能するかどうかは、Googleのような企業にとっては二の次なのかもしれない、という。顧客である政府もまた、膨大な新テクノロジーが約束している事柄に関しては不信感を抱いているかもしれない。モナシュ大学の研究員でオートメーションテクノロジーの研究者であるジェイサン・サドウスキーは、「ウェビナーのPDFで、彼らが常に “魔法のようなAIのすばらしさ”と言っていたのは非常に示唆的だ」とThe Interceptのインタビューで語った。「それは、彼らがでたらめを言っていることを示しているのです」。

FILE- 2018年5月8日、カリフォルニア州マウンテンビューで開催されたGoogle I/O大会では、Google CEOのスンダル・ピチャイが登壇した。Googleは、AIをどのように使用するかを管理するために設計された新しい一連の原則の一部として、武器や監視に関連する用途に人工知能を使用しないことを約束した。ピチャイによって発表されたこの原則は、Googleが「社会的に有益」であり、偏見を生み出したり強化したりすることを避け、人々に対して説明責任を果たすAI申立書を構築することを約束している。(AP Photo/Jeff Chiu, File)

Googleは、Microsoftと同様に、「AI原則」のリストを公開している。この文書は、企業曰く「当社の研究や製品における人工知能の開発と使用の指針となる倫理憲章」である。適用可能なこの原則の中には、「全体的な危害を引き起こす、または引き起こす可能性のあるAIを……配備しない」という公約が含まれている。これには、兵器や監視、あるいは「その目的が広く受け入れられている国際法と人権の原則に反する」アプリケーションも含まれる。

しかしイスラエルは、Googleとの関係を、企業の原則からも外部からの監視からも遮断するように設定している。ペンタゴンのProject Maven(Google AIの契約で、Googleの従業員の激しい抗議によって頓挫した)の運命を恐れたのか、Nimbusを動かすデータセンターはイスラエル領内に設置され、イスラエルの法律が適用され、政治的圧力から隔離される。昨年、『Times of Israel』紙は、ボイコットキャンペーンにGoogleを受け入れた場合でも、GoogleがNimbusサービスを遮断したり、特定の官庁へのアクセスを拒否したりすることは契約上禁じられていると報じていた。

『The Intercept』のインタビューに応じたGoogleの従業員は、同社のAI原則はせいぜい表向きのジェスチャーに過ぎないと嘆いた。ある従業員は『The Intercept』の取材に対し、「大きな意味があるとは思えません」と述べ、GoogleのAI憲章は極めて狭く解釈されており、Googleクラウドサービスを購入する企業や政府には適用されないと説明した。Googleの広報担当者はDefense Oneの取材で、AIの原則とGoogleのペンタゴンとの企業活動の整合性について尋ねられた。

さらにこの従業員は、Googleの原則が侵害されているかどうかを見分ける能力も、侵害を阻止する手段もGoogleには欠けていると付け加えた。「カスタマーがこれらのサービスで何をしているかを監視する技術的能力は、Googleがこれらのサービスを提供した時点で失なわれます」とこの従業員は語った。「彼らが何をしているかわからないのです。すでに脆弱な立場にある人々が前例のないエスカレートしたレベルの抑圧に直面している今、Googleはこのようなテクノロジーの悪用から人々を守るという約束を反故にしています。Googleと世界の将来が本当に心配です」と述べた。

今年初め、Nimbusについて懸念を表明したことで報復に遭ったと主張しているGoogleの従業員、アリエル・コレンは、このプログラムに関する企業内部の沈黙が続いていると述べた。「Googleの従業員や一般市民に対する倫理的なコミットメントを守りながら、Googleがイスラエル政府や軍(どちらもパレスチナ人に対して毎日重大な人権侵害を行っている)にテクノロジーを提供できるのか、という私の懸念を払拭することはおろか、GoogleがProject Nimbusの契約範囲についての詳細を私たちに全く提供していないことを深く懸念しています」と彼女はThe Intercept宛の電子メールに書いている。「私がGoogleに入社したのは、コミュニティをひとつにし、人々の生活を向上させるテクノロジーを推進するためであり、世界有数の2つの人権団体からアパルトヘイトの罪で告発された政府にサービスを提供するためではありません」と彼女は書いている。

ハイテク企業は、ますます強力になる自社製品が無制限・無監視で販売されているという批判に反論するため、倫理的なAI憲章を発表している。批評家たちはしばしば、この文書は「倫理の洗脳」の一形態であり、基本的に無意味な自主規制の誓約であり、イスラエルとGoogleの契約にある、企業が自社製品の使用の遮断を禁じる条項のような例を指摘して、見せかけの注意深さを示すにすぎないものだと反論している。モナシュ大学の学者、サドウスキーは、「イスラエルは、この入札と契約によってサービス・プロバイダーを閉じ込めるやりかたはテクノロジー調達の真の革新だと思う」と述べた。

サドウスキーに言わせれば、GoogleがAIやその他のテクノロジーについて何を売り込んでいるかはほとんど重要ではない。最終的に企業が売っているのは、単なるソフトウェアではなく、権力なのだ。今日のイスラエルとアメリカであろうと、明日の他の政府であろうと、サドウスキーによれば、一部のテクノロジーは権力の行使を増幅させるものであり、たとえ人権に問題のない国が使用するとしても、ほとんど安心はできない、という。「このようなテクノロジーを彼らに与えて、彼らが本当に邪悪でひどい方法で使用する誘惑に駆られないかどうか注視しよう」「これらは単なる中立的な情報システムではなく、究極的には監視、分析、管理するためのテクノロジーなのだ」と彼は語った。

https://theintercept.com/2022/07/24/google-israel-artificial-intelligence-project-nimbus/ ​

Table of Contents