(Access Now)人工虐殺知能:イスラエルはいかに人権侵害と戦争犯罪を自動化しているか

Categories
< Back
You are here:
Print

(Access Now)人工虐殺知能:イスラエルはいかに人権侵害と戦争犯罪を自動化しているか

発行:2024年5月9日最終更新日2024年5月9 日

人工知能(AI)に関する最近の一般的な言説は、終末のシナリオや、高度なAIシステムが人間の制御を逃れるというSF的予測に支配されている。その結果、人々がAI戦争について語るとき、完全自動化された「殺人ロボット」が野放しにされていると考えがちだ。しかし、イスラエルのガザ戦争が明らかにしたのは、もっと平凡で、特に洗練されているわけでもないAI監視システムが、すでにディストピア的なテクノロジー主導の恐怖を解き放つために使われているということだ。

最近のメディアの調査で明らかになったように、イスラエルのAI標的システム「ラベンダー」と「ゴスペル」は、ガザ地区全域で大量殺戮と破壊を自動化している。これは、バイオメトリクス監視システムや予測的取り締まりツールなど、権利を侵害する多くのAIが有している傾向の典型であり、私たちが以前から警告を発してきたものだ。ガザにおけるAIによって強化された戦争は、人権と相容れないテクノロジーの使用を政府が禁止することの緊急の必要性を示している。

上空からの死:実験技術研究所としてのガザ

イスラエルが戦争にAIを利用するのは新しいことではない。イスラエルは何十年もの間、ガザ地区を新しい技術や兵器の実験場として利用し、その後に、他国にこれを販売してきた。2021年5月の11日間にわたるガザへの軍事砲撃は、イスラエル国防軍(IDF)によって “最初の人工知能戦争“とさえ呼ばれた。現在のガザ攻撃では、イスラエルは以下のような3つの大まかなカテゴリーに分類されるAIツールを使用している。

  1. 致死的自律兵器システム(Lethal autonomous weapon systems、LAWS)と半自律兵器(semi-autonomous weapons 、半LAWS)。イスラエル軍は、テントや学校、病院、住宅地に避難している民間人を監視し、恐怖を与え、殺害するために、機関銃やミサイルを搭載した遠隔操作のクアッドコプター(※)を 先駆的に使用してきた。ガザのヌセイラット難民キャンプの住民の報告によれば、パレスチナ人をおびき出し、標的にするために、赤ん坊や女性の泣き声を放送するドローンもあるという。イスラエルは何年もの間、ガザ国境沿いに「自爆ドローン」、自動化された「ロボ・スナイパー」、AIを搭載した砲台を配備し、「自動化された殺戮地帯」を作り出してきた。2021年には、「ジャガー」という名の半自律型軍事ロボットも配備し、「国境で兵士の代わりを務めることができる世界初の軍事ロボットのひとつ」と宣伝されている。​​​​​​
  2. 顔認識システムとバイオメトリクス監視。 イスラエル軍のガザ侵攻は、すでにヨルダン川西岸地区と東エルサレムに導入されているパレスチナ人へのバイオメトリクス監視を拡大する機会となった。『ニューヨーク・タイムズ』は、イスラエル軍がガザで大規模な顔認識システムを使っていると報じた。報道によれば、このシステムはイスラエル企業Corsightと Google Photosの技術を使い、群衆やドローンの不鮮明な映像からさえも顔を抽出するという。​​​​​​​
  3. 自動化された標的生成システム:特に、インフラストラクチャーの標的を生成する「ゴスペル」、人間個人の標的を生成する「ラベンダー」、[ハマースなどの]戦闘員と疑われる人物が家族と家にいるときに彼らを追跡し標的にするように設計されたシステム「ダディはどこ?」がある。

LAWS、そして一定程度は準LAWSについても、国連によって「政治的に容認できず、道徳的に嫌悪すべきもの」として非難され、禁止を求める声が高まっている。戦争におけるAIの標的生成システムの使用は、バイオメトリクスによる集団監視と相まって、平時にはすでに禁止されているはずの技術が、戦時には壊滅的さらには大量殺戮的な影響を及ぼすことが実証されていることから、さら注視する必要がある。

大量殺戮の自動化:戦争におけるAIの致命的な帰結

当初は衝撃的な新境地のように思えるかもしれないが、ゴスペルやラベンダーのようなターゲティング・システムの使用は、実際には、すでに世界中で使われている別のAIシステムの最先端にあるものに過ぎない。イスラエル軍が「データ駆動型システム」を使って、誰がハマースの工作員なのか、あるいはどの建物がハマースの拠点なのかを予測しているように、法執行機関はAIシステムを使って、どの子どもが犯罪を犯す可能性があるのか、あるいはギャングの一員なのか、あるいはどこに臨時警官を配置すべきなのかを予測している。こうしたシステムは本質的に差別的であり、重大な欠陥がある。ガザでは、その結果が致命的なものになることもある。

このようなシステムが人権に与える影響について考えたとき、私たちは、まず第一にシステムが機能不全に陥った場合、第二にシステムが意図したとおりに機能した場合、それぞれの結果に注目する必要がある。いずれの状況においても、人間を統計的なデータポイントに還元することは、人々の尊厳、安全、生活に重大かつ不可逆的な結果をもたらす。

ターゲティング・システムの誤作動に関して言えば、重要な懸念は、これらのシステムが欠陥のあるデータに基づいて構築され、訓練されているということである。 972Magazineの調査によると、システムに投入された訓練データには、ガザのハマース政府の非戦闘員の職員に関する情報が含まれており、その結果、ラベンダーは、既知のハマスの戦闘員とコミュニケーションや行動パターンが似ている個人を誤って標的としてしまった。その中には、警察や民間防衛の職員、戦闘員の親族、さらには単にハマースの工作員と同姓同名の人物も含まれていた。

972Magazine報じたように、ラベンダーは、個人のハマスとの関係を特定する際のエラー率が10%あったにもかかわらず、イスラエル国防軍は、”あたかも人間の判断であるかのように”自動的にこの殺害リストを採用することを大々的に承認した。兵士たちは、ラベンダーの出力やその情報データソースの正確性を徹底的あるいは独自にチェックする必要はなかったと報じられている。爆撃を許可する前に義務付けられたチェックは、マークされたターゲットが男性かどうかを確認することだけで、これには「20秒」ほどしかかかっていない。

また、このようなシステムの精度をテストする確実な方法もなく、その性能を検証することもできない。特に、予測の根拠となっているデータに潜在的な欠陥があることを考えると、ハマースとの関係を検証するプロセスは非常に複雑だ。機械学習システムが「将来の犯罪の可能性」のような複雑な人間の属性を確実に予測することは不可能だということは、データが不十分でシステムが代用(例えば、実際に行われた犯罪のデータとは対照的に逮捕されたデータ)に依存しているためだというだけでなく、単に「データが多ければ多いほど予測がよくなる」というわけでもないということによっても繰り返し示されてきた。

このようなシステムの精度や人間による検証の欠如だけでなく、より本質的な懸念は、その使用がいかに人権や、人権から派生する人間の尊厳と根本的に対立しているかということである。このことは、イスラエルのAI標的システムは意図したとおりに機能している、という現実によって示されている。IDF(イスラエル国防総省)が述べているように、「今、我々は最大限の損害をもたらすことに集中している」。兵士たちは毎日、より多くの爆撃の目標を作り出すようプレッシャーをかけられ、ラベンダー色にマークされた下級武装勢力とされる人物の自宅を標的に、無誘導ミサイル、つまり「ダム爆弾」を使用したと言われている。これは、巻き添え被害を計算するためにイスラエルがAIを使用したことと相まって、パレスチナ人を大量に殺害し、第二次世界大戦以来見られなかったレベルの破壊をもたらしたと国連は指摘している。

このようなAI標的システムの使用は、生死を分ける決断に対する人間の責任をうまいこと軽減し、アルゴリズムによる客観性の皮をかぶって大量破壊・殺人キャンペーンを隠蔽しようとするものだ。「ラベンダー」や「ダディはどこ?」のようなシステムは、人間を根本的に非人間化する前提に立っているため、倫理的で人道的な使用方法などはない。これらは禁止されなければならない。そして、監視インフラやバイオメトリクス・データベース、その他の「平時のツール」を廃止する必要がある。

残虐な犯罪におけるビッグ・テックの役割

上述したように、平時に開発・配備された監視インフラは、戦時に簡単に再利用され、最悪の人権侵害を可能にする。このことは、軍事目的に使用可能な民間技術を提供するビッグテック企業の役割に疑問を投げかけるものだ。特に、GoogleやAmazon Web ServiceがProject Nimbusを通じて イスラエルに提供しているクラウド・コンピューティングや機械学習サービスがそうだ。さらに、Metaが所有するWhatsAppのメタデータが、ラベンダーのターゲティングシステムにデータを提供するために使用されていることも示唆されている。

人権に対する責任に対処せず、イスラエル政府にこれらのサービスを提供し続けることで、Google、AWS、Metaなどの企業は、イスラエル軍や諜報機関、そしてガザでの残虐犯罪を幇助する共犯者となる危険性がある。

ターゲットを大量に生産し、民間人の犠牲者の数を「合理的」に決定し、最終的には生死を分ける決断に対する人間の責任を放棄するために使用可能な大量監視インフラの開発を許すことはできない。私たちは、予測的取り締まり、バイオメトリクスによる集団監視、ラベンダーのような標的生成システムなど、人権と相容れないAIの利用を禁止するよう、すべての政府に改めて求める。イスラエルがガザで使用しているシステムは、政府の長年にわたる拡大し続ける大規模監視ラボとともに、実現することは許されず、決して実現させてはならないさらなるディストピアの未来を垣間見せている。

https://www.accessnow.org/publication/artificial-genocidal-intelligence-israel-gaza/

訳注:

クアッドコプター。4個の回転翼を持つヘリコプターで、ドローンとして作られることが多い(英辞郎)

Table of Contents