Howdy! How can we help you?
-
EFF_自己防衛マニュアル23
-
気候変動1
-
ブラウザ11
-
戦争53
-
ヘイトスピーチ18
-
偽情報、誤情報17
-
ジェンダー4
-
国家安全保障17
-
fediverse22
-
alternative_app20
-
デジタルセキュリティツール40
-
国内の監視社会化と反監視運動15
-
VPN13
-
GIFCT2
-
政府・国際機関の動向77
-
スパイウェア23
-
OS関係8
-
教育・学校9
-
監視カメラ17
-
労働現場の監視9
-
プライバシー215
-
デジタルID(マイナンバーなど)16
-
GPS2
-
AI85
-
オリンピックと監視社会7
-
文化14
-
労働運動18
-
リンク集12
-
金融監視2
-
COVID-19と監視社会18
-
検閲114
-
海外動向433
-
オンライン会議システム7
-
暗号化98
-
アクティビストとセキュリティ34
-
ビッグテック、大量監視248
-
SNSのセキュリティ21
-
共謀罪1
-
メールのセキュリティ32
-
Articles1
(PI)ビッグテックが戦争に加担するとどうなるか?
以下は、英国のPrivacy Internationalのブログの記事の翻訳です。(としまる)
各国政府は軍事用AIの優位性獲得に向け、急速に方向転換している。AI産業がこうした技術を生み出せば、いずれ私たち全てが標的となる。
要点
- AI企業は軍事・政府機関との契約を拡大しているが、ユーザープライバシーに関する倫理的約束を守れない実態が明らかになっている。
- 世界中で利用される製品を提供するこれらの企業は、非米国ユーザーが犠牲になっても仕方がないと見なしている。AIによる大量監視は国籍を問わず全ての人を脅かす。
- 政府は国家安全保障法を盾に監督を回避するようなことを止めねばならない。そして人々は、これらの企業のテクノロジーが人々に対してどう利用されているかを知る権利がある。
投稿日
2026年3月6日

AI企業は依然として米国戦争省/国防総省との連携に苦労している。OpenAIは米国戦争省との契約に苦慮し、契約の修正により「自社のシステムが米国居住者および米国国籍者の国内監視に故意に使用されない」ことを明記した。
この騒動は、Anthropicが「アメリカ人の監視や完全自律兵器」への利用を許すよう迫られたが抵抗したと述べて政府がAnthropicをサプライチェーン上のリスクと宣言したことに続くものだ。
現在Anthropicは妥協点を見出そうとしている。これは米国中央軍が新たな作戦の一環としてAnthropicのClaude AIツールを使用したと報じられる中での不可解な展開だ。
では、ビッグテックが戦争に参戦するとはどういう意味か?
2023年以降、AI業界は軍事用途へのサービス提供を公然と行い、ユーザーデータを戦争に巻き込まないという約束を撤回する方向に転換してきた。シリコンバレーも愛国主義への転換を始め、新たな契約に署名し、一部の上級職員が軍務に就いた。
そして昨年、Microsoft や Google はイスラエル国防省との契約で問題を起こした。政府とビッグテック企業が戦争(及び犯罪)遂行のために互いに依存する構図が、これまで以上に注目されるようになったのだ。
これらのテクノロジー企業は、本当にこうした関係が円滑に進むと想像していたのだろうか?おそらく彼らは、これらのサービスが兵站や戦略のみに関わるものと考え、米国政府への奉仕では愛国心を示しつつ、他国政府へのIT支援では中立を保てると思っていたのかもしれない。
あるいはOpenAIが示唆するように、追加的で問題のある用途を防ぐシステムを構築できると考えていたのかもしれない。さもなくばクラウドサービスプロバイダーのように、自社のサービスが実際にどう使われているかは把握しないということによって、例えば戦争犯罪への関与を問われるのを避けられると期待していたのかもしれない。
政府が戦争にAIを利用するには、これらの企業のサービスが必要だ。私たちには彼らの関係性についてもっと知る必要がある——そして私たちが問うのは以下の点だ。
1. これらの新たな戦争機械に投入されるデータはどこから来るのか?
AI企業と米国防総省の対立の核心はデータの出所にある。政府は米国に居住する人を含む人々に関する情報データを保有しており、AIを用いて大量解析したいと考えていることにAntropicは異論を唱えたと報じられている。
理論上、政府は米国に居住する人に対する監視活動の方法に規制を課されているが、データブローカーからこうした人々に関するデータを購入することは可能だ。他国政府も同様に可能である。
Anthropicが述べているように、「強力なAIは、散在し個々では無害なデータを、あらゆる個人の人生を包括的に描き出す情報へと自動的かつ大規模に統合することを可能にする」。
政府や企業が市民か否かを問わず、個人のデータを大量に取得できる状況は、確かに全ての人々に対する脅威だ。このデータの収集・利用を巡る秘密の契約交渉を続けるよりも、あるいはAIが法的問題を検知してデータ処理を停止してくれと夢想するよりも、データブローカーによるデータ蓄積とその転売を規制すべきだ。戦争機械が無差別に民間データを保持すべきではない。
2. 国内・国外の大量監視は今では許容されるビジネスサービスなのか?
民間ソースからの民間データが戦争機械に流れ込む。これは米国政府に限った話ではない。バイデン政権の国家情報長官室がこの問題を調査し、大統領令を発令した。対象はアメリカ人の個人データの「懸念国」への大量移転だ。英国政府もまさにこの問題に関する協議を開始している。
従来、政府の監視権限に対する制限は、直接監視や政府のデータ処理能力を規制するルールという形で存在した。しかし今や、AI企業やクラウドプロバイダーが大量監視を可能にし、これを現実のものとしている。膨大なデータ処理が実現できるのは、彼らが政府と結ぶ契約を通じてである。
大量監視は間違っている。それは国家権力の再現のない拡大と個人に対する管理を可能にし、三権分立を阻害し、私たちのあらゆる権利を侵害する。
国連人権高等弁務官が述べたように、「国家安全保障のために無差別な大量監視が必要だと主張する国もあるが、こうした措置では個別的な必要性と比例性の判断が不可能であるため、国際人権法の下ではこうした慣行は許容されない」。企業倫理に関する公約をめぐる企業と政府の争いに気を取られ、大量監視がもたらす現実的な脅威とそれが私たちの生活に与える影響を見逃してはならない。
膨大なデータ収集・処理を可能にするシステムは、既存の人権基準に準拠し、安全性を確保しなければならない。政府が国内外の市民に対し、紛争の合間であってさえも事前にデータを収集するこの時代に、監視に関する規制は既存の水準に準拠するよう早急に見直される必要がある。
政府は「国家安全保障法」や関連慣行を口実に、世界中の人々をより大きなリスクに晒す大量監視活動に対する必要不可欠な監督を免れるような行為を止めねばならない。
3. 企業のユーザーに対する企業の倫理的責任はどこで終わり、企業の国家への忠誠がどこで始まるのか?
この問いは特に厄介であり、意図的に厄介なものにされている。第一に、企業が倫理原則を掲げ人権義務を遵守すると主張する限り、政府や軍との契約内容を明らかにすることが極めて重要だ。
世界中の国防機関が国内外の人々のデータを大量収集し、ビッグテック企業に処理を委託する場合、ビッグテック企業の「アメリカの人々」に対するナショナリスト的な配慮は、いったいどの時点で実現不可能になるのか?
イスラエル国防省がMicrosoftのサービスで傍受データを処理した際、同サービスには米国の居住者が含まれていないか分析しただろうか?この点には一切触れられず、Microsoftは倫理的理由を掲げて契約の一部を解除した。(誤解しないでほしいが、私たちは全ての人のデータが平等に保護されるべきだと考えており、ここでは、ただこの議論の不合理性を示そうとしているだけだ。)
この時代にアメリカの居住者だけを保護することに固執するのは、ばかげていて無責任だ。しかし、これらの企業がこの点でプレッシャーを感じる理由は、彼らがアメリカ企業だからだ。彼らはすべての人のプライバシーを保護する責任も負うべきである。
これらの企業は消費者向け企業であり、もし彼らが非アメリカ人消費者non-American consumersのプライバシーを保護しないとポリシーに明記していたら、それは滑稽でリスクの高い経営判断と見なされるだろう。
ではなぜ、非アメリカ人を高度な監視によって危険に晒し、自律兵器による標的化さえ招きかねない行為が許されるのか?
他国政府がアメリカの居住者を含む人々についてデータを蓄積する場合、今や愛国的なビッグテック企業は契約でこの処理を禁止するか、AI設計でこれを防ぐことを約束せねばならない。私たちはこれらの企業が、あらゆる政府契約において全ての人のプライバシーを尊重することを求める。これを検証するため、特にリスクが極めて高い場合には、全ての契約が明確かつ透明でなければならない。

4. もし私たちの命が全て標的になるなら、誰もがそれを知るべきではないか?
世界中の大量監視法との闘いにおいて、私たちは政府の最も強力な部門と対峙することになる。彼らは法律を含む様々な手段を用いて、監督から身を守ろうとする。私たちは前進しつつはあるが、それは激しい過酷な闘いである。
政府関係者よりも企業がこれらのシステムを熟知していることから、こうした濫用を防ぐため、OpenAIの技術的解決策やPalantirの実装に安全策を組み込めるのではないかという議論があった。しかしこれはAnthropicのCEOによって「見せかけの安全対策」として却下された
「モデルが大量監視や完全自律兵器のようなアプリケーションに用いられるかどうかは、より広い文脈に大きく依存するという根本的な問題がある。モデルは(自律兵器に関して)自分が置かれている広範な状況において、その輪の中に人間がいるかどうかを「知る」ことはできず、また分析しているデータの出所も知らない。(つまり米国国内データか外国データか、カスタマーの同意を得た企業データか怪しい手段で入手したデータかなど、判別不能だ)」
投資家、カスタマー、そして世界中の人々は、その技術が人々に敵対的に使われる場合も含めて、これらの企業が自社のテクノロジーをどのように販売し、構築し、開発しているのかを知る権利がある。
これは私たち(そしてあなたのデータ)が彼らの開発に貢献している以上、重要なことだ。こうした歯止めがなければ、業界は支配権を争うために政治的な駆け引きを続けるだろう。特にクラウドコンピューティングや生成AIのような汎用ツールを構築する企業ではなおさらだ。
彼らが政府との契約に安全装置を設けることができない限り——そして彼らが苦労することはわかっている——そもそも政府と協力すべきではないだろう。
https://privacyinternational.org/news-analysis/5744/what-does-it-mean-when-big-tech-goes-war