Howdy! How can we help you?
-
EFF_自己防衛マニュアル23
-
気候変動1
-
ブラウザ13
-
戦争55
-
ヘイトスピーチ18
-
偽情報、誤情報18
-
ジェンダー4
-
国家安全保障19
-
fediverse22
-
alternative_app20
-
デジタルセキュリティツール42
-
国内の監視社会化と反監視運動22
-
VPN15
-
GIFCT2
-
政府・国際機関の動向87
-
スパイウェア23
-
OS関係8
-
教育・学校9
-
監視カメラ17
-
労働現場の監視9
-
プライバシー221
-
デジタルID(マイナンバーなど)16
-
GPS2
-
AI89
-
オリンピックと監視社会7
-
文化14
-
労働運動18
-
リンク集12
-
金融監視2
-
COVID-19と監視社会18
-
検閲114
-
海外動向443
-
オンライン会議システム7
-
暗号化98
-
アクティビストとセキュリティ34
-
ビッグテック、大量監視252
-
SNSのセキュリティ21
-
共謀罪1
-
メールのセキュリティ35
-
Articles1
(EFF)曖昧な言葉:OpenAIの国防総省との契約はAI監視を止められない
コリン・マクシェリーとMatthew Guarigliaによる
2026年3月6日
ChatGPTの開発元であるOpenAIは、米国防総省(DoD)が競合他社Anthropicが監視や自律兵器システムへのAI利用制限の撤廃を拒否したことで生じた空白を埋める決断をしたことで、当然ながら広範な批判に直面している。政府による大規模監視を支援する意図で契約したわけでもないユーザーと従業員からの抗議を受け——初期報告によれば、契約発表後ChaptGPTのアンインストール数は300%近く増加した——OpenAIのサム・アルトマンCEOは、当初の合意が「機会主義的でずさん」だったと認めた。その後、彼はソーシャルメディアで内部メモを再公開した。そこでは合意内容に追加された条項が「合衆国憲法修正第4条、1947年国家安全保障法、1978年外国情報監視法(FISA)を含む適用可能な法に準拠し、AIシステムは米国居住者及び国民に対する国内監視に故意に使用されない」ことを明確にすると述べている。
問題は、米政府が「適用可能な法に準拠する」を「国内監視禁止」とは解釈していない点だ。むしろ政府は「適用可能な法」を甘く解釈し、大量監視や市民的自由の大規模侵害を容認してきた。そして裁判所の判断を阻止するために必死に闘っている。
「結局のところ、歴史上最も悪名高い人権侵害の多くは、当時の既存法の下では『合法』だったのだ。」
「故意に」という語もこの文脈で非常に重要な役割を果たしている。長年、政府は米国人に対する大量監視が偶発的に(つまり意図的ではない)発生すると主張してきた。その根拠は、米国内外の通信が監視プログラムに巻き込まれるが、そのプログラムは本来国外の通信のみを収集するよう設計されているという理屈だ。
同社が契約に追加した修正条項も同様の趣旨で、「疑義を避けるため、同省は本制限が米国居住者または国民に対する意図的な追跡、監視、またはモニタリング(商業的に取得した個人識別情報の調達または使用を含む)を禁止するものと理解する」と記している。ここで「意図的」という表現が警戒すべき点だ。情報機関や法執行機関が、より強力なプライバシー保護を回避するために、付随的データや商業的に購入したデータに依存する頻度を考えればなおさらである。
別の例を挙げよう。「AIシステムは、これらの権限に合致する形で米国人のプライベート情報を無制限に監視するために使用してはならない。また、Posse Comitatus法およびその他の適用可能な法で許可される場合を除き、国内法執行活動に使用してはならない」。ここで疑問が生じる。「無制限」とは正確に何を意味するのか——そして誰の基準によるのか?
弁護士はこうした表現を「逃げ口上」と呼ぶことがある。契約違反に対する真の責任追及を回避する曖昧さを生むからだ。国防総省がAnthropicとの交渉で、同社のレッドラインを「適切と判断される場合」にのみ順守すると合意したと報じられている事例と同様、政府は原則として制限を公約しつつ、実際には広範な裁量権を保持しようとしている可能性が高い。
OpenAIはまた、国防総省がNSAに対し、新たな合意がない限りOpenAIのツールを使用させないことを約束したこと、またその展開アーキテクチャがレッドラインの越境を検証するのに役立つことを指摘している。しかし秘密の合意や技術的な保証は、監視機関を抑制するのに十分だったことは一度もなく、強力で強制力のある法的制限や透明性の代わりにはならない。
OpenAI幹部が主張するように、同社と国防総省の契約関係を政府が民主的プロセスに沿った形でAIツールを使用するよう確保する手段として活用しようとしている可能性はある。しかし現時点で判明している情報に基づけば、その期待は極めてナイーブに映る。
さらに、その無邪気さは危険だ。政府が「適用可能な法」の極端で根拠のない解釈を喜んで受け入れる時代において、企業は自らの約束を守るために実際の力を背景に置く必要がある。結局のところ、世界で最も悪名高い人権侵害の多くは、当時の既存法の下では「合法」だった。OpenAIは公約している。AIや汎用人工知能(AGI)が「人類に危害を及ぼす用途や、権力を不当に集中させる用途」を可能にしないよう努めると。だが大量監視を可能にすることが、その両方を引き起こすことは明らかだ。
OpenAIだけではない。消費者向け企業は、一方で人権侵害に加担していないと公衆を安心させつつ、他方で政府の大量監視事業から利益を得ようとしている。 こうした二重言語のマーケティングにもかかわらず、両立は不可能であることは明らかだ。そもそも企業が私たちのプライバシーの制限に対してこれほど大きな権限を持つべきではないことも明らかである。市民は、少数の人々―CEOであれ国防総省の役人であれ―に市民的自由の保護を委ねるべきではない。