(Verge)OpenAIが国防総省のAI監視要求に屈した経緯

メインコンテンツへスキップ
Categories
< Back
You are here:
Print

(Verge)OpenAIが国防総省のAI監視要求に屈した経緯

サム・アルトマンの主張は法律の趣旨と異なる

2026年3月2日 23:22(GMT+9)

ヘイデン・フィールド

はThe VergeのシニアAI記者である。5年以上にわたりAI分野を担当し、CNBC、MITテクノロジーレビュー、Wired UKなどにも寄稿している。

金曜日夜、国防総省とAnthropicの対立の余波の中で、OpenAIのサム・アルトマンCEOは発表した。自社が国防総省との新たな条件交渉に成功したと。米政府は直前に、軍事利用に関する二つのレッドラインを堅持したAnthropicをブラックリストに載せる措置を取った。その二つのラインとは、アメリカ人に対する大量監視の禁止と、致死性自律兵器(人間の監督機能なしに標的を殺害する能力を持つAIシステム)の禁止である。しかしアルトマンは、OpenAIの契約において同じ制限を維持する独自の方法を見出したことをほのめかした。

「我々の最重要安全原則の2つは、国内における大規模監視の禁止と、自律兵器システムを含む武力行使における人間の責任である」とアルトマンは記した。「国防総省(DoW)はこれらの原則に同意し、法とポリシーに反映させており、私たちも契約に盛り込んだ」と付け加えた。ここで「DoW」とはトランプ政権が国防総省を指す際に好んで使う呼称「戦争省(Department of War)」を指す。

ソーシャルメディアやAI業界では、人々即座に反論を開始しアルトマンの主張に異議を唱えた。なぜ国防総省が、これまで「決して譲歩しない」と明言してきたこれらのレッドラインを突然受け入れたのか、と彼らは疑問を呈した。

関係者によれば、その答えは国防総省が一切譲歩しなかった点にある。OpenAIは、過去において大量監視を可能にしてきた法律に従うことに同意しつつ、自社のレッドラインが守られることを主張したのだ。

国防総省とAI企業の交渉に詳しい情報筋は、OpenAIの合意内容がAnthropicが求めていたものよりはるかに緩いことを認めた。その主な理由は「あらゆる合法的な利用」という三語にある。交渉において国防総省は、アメリカ人に関する大量データの収集・分析を望む姿勢を一切譲らなかったという。OpenAIの契約条項を一行ずつ見れば、その全ては「技術的に合法であれば、米軍はOpenAIのテクノロジーを用いてそれを実行できる」という一点に帰着すると情報源は指摘する。過去数十年間、米政府は「技術的に合法」の定義を拡大解釈し、広範な大量監視プログラム——そしてそれ以上の行為——を正当化してきたのだ。

OpenAIの元ポリシー研究責任者マイルズ・ブランデージはXでこう述べた。「外部弁護士と国防総省の発言を踏まえると、OpenAI社員は残念ながら『OpenAIは屈服しつつも屈服してないように見せかけ、Anthropicを助けつつも裏切った』と考えるべきだ」

The Verge への声明の中で、OpenAI の広報担当ケイト・ウォーターズは、国防総省は大量監視能力を要求しておらず、合意が特定の境界線を越えることを許容しているとの主張を否定した。「このシステムは、アメリカ人のデータを大量に、無期限に、あるいは一般化した方法で収集・分析するために使用することはできない」とウォーターズは述べた。

AIシステムは軍(または他部門)が前例のない詳細さで広範な監視活動を行うのを支援する可能性がある。AIの最大の強みはパターンを見つけることであり、人間の行動はまさにパターンの集合体だ——ある個人について、地理位置情報などのデータ、ウェブ閲覧情報、個人金融データ、監視カメラ映像、有権者登録記録などをAIシステムが重ね合わせる様子を想像していただきたい——その一部は公開情報であり、一部はデータブローカーから購入したものだ。「こうしたシステムを国内の大規模監視に用いることは民主主義的価値観と相容れない」とアモデイは声明で記した。「強力なAIは、バラバラで個別には無害なデータを、あらゆる個人の人生を包括的に描き出す情報へと自動的かつ大規模に統合することを可能にする」

Anthropicは、この手法を明確に禁止する契約を推進したと主張する一方、OpenAIは既存の法的制限に強く依存しているようだ。同社は国防総省との合意書に「情報活動におけるプライベート情報取扱いは、合衆国憲法修正第4条、1947年国家安全保障法、1978年外国情報監視法、大統領令12333号、および明確な外国情報目的を要件とする国防総省指令に準拠する」と明記されていると説明している。

「OpenAI社員は残念ながら、会社が折れた上で『折れていない』と偽装したと考えるべきだ」

しかしこれは安心材料にはならない。9.11以降、米情報機関はOpenAIが引用する法的限界内と判断した監視システムを強化した。これには複数の国内大規模監視作戦(明らかに極めて侵襲的な国際作戦も含む)が含まれる。2013年、国家安全保障局(NSA)の情報請負業者エドワード・スノーデンは、これらのプログラムの規模を暴露した。例えばVerisonの顧客の電話記録を「継続的かつ日常的に」収集していたと報じられ、Microsoft や Google、Appleなどのテクノロジー企業からPRISMと呼ばれる秘密プログラムを通じて個人データを大量に収集していた。情報機関による改革の約束や法改正の試みがあったにもかかわらず、これらの権限に対する重大な制限はほとんど制定されなかった。Techdirt創設者Mike Masnickはオンラインでこう述べた。OpenAIの契約は「国内監視を完全に認めている。大統領令12333号こそが、NSAが*米国外の*回線に接続して通信を傍受することで国内監視を隠蔽する手法だ。たとえ米国人に関する情報が含まれていてもだ」

「過去30年のあらゆる悪質な情報スキャンダルにおいて、法的メモで『これはこれらの権限に準拠している』と主張されていた事実を認識していないなら、この合意の諜報法セクションは非常に説得力がある」と、Palisade Researchのデイブ・カステンはOpenAIの合意について記した

ペンタゴンは「我々に対し、そのような収集や分析を支援するよう要請したことはなく、契約上も許可されていない」とウォーターズは述べた。「我々の契約では、米国の居住者のプライバシー情報を無制限に監視する目的でのモデル使用は認められておらず、全ての諜報活動は現行の米国法に準拠しなければならない。実質的には、このシステムをアメリカ人のデータを大量・無期限・一般化した方法で収集・分析するために使用できないことを意味する」

Anthropicのアモデイは公の場で、法律がAIの大規模監視能力に追いついていないと発言している。またアルトマンは声明で、OpenAIの契約が「法律とポリシーにおける(自社の)レッドラインを反映している」と強調している。これは単に既存の法律と国防総省の現行ポリシー(後者はいつでも変更可能)に従っているに過ぎないという意味だ。(OpenAIはQ&Aで後者の問題に対処しようとしており、同契約は「現在の監視および自律兵器に関する法律・ポリシーを明示的に参照しているため、将来それらの法律やポリシーが変更されても、当社システムの使用は契約に反映された現行基準に沿ったままでなければならない」と述べている。)

カリフォルニア大学バークレー校の上級研究員でOpenAIの地政学チーム元リーダーであるサラ・ショカーは、The Vergeに対し「[OpenAI]広報担当者が提示した文言には多くの限定的な表現が含まれていると思う」と述べた。ショカーはさらに、この曖昧な表現では具体的に何が禁止されるのか明確ではないと付け加えた。「『制約のない』という言葉や『一般的な』『自由な』といった表現は、完全な禁止を意味しない。これは経営陣に裁量権を与えるための表現だ…国防総省がOpenAI経営陣の知らないところで合法的にLLMを使用した場合、経営陣が従業員に嘘をつく必要がないようにする仕組みでもある」

OpenAIの現行契約内容と国防総省の法的制約を考慮すると、同省は合法的にOpenAIのテクノロジーを用いて外国情報データベースからアメリカ人に関する情報を大規模に検索できる可能性がある。国防総省はデータブローカーから位置情報を大量購入し、OpenAIの技術でアメリカ人の行動パターンを可視化したり、監視映像・ソーシャルメディア投稿・オンラインニュース・有権者登録記録など公開データから多数のアメリカ人のプロフィールを迅速かつシームレスに構築することも可能だ。既に購入済みの他のデータと重ね合わせることも考えられる。

OpenAIの「レッドライン」も同様に脆弱だ。企業が土曜日に公開した国防総省との契約書には、OpenAIのテクノロジーが「法律、規制、または国防総省のポリシーにおいて人間が自律兵器を管理する必要がある場合には、いかなる場合でも自律兵器を単独で制御するために使用されてはならない」と記されている。これは2023年の国防総省指令に準拠する内容だ。契約上、これ以上の禁止事項や制限は存在しないようだ。これが国防総省との署名が可能だった表向きの理由である。一方、Anthropicは少なくともテクノロジーが成熟するまでは、監視なしの致死性自律兵器の使用禁止を求めていた。

情報筋によれば、OpenAIの合意内容の大半は目新しいものではなく、交渉過程で浮上した要素であれ、国防総省と関わるAI企業が既に実施していた事項であれ、国防総省との取引に関わる他のAI企業がこれまで目にしなかった内容ではないという。

OpenAIの技術的保護策は新規性がない——その効力も限定的だ

トランプ政権高官がOpenAIの合意が「『あらゆる合法的使用』という基準に基づく」と認めた後、アルトマンは合意の他の部分を引用し、OpenAIは自ら設定したレッドラインを堅持してると主張した。例えば、OpenAIの従業員数名がセキュリティクリアランスを取得しシステムを監視することや、分類器(大規模モデルを監視・タグ付けし特定の動作を阻止する小型モデル)を導入することを挙げた。契約に関するOpenAIのブログ記事では、企業の配備アーキテクチャが「分類器の実行や更新を含め、これらのレッドラインが越えられていないことを独自に検証可能にする」と記されている。

しかし、それは必ずしも真実ではないと彼は言う。情報筋によれば、国防総省と関わるAI企業は既にこうした安全策を講じているが、その効果は限定的だという。例えば分類器は、攻撃対象の殺害攻撃前に人間の審査がAIシステムの決定に対して行われたかどうかを確認できないと情報筋は述べた。さらに情報源は、アメリカ人のソーシャルメディア投稿を要約するクエリが単発の依頼か、大量監視プログラムの一部かを判別することもできないと付け加えた。また政府が行動を合法と判断した場合、OpenAIの分類器はそのテクノロジーによる実行を禁止できないとも述べた。

アルトマンはOpenAIの契約に「自律兵器システムを含む武力行使に対する人間の責任」が含まれると述べた。これはAnthropicの要求「適切な(人間の)監督機能なしに」これらのシステムを展開しないという主張とは異なる。具体的な契約書の定義が公開されていないため判断は難しいが、人間の責任とは事後的にシステムの決定に責任を持つことを意味しうる。一方Anthropicの監督機能要件は、AIが標的を殺害する決定の前または最中に人間が関与することを求めていた。

大量監視と同様に、OpenAIは、殺傷ロボットに対する自社のレッドラインを維持するには技術的保護策が有効だと主張している。企業は文書で「国防総省に『ガードレールを外した状態』のモデルや安全訓練を受けていないモデルを提供していない」と記し、自社のテクノロジーはクラウド上でのみ配備され、エッジデバイス(軍事ドローンのようにデータをローカルで処理するデバイス)には配備されないと述べた。エッジデバイスでは「自律型致死兵器に使用される可能性がある」と指摘した。

しかし情報筋によれば、OpenAIのテクノロジーをクラウドのみで配備することは、同社が掲げる二つの制限のいずれに対してもほとんど意味を持たないという。国内での大規模監視には膨大なデータ量が必要であり、クラウドを使わずに実施することは事実上不可能だと情報筋は述べた。

さらに、殺害決定の大半がローカルマシンで実行される場合でも、その決定に至るまでの過程——いわゆる「自律的殺害連鎖」——では、まずクラウド上で強力なアルゴリズムを実行する必要があると情報源は述べた。たとえOpenAIの技術が直接引き金を引くことに関与していなくても、その時点に至るまでの全プロセスを支えている可能性は十分にある。最終段階を人間が監督する保証は一切ないのだ。

繰り返すが、OpenAIの契約書には「米国政府が合法と判断した行為は全て許可する」と明記されている。現行の法律やポリシーのみに従い、変更・再制定されたものには従わないという保証すら、実質的な安全策とは言い難い。過去には政府機関が既存法を再解釈し、事実上新たな権限を獲得した事例がある。トランプ政権は国際緊急経済権限法のような法律を根拠に、世界的な関税賦課といった前例のない大統領権限を正当化してきた。実際、こうした権限は違法と宣言されることもあったが、それは数ヶ月に及ぶ法廷闘争を経てのことだ。その間、OpenAIは政権の命令に従うか、法律について独自に判断を下すかの選択を迫られる。アルトマンは公に表明している——Anthropicとは異なり、OpenAIは「米国の法律には概ね満足している」と。

OpenAI は、国防総省に対し「すべての AI 企業に同じ条件を提供するよう要請した」と述べており、「私たちの見解では、誰もが喜んで受け入れるべき条件である」と考えている。

ピート・ヘグセス国防長官とトランプ大統領は、ソーシャルメディアに次々と投稿し、民間テクノロジー企業が米軍の戦争技術の利用方法に影響を与えることは決して許さないと宣言した。ヘグセス氏は次のように記している。「最高司令官とアメリカの人々だけが、我々の軍隊の運命を決定する。選出されたわけではないテクノロジー企業の幹部が決定するのではない。アメリカの戦闘員は、ビッグテックのイデオロギー的な気まぐれの人質にされることは決してない」。

トランプ政権の次官であるジェレミー・ルーウィンでさえ、国防総省と OpenAI との契約(および xAI との別の契約)は「Anthropic に提示され、拒否された妥協案」であると述べた。つまり、これらの条件は Anthropic 自身のレッドラインと整合してはいなかったということだ。ルーウィンは、この契約には相互に合意した特定の安全メカニズム、おそらくはアルトマンが言及した技術的な安全対策が含まれていると述べた。

アルトマンが金曜日に発表した声明では、OpenAIが国防総省に対し「全てのAI企業に同じ条件を提示するよう要請した」と述べ、「私たちの見解では、誰もが喜んで受け入れるべき内容だ」と付け加えた。これは Anthropic への当てこすりに見える。なぜなら、OpenAI のライバルである Anthropic はこれまでそのような合意を受け入れておらず、ルーインによれば、既に同じ条件を提示されながら拒否していたからだ。

この「妥協案」を拒否したことが、 Anthropic に重大な結果をもたらした。金曜日に同社と国防総省の交渉が決裂した後、国防総省は Anthropic を「サプライチェーンリスク」に指定すると発表した。この分類は通常、サイバーセキュリティ上の懸念がある外国企業に適用されるもので、アメリカ企業に対して公表されたり適用されたりすることは事実上ない。Anthropicはこの指定を法廷で争う意思があると表明した。トランプは連邦機関に対しAnthropicのAI使用中止を命じ、国防総省が国家安全保障と無関係なサービスでClaudeを利用する企業をどの程度ブラックリスト化するかは直ちには明らかではなかった

業界全体のテック労働者は、Anthropicが断固たる姿勢を示した決定を支持し、なぜ自社がAnthropicのレッドラインに同調せず連帯しないのか疑問を抱いている。企業の決定はオンラインで称賛され、土曜日にはChatGPTを抜いてApple App Storeで最もダウンロードされたアプリとなった。公人や有名人、AIリーダーが支持を表明しており、ポップスターのケイティ・ペリーもClaude Proのサブスクリプションに署名した

ただし繰り返すが、アモデイがここでは英雄扱いされているとはいえ、彼が将来の致死性自律兵器に反対しているわけではない。これは Anthropicが全面的に支持する姿勢を明確にしている点だ。アモデイは公の場で、国防総省と「これらのシステムの信頼性向上に向けた研究開発」で提携する意向すら示している。これにより、Anthropicの条件下で軍による致死性自律兵器の使用が加速される可能性がある。アモデイが述べたのは、テクノロジーが「現時点では」人間の標的を監督なしで殺害するのに十分な信頼性を備えていないという一点だ。

「完全自律兵器(人間の介入を完全に排除し、標的の選定と攻撃を自動化する兵器)は国防上極めて重要となる可能性がある」とアモデイは述べた。「しかし現状、最先端のAIシステムはそれらを駆動するのに十分な信頼性を備えていない」

https://www.theverge.com/ai-artificial-intelligence/887309/openai-anthropic-dod-military-pentagon-contract-sam-altman-hegseth

Table of Contents