OpenAI、国防総省と合意——「人間の判断なしに武力行使なし」で条件が一致
ニュース(事実)
2026年2月28日、OpenAI CEO Sam Altman氏が、米国防総省(Department of Defense、DoD)との合意を正式に発表しました。
OpenAIのAIモデルを軍の「機密ネットワーク」にも展開することで合意、Altman氏によると「完全自律型兵器への使用禁止」「国内大規模監視への使用禁止」という原則は維持されるとしています。
この合意は、前日にAnthropicが安全制限をめぐる対立でDoDから排除されたとCNBCなどが報じた直後の発表です。
これはつまり「AIの安全原則を守りながら政府と協業できる道が存在する」ということを、OpenAIが示した、ということです。
3行まとめ
- 本質: AnthropicとOpenAIは似た安全原則を持ちながら、一方は排除され一方は合意——その差が注目を集めている
- 構造: 同じ「自律兵器禁止・大規模監視禁止」の原則を持ちながら、一方は排除され一方は合意
- これから: AI企業が政府と協業するモデルケースとして、世界の政府調達に影響する可能性
初心者向け:まずここだけ読めばOK
「OpenAIがアメリカ政府と、AIの安全ルールを守ったまま協力することになった」という話です。
前日のAnthropicのニュース(拒絶・排除)とセットで読むと、AIをめぐる政治の動きが見えてきます。
詳細は読み飛ばしてOKです。
詳細
1. 合意の内容——何が決まったのか
Al Jazeeraなどの報道によると、Sam Altman氏が説明した合意の主要条件は以下の3点です。
- 完全自律型兵器への使用禁止: AIだけで攻撃目標を決定・実行することは認めない
- 国内大規模監視への使用禁止: 市民の監視・プロファイリングへの使用は行わない
- 人間が武力行使の責任を持つ: 最終的な判断は人間が行う
これらは、前日にAnthropicが守ろうとしていたと報じられた原則と類似した内容です。
2. Anthropicとの「対応の差」はどこにあったのか
同じ原則を持ちながら、Anthropicは排除され、OpenAIは合意しました。
詳細な交渉経緯は公開情報では確認できませんが、結果として両社の対応は大きく分かれた形になっています。
3. 影響(誰にどう効くか)
AIツールを仕事で使う方全般: 「AIを使う企業が政府とどう向き合うか」が、AI産業の信頼性に影響します。
短期的な影響は少ないですが、「どのAI企業を選ぶか」を考える際の背景知識として覚えておく価値があります。
IT・AIビジネス関係者: 米国での政府AI調達市場でOpenAIが有利な立場になる可能性があります。
Anthropicは民間契約を軸に展開していくとみられています。
今日の1アクション
「AIの安全性」という言葉が気になった方は、Anthropicの公開している「Claude's Constitution(Claudeの憲法)」を検索してみてください。
AI企業が「どんなルールで動かしているか」を知るのは、AIを賢く使うためのリテラシーのひとつです。
出典
- OpenAI reaches agreement with Pentagon to deploy AI models — OpenAI合意の詳報
- OpenAI strikes deal with Pentagon to use tech in 'classified network' — Altman氏の発言内容
- Trump admin blacklists Anthropic as AI firm refuses Pentagon demands — Anthropic排除の経緯
筆者コメント
「同じ原則を守ろうとしたのに、交渉の結果がこんなに違うのか」という点がかなり興味深いです。
Anthropicが「拒絶した」ことで支持を集める一方で、OpenAIが「合意できた」というのも、どちらも間違っていないのが面白い。
AIをめぐる政治と倫理の話は、まだまだ続きそうです。