2026年2月27日(金曜日)の夕方5時すぎ、シリコンバレーのIT業界に衝撃が走った。
AI企業「Anthropic(アンソロピック)」が、アメリカ国防総省(いまやトランプ政権が好んで「戦争省」と呼ぶようになった組織)からの最後通牒を、期限が過ぎた後も拒否し続けた(1, 2)。
その夜、トランプ大統領はTruth Socialに怒りを爆発させ、「即刻すべての連邦機関はAnthropicの使用を停止せよ」と命令。ヘグセス国防長官はAnthropicを「国家安全保障上のサプライチェーンリスク」に指定するという、通常なら中国のファーウェイやロシアのカスペルスキーのような外国の敵対企業にしか使わない措置を、アメリカの民間企業に対して史上初めて発動した(3, 4)。
同じ金曜日のほぼ同時刻、もう一つのニュースが世界を駆け巡っていた。OpenAIが1,100億ドル(約16兆円)という史上最大規模の資金調達を発表。AmazonがAWSのインフラを背景に500億ドルを投じ、軍のクラウドシステムも支えるAWSとOpenAIが一体化していく姿が、生々しいまでの勝敗として浮かび上がった(5, 6, 7)。
一体、何があったのか。
「企業と政府の契約ごとの揉め事」として片付けるにはもったいない話だ。この経緯が、AI時代の未来、国家と企業のあり方を動かしそうなので、記事にまとめていく。その背景には、「AIはこれから誰の、何のために使われるべきか」という、私たち全員に関わる問いが詰まっている。
そもそも「Anthropic」って何をしている会社なの?
Anthropicは2021年に設立されたサンフランシスコのAI企業だ。「Claude(クロード)」というAIを作っている会社で、ChatGPTのOpenAIと並んで世界トップクラスのAI企業のひとつ。企業価値は約3,800億ドル(約55兆円)で、年間売上もすでに140億ドル規模に達している(8)。
そのAnthropicは、少し変わった出自を持つ。
創業者のダリオ・アモデイとダニエラ・アモデイの兄妹は、もともとOpenAIの中枢にいた人物だ。しかし「OpenAIは商業的な利益を最優先にするようになって、AIの安全性に本気で取り組めていない」と危機感を抱き、2021年に仲間を連れて独立した。
だから、Anthropicにとって「安全なAIを作ること」は、後から付け加えたお題目じゃない。会社を作った理由そのものだ。
そのこだわりが、今回の事件を生み出した。
2024年夏:Anthropicとペンタゴンの蜜月の始まり

驚くことに、Anthropicとペンタゴンはもともとがっちりとしたパートナーだった。
2024年夏、AnthropicはペンタゴンとAI活用に関する最大2億ドル(約290億円)の契約を締結。ClaudeはAIとして史上初めて、軍の「機密ネットワーク(クラシファイドネットワーク)」上で稼働したモデルになった(9)。衛星画像の分析、インテリジェンスの要約、膨大な文書の処理——そういった軍の実務でClaudeは活躍していた(10)。
ただし、契約にはAnthropicの「利用規約」が組み込まれていて、2つの用途が明文で禁じられていた。
ひとつは「アメリカ市民に対する大規模な国内監視活動への利用」。もうひとつは「完全自律型致死兵器(人間の指示なしにAIが標的を判断して攻撃・殺傷する兵器)への組み込み」だ(3, 9)。
ペンタゴンはこれを飲んで契約した。でもその後、状況が変わっていく。
最初の亀裂:ベネズエラ作戦でClaudeが使われた
2026年1月、アメリカ特殊部隊がベネズエラに突入し、独裁者ニコラス・マドゥロを拿捕(だほ)した。この作戦に、Claudeが使われていたとAxiosやウォール・ストリート・ジャーナルが報じた(10, 11)。
Anthropic側は「ポリシーに違反した使われ方はされていない」という立場を維持した。そして社内では問題なしと判断していたとされる(10)。
しかし、ここで奇妙な事件が起きた。
Anthropicのある幹部が、AIソフト企業「Palantir(パランティア)」の幹部に「ベネズエラ作戦でClaudeが使われたのか?」と問い合わせをした。Palantirの幹部はこれを「Anthropicが使用に異議を唱えようとしているのでは」と解釈して警戒し、ペンタゴンに報告した(10, 11)。
ペンタゴンは激怒した。「作戦中にAIがどう使われたかを、民間企業が問い合わせるとはどういうことだ。これはAnthropicが軍の運用に口を出そうとしている証拠だ」と(11)。
Anthropicは「そういう意図では全くなかった。通常の技術的な確認に過ぎない」と否定したが、この一件が両者の関係に深い亀裂を入れた(10)。
12月の電話:「核ミサイルが飛んできたら、どうする?」

水面下での緊張はもっと前から始まっていた。
2025年12月、「戦争省」の研究開発担当次官エミル・マイケル氏が、アモデイCEOに一本の電話をかけた。彼はこんな仮定の話を持ち出した(12, 13)。
「核弾頭を搭載した大陸間弾道ミサイル(ICBM)がアメリカに向かって飛んでいる。残り90秒。Claudeだけがそれを迎撃できる。でも、Anthropicのルールがそれを阻んでいる。あなたはどうする?」
ペンタゴン側の証言によれば、アモデイCEOはこう答えたという。「それはこちらに連絡してくれれば、一緒に考えます」と。
ペンタゴンは仰天した。「アメリカに核が飛んでくる緊急事態に、まずAI企業に電話しろというのか」と。
一方、Anthropic側はこの証言を「完全な虚偽だ」と否定。実際には「ミサイル防衛への利用は認める」と明確に伝えていたと主張した(13)。
どちらが正しいかはわからない。しかし、この「電話」が後の全面衝突の伏線になったことは間違いない。
ちなみにこのシナリオ、笑えないデータがある。Nuclear Threat Initiative(核脅威イニシアチブ)が行った戦争ゲームの実験では、Claude、Gemini、ChatGPTを含む主要AIモデルが、大多数のシナリオで核兵器の使用を選択した(14)。AIがどれほど危うい判断をしうるか——Anthropicが「完全自律型はダメだ」と言い張る理由は、感情論ではなく技術的な根拠があるのだ。
2月24日(火):「戦争省」からの最後通牒
2026年2月24日、ヘグセス長官がアモデイCEOを呼びつけ、直接会談を行った。会談室にはヘグセス長官のほか、副長官、法務長官、報道官など5〜6人もの幹部が顔を揃えていた(9, 15)。それだけペンタゴンがこの件を重大視していた証拠だ。
ヘグセス長官の要求はシンプルだった。
「Claudeを『すべての合法的目的のために』制限なく使えるようにしてほしい」。つまり、Anthropicがずっと「これだけは絶対ダメ」と言い続けてきた2つの禁止条項——大規模監視と自律型兵器——を契約から消すよう求めた(9, 15)。
期限は「2月27日(金曜日)午後5時1分」。それまでに応じなければ、ペンタゴンはAnthropicとの契約を打ち切り、「サプライチェーンリスク」に指定し、さらには「国防生産法」という冷戦期の法律を使ってAnthropicにAI技術の提供を強制することも検討している——と脅した。
2月26日(木):「良心に反してNOは言えない」
翌々日の木曜日、アモデイCEOは長文の声明を公開した(16)。
「ペンタゴンが提示した『妥協案』は、表面上は合理的に見えるが、文章の中に『いつでもこのルールを無効にできる』という抜け穴が含まれていた。私たちは今から何年も後に、AIでできることが今よりはるかに広がる時代を見据えている。だから曖昧な合意では意味がない。今日のルールではなく、未来のリスクに対する明確な禁止が必要だ。これらの脅しによっても、我々の立場は変わらない。良心に反して、彼らの要求に応じることはできない」
これに対してエミル・マイケル氏はXにこう投稿した(3)。
「アモデイは嘘つきだ。神のコンプレックスを持っている。米軍を個人的にコントロールしようとしている」
その翌日、Anthropicの社員だけでなく、GoogleやOpenAIの社員も含めた330人以上が公開書簡に署名した。「大規模監視と、人間の判断なしに人を殺すことへのAI利用に反対するAnthropicを支持する」という内容だった(3, 17)。社内の社員たちの大半が、会社の決断を支持していた。
2月27日(金):全面決裂——そして史上最大の資金調達
期限の午後5時1分が過ぎると、展開は一気に動いた。
トランプ大統領がTruth Socialにこう書いた(1, 3)。
「Anthropicの左翼ナットジョブたちは、国防省を自分たちの利用規約に従わせようとする壊滅的な過ちを犯した。だから私はすべての連邦機関に、即時Anthropicの技術の使用を停止するよう命令する。我々にはAnthropicは必要ない。取引しない!」
ヘグセス長官もXに声明を投稿した(3, 4)。
「Anthropicは傲慢と裏切りのマスタークラスを見せた。アメリカの戦闘員は決して大手テク企業のイデオロギー的な気まぐれの人質にはならない」
そして、ペンタゴンと取引するすべての業者・パートナーに対し、Anthropicとの一切の商業活動を即時停止するよう命じた。
この夜、CBSニュースの独占インタビューに応じたアモデイCEOはこう語った(18)。
「政府に異議を申し立てることは、最もアメリカ的な行為だ。私たちは愛国者だ。ここで行ったすべてのことにおいて、私たちはこの国の価値を守るために立ち上がった」
Anthropicはその夜、法的措置を宣言した。「このサプライチェーンリスク指定は法的根拠がなく、アメリカの民間企業に史上初めて外国の敵対企業向けの措置を適用した前例のない暴挙だ」と反論した(9, 15)。
そして——まさに同じ金曜日の朝、「戦争省」がAnthropicに最後通牒を叩きつけていたその日に——OpenAIは1,100億ドルの資金調達を発表していた(5)。Amazon(500億ドル)、Nvidia(300億ドル)、SoftBank(300億ドル)が名を連ねる、史上最大の私企業向け資金調達だ(5, 6)。Amazonは同時に、OpenAIの企業向けAIプラットフォームの「独占的なクラウド提供者」になることも発表した(7)。
軍のクラウドインフラを支えるAmazon。そのAmazonが、ペンタゴンのパートナーになったOpenAIに500億ドルを投じる。この構図が生む「勝者と敗者」は、数字を見るだけで伝わってくる。
OpenAIはなぜ合意できたのか? 「技術的な抜け道」の正体

ここで誰もが抱く疑問がある。「OpenAIもAnthropicも同じ原則を持っていると言っているのに、なぜ片方は合意できて、片方は追放されたのか?」
その答えは「どう書くか」ではなく「どう作るか」にあった。
OpenAIが持ち込んだのは、アーキテクチャ(システムの設計)による制約だ。OpenAIはペンタゴンに対し、「クラウド環境のみへの展開」という技術的な縛りを提案した。つまり、モデルはAmazonのAWSサーバーというクラウド上でのみ動き、ドローンや誘導ミサイルのような「エッジデバイス(端末側)」には物理的に組み込まない、という構造だ(19, 20)。
OpenAI自身の公式発表にはこう書かれている(19)。
「これはクラウド限定の展開であり、エッジデバイスへのデプロイは行わない(自律型致死兵器への使用にはエッジ展開が必要となるため)。私たちの展開アーキテクチャにより、これらのレッドラインが越えられていないことを独自に検証することが可能だ」
Anthropicは「法律や文言が将来変わっても守られるよう、明文の禁止条項が必要だ」という主張だった。OpenAIは「物理的に使えない状態にしてしまえば、文言の解釈問題は生じない」という工学的なアプローチを選んだ(20)。
さらにOpenAIは「もし我々のモデルがあるタスクを拒否したとしても、政府はそれを強制的にやらせることはできない」という約束も取り付けた上で、「すべての合法的目的のために使用できる」という政府側の文言を受け入れた。
Anthropicがこの「クラウド限定」という選択肢を検討していたかどうかは不明だ。しかし、OpenAIがそれを提案したことでペンタゴンが「これなら飲める」と判断したのは確かなようだ(9, 20)。
OpenAIは後日、公式ブログにこう書いた(19)。
「我々の合意は、Anthropicの元々の契約を含む、これまでの機密AI展開に関するいかなる合意よりも多くのガードレールを持っていると考える」
この騒動、世界はどう見ているか
率直に言って、世界的な反応は「アメリカ政府よりAnthropicに同情的」だ。
EUの反応
EUは2024年に世界初の包括的なAI規制法「EU AI Act」を発効させており、軍事利用や市民監視については特に厳しいルールを設けている。今回の件で「アメリカ政府と実質的に一体化したOpenAIやGrokを使い続けることが、欧州市民のデータ主権の観点からリスクにならないか」を問い直す当局者・企業は確実に増えるだろう(21)。
核専門家の警告
世界外交問題評議会(CFR)は「AIは今や実際の軍事現場で使われ始めているが、その使用ポリシーは国によって大きく異なる。イスラエル・ロシア・ウクライナなどはすでにAIを標的識別に使っているとの報告がある」と指摘する(21)。
Nuclear Threat Initiativeのポール・ディーン副会長は、核ミサイル迎撃シナリオについてこう警告する。「問題は、意思決定に人間が関わっているかどうかだけではない。AIが人間の判断にどこまで影響を与えるか、だ」(14)。
「誰も勝者はいない」
Georgetown大学のローレン・カーン研究員はCNBCでこう言った。「誰も勝者はいない(There are no winners in this)。誰の口にも苦い後味が残る」(3)。
ペンタゴン自身も、機密ネットワーク上で深く活用されていたClaudeを失うことで、置き換えのコストと機能低下を覚悟しなければならない。戦略国際問題研究所(CSIS)のグレゴリー・アレン顧問がBloomberg Radioで語ったように、「いまの政府がAI競争を冷戦期の宇宙開発競争に例えている最中に、自国のAI産業の宝を燃やすようなことをしている」のだ(16)。
日本への影響は?
実務面はシンプル
「サプライチェーンリスク」指定はペンタゴンとの取引企業に関するものなので、日本の一般企業や個人がClaudeを使うことへの影響は現時点でほぼない。Claude.aiのユーザーも、APIを使う開発者も、今まで通り使い続けられる(9)。
戦略面は複雑
ペンタゴンと取引する大企業の法務部は今後、「Claudeを使い続けることで法的なリスクが生じないか」を精査し始めるだろう。法廷での決着まで数年かかるとすれば、その間の不確実性が企業のOpenAIへのシフトを促す可能性はある(3)。
逆の動きも考えられる。医療、法律、ジャーナリズムなど「政府に情報を渡したくない」デリケートな領域では、「政府の圧力にNOと言ったAI」というAnthropicのブランドは、むしろ信頼性の証になりうる(21)。
日本のAI戦略にとっても、今回の件は「どのAIに、どこまで頼るのか」を考え直すきっかけだ。アメリカ政府の意向を色濃く反映したAIと、独自の安全基準を持つAIでは、使える場面が変わってくる。
結局、誰が正しいのか
ペンタゴンの言い分にも一理ある。「法律の範囲内で使うのに、なぜ民間企業のルールに縛られなければならないのか」というのは、国防組織として正当な疑問だ(3)。
Anthropicの言い分にも一理ある。「今の法律には抜け穴がある。AIが進化したら、今は想定されていない使われ方が出てくる。だから明文で禁止しておかなければ手遅れになる」というのは、技術者として正当な懸念だ(16)。
OpenAIの選択は賢かった。技術的な設計で「物理的に使えない状態」を作ることで、文言の解釈論を超えた(19, 20)。ただし「クラウド限定なら永遠に安全か」という問いの答えは、まだ誰も持っていない。
私が一番引っかかるのは、この問題の「先」だ。
ベネズエラ作戦でClaudeは実際に使われた(10, 11)。イスラエル、ロシア、ウクライナではAIが標的識別に使われているとの報告がある(21)。AIを使った核ミサイル迎撃の判断を誰かがしなければならない日が来たとき——その「誰か」が人間であり続けるためには、今のうちにルールを作っておかなければならない(14)。
Anthropicはその「ルール作り」に命をかけた(18)。それが経営として正しいかどうかは別として、誰かがやらなければならないことを、彼らはやっている。
AnthropicはAI界のAppleだ——筆者の考察

ここから先はファクトではなく、筆者個人の考察だ。
今回の一件を整理していて、ずっと頭の中にちらついていた会社がある。
Appleだ。
2016年、Appleがやったこと
2015年12月、カリフォルニア州サンバーナーディーノで、銃乱射事件が起きた。14人が死亡した。
FBIは犯人のiPhoneを押収した。しかし、ロックがかかっていて中身が見られない。
FBIはAppleに要求した。「このiPhoneのロックを解除するソフトウェアを作れ」と。
法的強制力のある命令だった。政府の要求だった。しかも、テロ事件の捜査という、誰もが「正義」と感じる文脈での要求だった。
ティム・クックは、断った。
クックがAppleのウェブサイトに掲載した公開書簡は、今読んでも背筋が伸びる。(22)
「FBIが求めているのは、これまで存在しなかったものだ。iPhoneのセキュリティを無効化するバックドアを作れということだ。政府はこれを『一台のiPhoneだけに使う』と言っている。しかし、そんなことはあり得ない。一度そのソフトウェアが存在してしまえば、何度でも、どのiPhoneにでも使えるようになる」
そして、こう続けた。
「私たちはこの命令に反対する。政府が善意であることは信じている。しかし、この特定のケースで政府の要求に応じることは、間違っていると考える」
Appleは世論を敵に回すリスクを負って、政府の命令を拒否した。
結末はどうなったか。
FBIは別の方法(イスラエルのサイバー企業Cellebriteに依頼したとされる)でiPhoneをアンロックし、Appleへの法的手続きを取り下げた。
Appleは「勝った」わけでも「負けた」わけでもない。ただ、自分たちの一線を守った。
そしてこの一件以降、Appleの「プライバシー保護」というブランドは別次元の強度を持つようになった。「Appleは政府にも屈しない」という事実が、世界中のユーザーの信頼に直接転換されたのだ。
プライバシーをめぐる競合との差別化は、もはやスペックの話ではなく、信念の話になった。それがiPhoneを選ぶ理由のひとつになっている人が、世界に何億人もいる。
今回のAnthropicは、何が同じで、何が違うか
構図はほぼ同じだ。
「政府が合法だと言っている要求」に対して、「私たちの信念に反するからできない」と言い切った。法的・財務的なリスクを承知の上で。
ただ、一点だけ決定的に違う。
Appleが守ったのは「情報」だ。個人のプライバシー、デジタルデータ。
Anthropicが守ろうとしているのは「人が死ぬかどうかの判断」だ。
自律型兵器に組み込まれたAIが、人間の監督なしに標的を認識して攻撃する——その判断をAIにさせることへの拒絶だ。
これはiPhoneのロック解除とは、リスクの次元が根本的に違う。Appleの戦いが「プライバシー対国家」だとすれば、Anthropicの戦いは「人の命の判断権は誰が持つか」という問いだ。
だからこそ、Anthropicの「NO」は、Appleのそれより重く、より孤独で、より難しい。
なぜ「追放」が「信頼」に変わるのか
Appleは2016年の一件以降、「プライバシーのApple」というブランドを意図的に育てていった。
iPhoneの広告に「あなたのiPhoneにあるものは、iPhoneの中だけにある」というコピーを掲げた。「Privacy. That’s iPhone.」というキャンペーンを世界中で展開した。Googleとの差別化として、「私たちはあなたのデータで広告ビジネスをしていない」と公言し続けた。
それはすべて、2016年の「NO」という実績があったから、言葉に重みが生まれた。
口だけの「プライバシー重視」ではなく、政府の命令を断った事実が、言葉を裏打ちしていた。
Anthropicにも、同じことが起きると考えている。
「私たちのAIは、監視にも自律型兵器にも使わせない」という主張は、今回の一件以前からAnthropicが言い続けてきたことだ。しかしそれは、競合と差別化するための「言葉」に過ぎなかった。
2026年2月27日以降、その言葉は「事実」になった。
アメリカ政府に追放されるという代償を払って、Anthropicは「私たちは本当にそれをやる会社だ」ということを証明した。
これがビジネス的にどう機能するかを考えてみる。
EUの政府機関が、AI導入を検討しているとしよう。
候補はOpenAIのGPTと、AnthropicのClaude。
OpenAIはアメリカ政府・ペンタゴンと深く統合されたAIだ。Amazonのクラウドインフラを通じて軍と一体化している。
Anthropicはアメリカ政府から追放されたAIだ。監視への利用と自律型兵器への組み込みを拒否して、契約を打ち切られた。
GDPR(EU一般データ保護規則)を抱え、デジタル主権を重視するEUの機関が、どちらを選ぶかは明らかではないか。
日本の医療機関も同じだ。患者データをアメリカ政府と一体化したシステムに乗せることへの懸念は、今後確実に増していく。「政府の要求にNOと言えるAI」というのは、医療・法律・報道・金融といった、情報の機密性が命綱になる業界において、これ以上ない差別化ポイントになりうる。
AppleがプライバシーをDNAに刻んで世界のユーザーを掴んだように、AnthropicはAI倫理をDNAに刻んで、「国家の都合でAIを使われたくない」世界中の組織を引き寄せていく可能性がある。
AppleとAnthropicが手を組んだら
最後に、筆者の妄想を一つ。
AppleとAnthropicが本格的に手を組んだとしたら、どうなるか。
繰り返すが、現時点でそのような公式な提携・買収の発表は存在しない。これは完全に筆者の考察だ。
ただ、両社には共通するDNAがある。
「自分たちがコントロールできる範囲で、妥協なく最高品質を届ける」という哲学。Appleは「どこにでも広げる」より「自分たちのエコシステムの中で完璧にする」を選んできた。Anthropicも今回まさに同じ選択をした。「政府に言われた通りに広げる」より「自分たちの基準を守れる範囲でだけ動く」を選んだ。
「最もプライバシーを重視するデバイス」と「最も倫理を重視するAI」が組み合わさる世界を想像してほしい。
政府の監視網が届かない、完全にプライベートなAI体験。ユーザーのデータが、企業にも政府にも渡らない。AIが下す判断の基準が、国家の都合ではなく、人間の尊厳に基づいている。
それは、世界中のユーザーが求めているものではないか。
Anthropicはいま、法廷闘争を抱えながら、企業価値3,800億ドルの会社を「政府に使うなと言われた企業」として経営し続けなければならない。しかもIPO直前のタイミングで、だ。
短期的には、これは苦しい戦いだ。
しかし長期的には、2016年のAppleが手に入れたものと同じものを、Anthropicは手に入れようとしているのかもしれない。
「信念を売らなかった」という、何物にも替えられない実績を。
Appleはあの日、iPhoneのロック解除を断った。
Anthropicはこの夜、人を殺す道具になることを断った。
歴史が繰り返すとすれば——次にAnthropicが手に入れるのは、世界中の「信念を信じたい人たち」からの、圧倒的な支持だと思っている。
参考文献
(1) NPR. “OpenAI announces Pentagon deal after Trump bans Anthropic.” 2026年2月27〜28日. https://www.npr.org/2026/02/27/nx-s1-5729118/trump-anthropic-pentagon-openai-ai-weapons-ban
(2) TechPolicy.Press. “A Timeline of the Anthropic-Pentagon Dispute.” 2026年2月27日. https://www.techpolicy.press/a-timeline-of-the-anthropic-pentagon-dispute/
(3) CNBC. “Anthropic faces lose-lose scenario in Pentagon conflict.” 2026年2月27日. https://www.cnbc.com/2026/02/27/anthropic-pentagon-ai-policy-war-spying.html
(4) Military.com. “Anthropic Refuses to Bend to Pentagon on AI Safeguards.” 2026年2月27日. https://www.military.com/daily-news/2026/02/27/anthropic-refuses-bend-pentagon-ai-safeguards-dispute-nears-deadline.html
(5) TechCrunch. “OpenAI raises $110B in one of the largest private funding rounds in history.” 2026年2月27日. https://techcrunch.com/2026/02/27/openai-raises-110b-in-one-of-the-largest-private-funding-rounds-in-history/
(6) Bloomberg. “OpenAI finalizes $110B funding at $730B valuation.” 2026年2月27日. https://www.bloomberg.com/news/articles/2026-02-27/openai-finalizes-110-billion-funding-at-730-billion-valuation
(7) GeekWire. “Amazon invests $50B in OpenAI, deepens AWS partnership with expanded $100B cloud deal.” 2026年2月28日. https://www.geekwire.com/2026/amazon-invests-50b-in-openai-deepens-aws-partnership-with-expanded-100b-cloud-deal/
(8) Al Jazeera. “Anthropic vs the Pentagon: why AI firm is taking on Trump administration.” 2026年2月25日. https://www.aljazeera.com/news/2026/2/25/anthropic-vs-the-pentagon-why-ai-firm-is-taking-on-trump-administration
(9) Axios. “Exclusive: Hegseth gives Anthropic until Friday to back down.” 2026年2月24日. https://www.axios.com/2026/02/24/anthropic-pentagon-claude-hegseth-dario
(10) Axios. “Pentagon used Anthropic’s Claude during Maduro raid.” 2026年2月13日. https://www.axios.com/2026/02/13/anthropic-claude-maduro-raid-pentagon
(11) NBC News. “Tensions between the Pentagon and AI giant Anthropic reach a boiling point.” 2026年2月20日. https://www.nbcnews.com/tech/security/anthropic-ai-defense-war-venezuela-maduro-rcna259603
(12) Washington Post. “The hypothetical nuclear attack that escalated the Pentagon’s showdown with Anthropic.” 2026年2月27日. https://www.washingtonpost.com/technology/2026/02/27/anthropic-pentagon-lethal-military-ai/
(13) Bloomberg. “Pentagon Pressures Anthropic to Drop AI Guardrails in Military Standoff.” 2026年2月26日. https://www.bloomberg.com/news/features/2026-02-26/pentagon-pressures-anthropic-to-drop-ai-guardrails-in-military-standoff
(14) Vox / Yahoo News. “The nuclear nightmare at the heart of the Trump-Anthropic fight.” 2026年2月28日. https://www.yahoo.com/news/articles/nuclear-nightmare-heart-trump-anthropic-214500135.html
(15) Axios. “Exclusive: Pentagon threatens to cut off Anthropic.” 2026年2月15日. https://www.axios.com/2026/02/15/claude-pentagon-anthropic-contract-maduro
(16) CNN Business. “Anthropic rejects latest Pentagon offer.” 2026年2月26日. https://www.cnn.com/2026/02/26/tech/anthropic-rejects-pentagon-offer
(17) Washington Post. “Pentagon’s Anthropic fight reshapes its relations with Silicon Valley.” 2026年2月28日. https://www.washingtonpost.com/technology/2026/02/28/pentagon-anthropic-fight-silicon-valley/
(18) CBS News. “Anthropic CEO says he’s sticking to AI ‘red lines’ after Pentagon blacklists company.” 2026年2月28日. https://www.cbsnews.com/news/pentagon-anthropic-dario-amodei-cbs-news-interview-exclusive/
(19) OpenAI公式ブログ. “Our agreement with the Department of War.” 2026年2月28日. https://openai.com/index/our-agreement-with-the-department-of-war/
(20) TechCrunch. “OpenAI’s Sam Altman announces Pentagon deal with ‘technical safeguards’.” 2026年2月28日. https://techcrunch.com/2026/02/28/openais-sam-altman-announces-pentagon-deal-with-technical-safeguards/
(21) Council on Foreign Relations. “Anthropic and Pentagon Clash.” 2026年2月27日. https://www.cfr.org/articles/anthropic-and-pentagon-clash
(22)A Message to Our Customers”. 2016年2月16日. https://www.apple.com/customer-letter/

コメント