金曜日の深夜、中東で地政学的緊張が武力衝突へと発展する中、サム・アルトマンはXで、テクノロジー業界の多くが長年恐れていたものの、これほど突然実現するとは予想していなかった取引を発表しました。
OpenAIは米国国防省(DoW)と正式に契約を締結し、軍の最も機密性の高い分類ネットワーク内に最先端モデルを展開することになりました。
この発表は即座に混乱した炎上を引き起こしました。数分以内に、スレッドは「ChatGPTをキャンセル」ハッシュタグ、国家安全保障専門家からの鋭い質問、人類の未来を売り渡したという扇動的な非難の戦場と化しました。
AGIが全人類に利益をもたらすという原則に基づいて設立された企業にとって、主要な防衛請負業者への転換は、業界の道徳的景観における地殻変動のように感じられました。
この突然の転換の背景は、取引そのものと同じくらい劇的です。アルトマンの発表のわずか数時間前、ドナルド・トランプ大統領は、すべての連邦機関にOpenAIの主要ライバルであるAnthropicのテクノロジーの使用を直ちに停止するよう指示する包括的な大統領令を発令しました。
ピート・ヘグセス国防長官はAnthropicを「国家安全保障へのサプライチェーンリスク」と位置づけ、この指定は通常、ファーウェイのような外国の敵対者に対して使われるものでした。
Anthropicは、ペンタゴンにClaudeモデルへの無条件アクセスを許可することを拒否したと報じられており、国内の大規模監視または完全自律型致死兵器へのテクノロジーの使用を禁止する契約上の「レッドライン」を主張していました。
サム・アルトマン、OpenAI CEO
OpenAIはライバルの撤退によって生じた空白に踏み込みました。政権がAIモデルを「すべての合法的な目的」に利用できることを要求する中、OpenAIは参入を降伏ではなく、洗練された妥協として位置づけました。
Ask Me Anything (AMA)で、アルトマンはOpenAIがAnthropicが求めたのと同じ安全ガードレールを確保したが、最後通告ではなく多層的アプローチを通じてそれを達成したと主張しました。
修正第4条およびポッセ・コミタトゥス法を引用し、既存の法的枠組み内で作業することに合意することで、OpenAIは、進行中の戦争中に米軍を最先端のAI能力なしに放置する恐れがあった対立を効果的に緩和しました。
スレッドはすぐに企業PRからAI戦争の倫理に関する生々しい議論へと移行しました。最も「いいね」された質問の1つは、OpenAIの使命における根本的な転換を扱っていました:なぜ「人類の向上」から防衛協力に移行するのか?
アルトマンの回答は彼らしく実用的でした:「世界は複雑で、混沌としており、時には危険な場所です。私たちは、国を守る責任を負う人々が利用可能な最高のツールにアクセスできるべきだと信じています。」
アルトマンは、AIが自律的な処刑者になることを防ぐために設計された技術的セーフガードについて詳述しました。
これには、モデルがエッジデバイスや兵器ハードウェアに直接組み込まれることを防ぐ「クラウドのみ」の展開戦略、および機密使用を監督する「フィールド展開エンジニア」(FDE)の配置が含まれます。
しかし、スレッドは懐疑的なままでした。批評家は、USA PATRIOT Actの下では、「合法的な使用」が依然として広範なデータ収集を含む可能性があることを強調するコミュニティノートを指摘しました。
AIが世界的大惨事を引き起こす可能性について尋ねられたとき、アルトマンは珍しく簡潔で、国家安全保障協力が実際には国家と開発者を同じページに保つことでリスクを軽減する可能性があることを示唆しました。
最も明らかになった交流の1つはガバナンスに関するものでした。連邦政府が最終的にOpenAIを国有化する可能性があるかと尋ねられたとき、アルトマンは認めました、「もちろん考えたことはありますが、現在の軌道ではそれほど可能性が高いようには思えません。」
この認識は、国防省のリブランディングとAnthropicのブラックリスト化を国営AGIへの第一歩と見なす人々をほとんど安心させませんでした。
この取引の影響は、単一の契約をはるかに超えて広がっています。競合他社のサプライチェーンリスク指定を受け入れることで、OpenAIは、政府が企業の軍事的有用性への思想的コミットメントに基づいて勝者と敗者を選ぶことができる世界を暗黙的に検証しました。
これは、アルトマンが認めたように、民間企業が国家安全保障上の脅威とラベル付けされることを避けるために倫理的ガードレールを下げるよう圧力を感じる可能性がある、恐ろしい前例を設定します。
倫理的観点から、人間参加型の要件は最も議論の余地のあるポイントのままです。
OpenAIは人間が武力使用の責任を保持すると主張していますが、スレッド内の防衛専門家は、現在のDoW政策(指令3000.09)は高速デジタル戦闘における意味のある人間の制御を構成するものについて悪名高いほど曖昧であると指摘しました。
サム・アルトマン
AIが人間がまばたきするよりも速くターゲティングデータを処理する場合、人間は本当にループ内にいるのでしょうか、それとも単に機械の決定に対するゴム印なのでしょうか?
AGI制御喪失のリスクは、もはや遠い将来の理論的な懸念ではありません。それは、これらのモデルが機密戦争の高リスク環境でどのように振る舞うかという問題です。
こちらも読む: OpenAIがAmazon、NVIDIA、SoftBankから記録的な1,100億ドルを調達し、AIを強化
AMAが終了するとき、OpenAIユーザーの記憶の中のアルトマンのイメージは、星を見つめるテクノロジーの先見者ではなく、ハードパワーの世界をナビゲートするデジタル外交官のそれでした。
彼はスレッドに冷静な要点を残しました:中立的なAI開発の時代は終わりました。OpenAIの国防省との統合の決定は、AGIがグローバルな公共財ではなく、国家の戦略的資産として扱われる新しい章の始まりを示しています。
投稿 OpenAIの国防省との物議を醸す協定に関するサム・アルトマンのAMAの要約 は Technext に最初に掲載されました。


