イラン攻撃におけるAIの影:ClaudeとGPTの軍事利用と企業倫理の対立

イラン攻撃でのClaudeの報告された使用

複数の報道によると、米国軍は2026年3月のイランに対する攻撃でAnthropicのClaude AIを使用したとされています。この使用は、ドナルド・トランプ大統領がAnthropicとの関係を断つと発表した直後に行われました。

使用の具体的な役割

報道では、Claudeがインテリジェンス評価、ターゲットの識別、バトルシナリオのシミュレーションに活用されたと記述されています。米国中央軍(US Central Command)がこれらの目的でClaudeを運用したとされています。

背景と政府との関係

Anthropicは、AIの軍事利用に関する制限を主張しており、大量監視や完全自律型兵器システムへの使用を拒否しています。これに対し、トランプ政権はAnthropicを「国家安全保障リスク」と認定し、連邦機関によるClaudeの使用を停止するよう命じました。しかし、攻撃の計画と実行ではClaudeが依然として使用されたと報じられています。この状況は、軍事作戦にAIが深く組み込まれている複雑さを示しています。

OpenAIの軍事利用

OpenAIは、米国国防総省とのパートナーシップを通じて、AI技術を国家安全保障の目的で提供しています。この取り組みは、2025年に開始され、行政業務の効率化、サイバー防御の強化、インテリジェンス分析などの領域を対象としています。

契約の背景と内容

2025年6月にOpenAIは、米国国防総省から2億ドルの契約を受注し、戦闘および企業ドメインでの国家安全保障課題に対処するためのプロトタイプAI能力を開発しています。この契約は、OpenAI for Governmentイニシアチブの一環で、軍事の分類されたネットワークへのAIモデルの展開を含みます。

イラン攻撃での報告された使用

2026年のイランに対する作戦では、OpenAIのGPTモデルが軍事インテリジェンスの支援とシミュレーションに活用されたとされています。この使用は、攻撃の計画段階でインテリジェンス分析や戦闘シナリオの評価に役立てられたと報じられています。

使用ポリシーと制限

OpenAIの軍事利用ポリシーは、国内の大規模監視や自律型兵器システムへの適用を禁止しています。契約では「すべての合法的な用途」を許可しつつ、これらの制限を維持しており、米軍が法令に準拠した範囲でAIを運用することを前提としています。このアプローチは、Anthropicのより厳格な制限とは異なり、柔軟性を重視したものです。