Anthropicは3月20日、サンフランシスコの連邦地裁に提出した裁判資料で、米軍が運用している状況では、自社の生成AIモデル「Claude」を操作することはできないと説明した。この発言は、戦時中に同社が人工知能(AI)ツールを改ざんする可能性があるとするトランプ政権の主張に反論するものだ。

Anthropicの公共部門責任者ティヤグ・ラマサミーは、反論書と同日に提出された宣誓供述書で、米軍がClaudeを運用している場合「AnthropicはClaudeの停止、機能変更、アクセスを遮断するなどの操作によって軍事作戦に影響を及ぼす能力をもったことはない」と説明している。また、「作戦前、作戦中を問わず、技術を無効化したりモデルの挙動を変更したりするためのアクセス権限を、Anthropicはもっていない」とも述べている。

米国防総省はここ数カ月、同社の技術を国家安全保障にどう利用すべきか、またその制限をどう設けるべきかをめぐって、Anthropicと対立してきた。今月、国防長官のピート・ヘグセスはAnthropicを「サプライチェーンリスク」に指定し、今後数カ月にわたり国防総省が同社のソフトウェア(契約業者経由を含む)を使用できなくなる措置を実施した。ほかの連邦機関でもClaudeの利用停止が進んでいる。

Anthropicはこの禁止措置の合憲性を争い、仮差し止めを求めて2件の訴訟を起こしている。顧客の契約解約はすでに始まっている。案件のひとつについては、3月24日にサンフランシスコ連邦地裁で審理が予定されており、裁判官はその後まもなく仮差し止めについて判断する可能性がある。

政府側の弁護士は、先に提出した書面で、国家防衛や現行の軍事作戦における重要な局面において、重要な軍事システムが危険にさらされるリスクを容認する義務は国防総省にはないと主張している。

国防総省はClaudeをデータ分析やメモ作成、さらには作戦計画の立案支援に利用してきたことを、『WIRED』は報じている。政府側の論理は、Anthropicが特定の用途に反対した場合、Claudeへのアクセスを遮断したり、有害なアップデートを配信したりすることで、進行中の軍事作戦を妨害し得るというものだ。

Anthropic、干渉はできないと強調

これに対し、ラマサミーは「AnthropicはClaudeについて、バックドアや遠隔操作による『キルスイッチ』を一切保持していない」と主張し、「例えばAnthropicの担当者が国防総省のシステムにログインし、作戦中にモデルを変更したり無効化したりすることはできない。そのような仕組みにはなっていない」と続けている。

さらに彼は、アップデートの提供には政府およびクラウドプロバイダー(このケースではAWSとみられる)の承認が必要になると説明した。また、Anthropicは米軍の利用者がClaudeに入力するプロンプトやその他のデータにアクセスすることもできないという。

また、政策責任者のサラ・ヘックは3月20日に提出された宣誓供述書で、3月4日に提示した契約案においてその点を保証する用意があったと説明し、次の文言を契約案に含めたとしている。「念のため明確にしておくと、(Anthropic)は、このライセンスが合法的な戦争省(国防総省)の作戦上の意思決定を統制または拒否するいかなる権利も付与するものではないと理解している」

またヘックは、人間の監督なしに致死的攻撃に用いられることへの懸念に対応する文言を巡って双方が合意に近づいていたと述べている。しかし、最終的に交渉は決裂した。

(Originally published on wired.com, translated and edited by Mamiko Nakano)