Anthropicは3月9日(米国時間)、同社を「サプライチェーンリスク」に指定した米国防総省などによる措置に異議を唱え、カリフォルニア州連邦裁判所に提訴した。

自律型兵器など、軍事用途におけるAnthropicの生成AI技術の利用制限を巡り、数週間にわたり公然と続いてきた対立の末、国防総省は先週、同社を正式に指定した。

「この措置は法的に妥当だとは考えておらず、法廷で争う以外に選択肢はない」と、Anthropicの最高経営責任者(CEO)ダリオ・アモデイは5日のブログ投稿で述べていた。

販売継続へ仮差し止め命令を要求

今回の訴訟でAnthropicは、同社へのサプライチェーンリスク指定の取り消しと連邦機関による執行の差し止めを求めている。訴状のなかでAnthropicは、「憲法は、政府がその強大な権限を行使して、憲法で保護された企業の発言を理由に制裁を科すことは許されない」と主張。さらに「Anthropicは、自社の権利を守り、行政府による違法な報復措置を止めるための最後の手段として司法に訴えている」としている。

Anthropicはまた、政府向け販売を継続できるよう仮差し止め命令(temporary restraining order)も求めている。同社は、この申し立てについて政府側が10日午後9時(米太平洋時間)までに回答するよう求めるとともに、13日にこの問題を審理する公聴会を開くよう裁判所に提案している。

生成AIモデル「Claude」シリーズを開発するAnthropicは、今回の措置により、米国防総省をはじめとする米政府向け事業から年間数億ドル(数百億円)規模の収益を失う可能性に直面している。

さらに、Claudeを組み込んだサービスを連邦政府機関向けに提供しているソフトウェア企業との取引を失う可能性もあるという。報道によると、Anthropicの顧客の一部は、国防総省によるサプライチェーンリスク指定を受け、代替手段の検討を進めているとされる。

アモデイはブログで、Anthropicの顧客の「大多数」は今回の措置によって変更を迫られることはないと説明。米政府の指定は、「顧客がClaudeを(軍との)契約業務の一部として使用する場合にのみ明確に適用される」と述べ、軍事請負企業によるAnthropicの技術の一般的な利用には影響しないはずだとしている。

国防総省は、Anthropicの訴訟についてコメントを控えた。

ホワイトハウス報道官のリズ・ヒューストンは6日、『WIRED』に対して「軍は、合衆国憲法には従いますが、ウォーク(woke)なAI企業の利用規約に従うことはありません」と話した。また政権としては、「勇敢な兵士たちが任務を成功させるために必要で適切なツールを確保している」としたうえで、「ビッグテック企業のリーダーのイデオロギー的な気まぐれによって、彼らが人質のような状況に置かれることは決してないようにします」と付け加えた。

裁判の行方を左右するOpenAI契約

政府契約に詳しい弁護士らは、Anthropicが裁判で勝つのは容易ではないとの見方を示している。国防総省がテック企業をサプライチェーンリスクと指定する権限を定めた規則には、実質的に異議申し立ての余地がほとんどないためだ。

法律事務所Snell & Wilmerのパートナー弁護士、ブレット・ジョンソンは「契約の条件をどのように設定するかは、完全に政府の裁量に委ねられています」と説明する。国防総省は、自らが懸念する製品がサプライヤーによって使用された場合、「政府が任務を遂行する能力を損なう」と表明する権利もあるという。