トランプ政権は3月17日(米国時間)、Anthropicが起こした訴訟に関してサンフランシスコの裁判所に書面を提出した。書面では、同社をサプライチェーンリスクに指定した措置は合衆国憲法修正第1条(言論の自由)に違反するものではないと主張し、訴訟は退けられるべきだとしている。

米司法省の弁護士は書面で、「憲法修正第1条は、政府に対して一方的に契約条件を押し付ける権利を認めるものではない。Anthropicは、そのような主張を裏付ける根拠を示していない」と説明している。

Anthropicは現在、米国防総省による同社のサプライチェーンリスク指定に異議を唱え提訴しており、本件はそのふたつの訴訟のうちのひとつにあたる。この指定は、安全保障上の懸念を理由に企業を防衛契約から排除し得るものだ。Anthropicはトランプ政権が権限を逸脱し、同社技術の政府内での利用を不当に妨げたと主張している。この指定が維持された場合、Anthropicは今年見込んでいる収益のうち、最大で数十億ドル規模を失う可能性があるという。

Anthropicは、訴訟の決着がつくまで従来どおり事業を継続できるよう求めている。サンフランシスコの訴訟を担当するリタ・リン判事は、この申立てを認めるかどうかについて来週24日に審問を開く予定だ。

「Claude」の利用範囲を巡る対立

司法省の弁護士は、国防総省などを代表して提出した書面のなかで、事業損失の可能性について「回復不能な損害を構成するには法的に不十分だ」とし、Anthropicへの暫定的な救済措置を認めないよう求めた。

また政府側は、措置に踏み切った理由について、「Anthropicが政府の技術システムへのアクセスを維持した場合の、将来的な行動に対する懸念」があったためだとしている。「Anthropicの表現活動を制限しようとした者はいない」とも主張した。

さらに政府は、国防総省による人工知能(AI)技術の利用方法を制限しようとするAnthropicの姿勢を受け、国防長官のピート・ヘグセスが「同社の従業員が妨害行為をしたり、悪意をもって不要な機能を組み込んだり、あるいは国家安全保障システムの設計・完全性・運用を損なうおそれがあると合理的に判断した」と説明している。

国防総省とAnthropicは、「Claude」の利用範囲を巡って対立してきた。Anthropicは、自社モデルが米国民に対する広範な監視に利用されるべきではなく、また現時点では完全自律型兵器を支えるほどの信頼性はないと考えている。

Anthropicも週内に反論書提出へ

複数の法律専門家はこれまで『WIRED』に対し、今回のサプライチェーンリスク指定は違法な報復にあたる可能性があるとし、Anthropic側の主張には一定の根拠があると指摘している。一方で裁判所は、国家安全保障を理由とする政府側の主張を重視する傾向がある。また、国防総省の当局者はAnthropicのことを統制を逸脱した請負業者とみており、その技術は信頼できないと説明している。

政府の提出書面は、次のようにも書かれている。「特に国防総省は、Anthropicに戦闘関連の技術・運用インフラへの継続的なアクセスを認めることが、サプライチェーンに許容できないリスクをもたらすと懸念するようになった。AIシステムは操作に対して極めて脆弱であり、Anthropicは自社の“レッドライン”が越えられたと判断した場合、進行中の戦闘作戦の前後を問わず、自社技術を停止したり、モデルの挙動を先制的に変更したりする可能性がある」

国防総省およびほかの連邦機関は今後数カ月のうちに、AnthropicのAIツールを競合他社の製品へ置き換える作業を進めている。事情に詳しい関係者によれば、軍によるClaudeの主要な用途のひとつは、パランティアのデータ分析ソフトウェアを通じたものだという。