米軍は、標的リストをランク付けし、どの標的を最初に攻撃すべきかについて人間が検証する推奨事項を作成するのに、生成AI(人工知能)システムを使用する可能性があると、この件に詳しい国防総省関係者が明らかにした。軍がAIチャットボットをどのように使用する可能性があるかについてのこの開示は、国防総省がイランの学校への攻撃について精査を受けている中でなされた。同省は現在もこの攻撃について調査を続けている。

機密事項について語るため、匿名での発言をMITテクノロジーレビューに求めたこの関係者によると、国防総省が機密設定で配備している生成AIシステムに、攻撃対象となり得る標的のリストを入力して情報を分析させ、航空機の現在位置などの要因を考慮しながら標的の優先順位を付けさせる可能性がある。その後、人間が結果と推奨事項を確認し評価する責任を負うことになる。オープンAI(OpenAI)のChatGPT(チャットGPT)とエックスエーアイ(xAI)のGrok(グロック)は、理論的には将来このタイプのシナリオで使用されるモデルになる可能性がある。両社とも最近、自社のモデルを国防総省が機密設定で使用することについて合意に達したためだ。

その関係者は、物事がどのように機能する可能性があるかの一例として説明した。だが、これが現在のAIシステムの利用方法を反映しているかどうかについては肯定も否定もしなかった。

他のメディアは、アンソロピック(Anthropic)のClaude(クロード)が既存の軍事AIシステムに統合され、イランとベネズエラでの作戦で使用されていると報じている。今回の関係者のコメントは、特に標的の捜索を加速する上でチャットボットが果たす可能性のある具体的な役割についての洞察をもたらすものだ。また、軍がそれぞれ異なる制限を持つ2つの異なるAI技術を配備している方法についても光を当てている。

少なくとも2017年以来、米軍は「メイブン(Maven)」と呼ばれる「ビッグデータ」イニシアチブに取り組んできた。メイブンは古いタイプのAI、特にコンピュータービジョンを使用して、国防総省が収集した膨大なデータと画像を分析する。例えば、数千時間の空中ドローン映像を取り込み、アルゴリズムによって標的を特定する可能性がある。ジョージタウン大学の2024年の報告書は、兵士がシステムを使用して標的を選択し、それらを検証している様子を示しており、こうした標的の承認を得るプロセスが加速した。兵士たちは戦場の地図とダッシュボードを備えたインターフェースを通じてメイブンと対話し、攻撃対象となり得る標的を1つの色で、味方の部隊を別の色で強調表示するのかもしれない。

関係者のコメントは、生成AIが現在、会話型チャットボット層として追加されていることを示唆している。これは軍が、どの標的を優先すべきかなどの決定を下す際に、データをより迅速に見つけて分析するために使用する可能性があるものだ。

ChatGPT、Claude、Grokを支える生成AIシステムは、主にメイブンを動かしてきたAIとは根本的に異なる技術である。大規模言語モデル(LLM)上に構築されており、実戦でのテストははるかに少ない。そして、メイブンのインターフェースがユーザーに地図上のデータを直接検査し解釈することを強制したのに対し、生成AIモデルが生成する出力はアクセスしやすいが検証が困難である。

こうした決定に生成AIを使用することで、標的設定プロセスに必要な時間が短縮されていると関係者は付け加えた。ただし、人間がモデルの出力を再確認するのに時間を費やす必要がある場合にどの程度の追加的な速度向上が可能かを尋ねられた際、詳細は明かされなかった。

軍事AIシステムの使用は、100人以上の子どもが死亡したイランの女子校への最近の攻撃を受けて、公的な精査が強化されている。複数のニュースメディアが、この攻撃は米国のミサイルによるものだったと報じているが、国防総省は現在も調査中だと述べている。そしてワシントンポスト紙がClaudeとメイブンがイランでの標的決定に関与していたと報じた一方で、生成AIシステムが関与していたとして、どのような役割を果たしたかについては、まだ説明する証拠はない。ニューヨークタイムズ紙は、予備調査によって、古い標的データがこの攻撃の一因であることが判明したと報じた。

国防総省は最近数カ月、作戦全体でのAI使用を強化している。12月にGenAI.mil(ジェンAIドットミル)と呼ばれる取り組みを通じて、契約の分析やプレゼンテーションの作成などのタスクのために、数百万人の軍人に生成AIモデルの非機密使用を提供し始めた。しかし、国防総省が機密使用を承認した生成AIモデルはわずかである。

最初に承認されたのはアンソロピックのClaudeだ。イランでの使用に加えて、1月のベネズエラ指導者ニコラス・マドゥロの捕獲作戦でも使用されたと報じられている。しかし、アンソロピックが軍のAI使用を制限できるかどうかについて国防総省とアンソロピックの間で最近意見の相違が生じた後、国防省は同社をサプライチェーンリスクに指定し、トランプ大統領はソーシャルメディアで政府が6カ月以内に同社のAI製品の使用を停止するよう要求した。アンソロピックは法廷でこの指定と闘っている。

オープンAIは2月28日、軍が機密設定で同社の技術を使用することについての合意を発表した。イーロン・マスクのxAIも、国防総省がそのような設定でモデルGrokを使用することについて合意に達している。オープンAIは国防総省との合意には制限が伴うと述べているが、これらの制限の実際的な有効性は明確ではない。

人気の記事ランキング

This scientist rewarmed and studied pieces of his friend’s cryopreserved brain
10年冷凍保存の脳は「驚くほど良好」——蘇生は「まったく別の話」

Future AI chips could be built on glass
AIチップの熱問題、解決策は「ガラス」 年内に商業生産へ

What do new nuclear reactors mean for waste?
新型原子炉が続々登場、核廃棄物管理の「手引き」は書き直せるか

The Pentagon is planning for AI companies to train on classified data, defense official says
【独自】米国防総省、軍事機密データでAIモデルの訓練を計画

ジェームス・オドネル [James O’Donnell]米国版 AI/ハードウェア担当記者
自律自動車や外科用ロボット、チャットボットなどのテクノロジーがもたらす可能性とリスクについて主に取材。MITテクノロジーレビュー入社以前は、PBSの報道番組『フロントライン(FRONTLINE)』の調査報道担当記者。ワシントンポスト、プロパブリカ(ProPublica)、WNYCなどのメディアにも寄稿・出演している。