OpenAIは日本時間3月8日、新モデル「GPT 5.4 Thinking」および「GPT 5.4 Pro」を発表した。なかでも「Thinking」は、コーディングやAIエージェントの統括など、企業向けの業務に特化して構築されている。

 ChatGPT 5.4は「思考型」モデルであり、回答を導き出すまでに少し時間がかかる分、より正確で複雑なタスクを処理できる。自律的に稼働するAIエージェントでの利用を想定した設計だ。OpenAIによれば、少ない計算資源でエージェントを効率的に動かせるため、コスト削減にもつながるという。

 OpenAIは5.4を「これまでで最も事実に忠実なモデル」とアピールしている。これは皮肉にも、AIがもっともらしい嘘をつく「ハルシネーション(幻覚)」という現実的な問題を改めて浮き彫りにしているが、同社によれば5.4ではこの懸念が軽減されるという。ベンチマーク報告では、GPT 5.2と比較して回答にエラーが含まれる確率が18%減少し、個々の事実誤認も33%低下した。それでも、AIツールの出力に対する人間によるファクトチェックが不可欠であることに変わりはない。

 現在、5.4のThinkingとProは、「ChatGPTの有料ユーザー」と「開発者向けAPI」で利用可能だ。Thinkingは、同社のコーディング支援アプリ「Codex」にも組み込まれている。

 今回の5.4投入は、OpenAIにとって大きな推進力となる。月額課金を惜しまないパワーユーザー向けに、エージェント特化型モデルを用意したことは、明らかにAnthropicの「Claude」に対する牽制だ。

 両社の対立は激化の一途をたどっている。先日のスーパーボウルでAnthropicがCM枠を使い、ChatGPTの広告展開を痛烈に批判したことも記憶に新しいが、事態はさらにエスカレートしている。

 直近の報道によれば、Anthropicの支持は急速に拡大中だ。「Claude」のモバイルアプリはApp StoreとGoogle Playの両方で首位を獲得。ネット上のフォーラムも、ChatGPTからClaudeへデータを移行する方法を教え合う書き込みで埋め尽くされている。

 ユーザーがClaudeへの乗り換えに動く背景には、米国政府を巡る論争の過熱がある。米戦争省(旧国防総省)は、AI企業との契約交渉を進めていた。当初の契約はAnthropicの「Claude」を採用するものだったが、Anthropicは「国民の監視」や「自律型兵器システム」へのAI利用を拒絶。これにより、先週になって交渉は決裂した。

 その空白を埋める形で入り込んだのがOpenAIだ。もっとも、サム・アルトマンCEOは今週、安全対策(セーフガード)を講じると説明し、NSA(国家安全保障局)のような諜報機関には利用させないと明言して、一定の線引きを示した。同社は以前、2025年に当時の国防総省と2億ドルの契約を結んだと発表している。だが、開発元がどこであれ、政府機関や軍事企業に渡ったAIが具体的にどう運用されているのかについては、未だ多くの疑問が残されている。

Amazonで3/9まで大型セール開催中(対象商品をチェック)

Amazonのアソシエイトとして、CNET Japanは適格販売により収入を得ています

この記事は海外Ziff Davis発の記事を4Xが日本向けに編集したものです。