「ChatGPT」は、妙なほどゴブリンに執着していた。これは冗談ではない。本当にゴブリンやグレムリンなど空想の生き物が大好きだったのだ。脈絡もなく回答の中でゴブリンを持ち出す不具合について、開発元のOpenAIが原因を調べて修正に乗り出すほどだった。
なお、ゴブリンはコンピューターサイエンスの専門用語ではない。物語に出てくる、あの醜い生き物のゴブリンだ。「ロード・オブ・ザ・リング」にも登場した。
OpenAIは、楽しんで書いたことがうかがえるブログ記事で、こう述べている。「回答に『小さなゴブリン』が1匹紛れ込む程度なら害はなく、むしろ愛嬌があるかもしれない。モデルの世代を重ねるにつれて、この癖は見過ごせないものになった。ゴブリンは増え続けたのだ」
こうしたゴブリン愛は、「GPT-5.1」以降のモデルで顕著になった。OpenAIによると、GPT-5.1の投入後、ChatGPTの回答における「ゴブリン」の使用は175%増加し、「グレムリン」の使用は52%増加した。
OpenAIは、この挙動の原因を意図しない学習上のミスにあるとしている。AIモデルの構築時には、強化学習と呼ばれるプロセスで、人間のレビュアーが特定の回答を承認したり却下したりする。これによって、どの答えが正しい、あるいは望ましいかをモデルに学習させる。その報酬シグナルの1つが、ゴブリンなどの生き物を含む表現を優遇してしまったのだ。さらに、その傾向がChatGPTのある特定の設定で増幅されていた。
ChatGPTには、利用者が切り替えられる複数の性格設定がある。その1つである「Nerdy」は、内部プロンプトによると、遊び心のある言葉遣いによって気取った雰囲気を和らげる、親しみやすい知性を演出する設定だ。この「Nerdy」人格で、ゴブリンとグレムリンというキーワードの使用が急増した。
ただし、ChatGPTで「Nerdy」を使っていなくても、チャットの中にゴブリンの比喩が紛れ込むことはあり得た。AIの学習は完全に分離されているわけではなく、ある部分で起きたことが別の部分にも影響を与えるからだ。OpenAIは、「ある文体上の癖が報酬によって強化されると、その後の学習で別の箇所にも広がったり、さらに強められたりすることがある。特に、その出力が教師ありファインチューニングや選好データに再利用される場合はそうだ」と説明している。
OpenAIは、GPT-5.4の導入後の2026年3月に「Nerdy」の性格設定を廃止し、「ゴブリン」の使用量は大幅に減少した。あわせて、ゴブリンを好む報酬シグナルを取り除き、訓練データにもフィルターをかけることで、回答内でこうした生き物への言及が出にくくなるよう調整した。同社は、GPT-5.1が公開された2025年11月以降、この過剰なゴブリン愛の事例を調査してきたという。
「ロード・オブ・ザ・リング」絡みの冗談として片づけることもできるが、このゴブリンの大量発生は、AIにまつわる現実のリスクを浮き彫りにしている。AIを作る人間の設計や判断は、私たちの日々の利用体験に影響するからだ。
真のリスクは、オタクっぽい比喩があふれることではない。誤情報とバイアスだ。AIチャットボットが利用者を喜ばせるために事実をねじ曲げることは、すでに知られている。ゴブリンのような小さな癖も、注意を怠れば、より大きな問題につながる可能性がある。
この記事は海外Ziff Davis発の記事を4Xが日本向けに編集したものです。
Amazonで開催中のセールを見る
Amazonのアソシエイトとして、CNET Japanは適格販売により収入を得ています。