AIで人間の言葉と思考が均質化、『1984年』の世界を避けるには? | 新聞紙学的

AIで人間の言葉と思考が均質化、『1984年』の世界に?(筆者撮影)

AIが、人間の言葉や思考を「AI寄り」に均質化させている――。

南カリフォルニア大学の研究チームが3月、学術誌に発表した論文で、そう警鐘を鳴らしている。

チャットGPT登場から約3年半で、書き言葉だけでなく話し言葉までAIに似てきたとする研究が相次ぎ、人間の言葉や集合知が痩せ細るリスクが指摘されている。

AIコンテンツは、すでにネットにあふれる。新しいウェブサイトの3分の1は、作成にAIが使われている、との調査もある。

悩みごと相談やレポートの下書きなど、AIに頼る日々の積み重ねが、気づかぬうちに自分の言葉や考え方を「AI寄り」に変えていっているとしたら――。

それを避ける方法とは?

●チャットGPT普及で「文章の複雑さ」が低下

人によって、文章の書き方や思考の仕方、世界の見方は異なる。こうした違いが同じ大規模言語モデル(LLM)によって媒介されると、それぞれの異なる言語スタイル、視点、推論戦略が均質化され、ユーザー間で画一的な表現や思考が生み出されてしまう。

学術誌「トレンズ・イン・コグニティブ・サイエンシズ」に3月11日に掲載された総説論文(要購読)のプレスリリースで、筆頭著者である南カリフォルニア大学大学院博士課程のジヴァル・スラティ氏は、そうコメントしている。

スラティ氏らの研究チームは、論文の中で130件を超す研究を取り上げ、チャットGPTなどのAIチャットボットが急速に普及したことで、人々の書き方、考え方がAI寄りに均質化しつつあり、この傾向が続けば、人類の集合的な知恵と適応能力が低下する恐れがある、と述べる。

AIの普及による人間への影響として、表現の均質化が注目されるようになったのは、2023年頃からだ。

ユニバーシティ・カレッジ・ロンドン経営大学院准教授のアニル・ドーシ氏とエクセター大学教授、オリバー・ハウザー氏が2024年に学術誌「サイエンス・アドバンシズ」に掲載した論文では、約300人のライターが、AI使用グループと使用しないグループに分かれてショートストーリーを書いたところ、AI使用グループは「新規性」「有用性」は向上したものの、内容が互いに類似する傾向があり、「生成AIによって、ライター個人としてはより良い状況を生み出すが、集団としては斬新なコンテンツの範囲が狭まる」と指摘した。

前述のスラティ氏が筆頭著者となった2025年2月の論文(査読前)では、ソーシャルニュースサイト「レディット」、ハイパーローカルニュースサイト「パッチ」、論文共有サイト「アーカイブ(arXiv)」の2018年から2024年までのテキスト約78万件を検証。チャットGPTが公開された2022年11月末を境に、AI生成と判定されたテキストの割合が急増するとともに、人間が生成したテキストも含めた全体のテキストの複雑さの分布が低下していた。

●共同執筆で「自分の意見」までAI寄りに

スラティ氏らは、この均質化がさらに幅広い影響を与えている、と述べる。

懸念されるのは、LLMが人々の書き方や話し方に影響を与えるだけでなく、何が信頼できる発言か、正しい視点か、適切な推論であるかという基準を、知らず知らずのうちに再定義してしまう点だ。

コーネル大学などの研究チームが「ACM CHI 2023会議」で発表した論文では、特定の意見を強調するAI搭載のライティングアシスタントと共同執筆した参加者が、無意識にAIのスタンスを自分の文章に反映させ、その後の自らの意見まで変化させた、との結果を示した。

やはりコーネル大学などの研究チームが「サイエンス・アドバンシズ」に2026年3月11日に掲載した論文でも、同様の結果が示された。

スラティ氏らは、こう述べている。

ユーザーは、自ら積極的に展開を主導するよりも、LLMが提案する続きに任せる傾向があり、独自の展開を考案するのではなく「これで十分」と思われる選択肢を選ぶことが多く、その結果、主導権が徐々にユーザーからLLMへと移っていってしまう。

●「実用主義者」が最大4割、影響は一様ではない

一方、AIによる影響は一様ではない、との指摘もある。

独立研究者のヴィバン・ドーシ氏らは、2025年11月に「アーカイブ」に公開した論文(査読前)で、「アーカイブ」の査読前論文と、メッセージサービス「ディスコード」の投稿、合わせて5万件を超すテキストをチャットGPT登場前後にわたって分析。

その結果、投稿者は一律にAIに影響されるわけではなく、AI特有の文体を積極的に取り入れる層(18%)、人間独自の表現スタイルを固持しようとする層(21%)、 AIを活用しつつ独自の文体は維持する層(41%)の三層に分かれ、最後の「実用主義者」が最大だったとした。

●ペルソナ10種で多様性は守れるか

AIによる均質化に対抗する方策はあるのか。

ヒューストン大学ダウンタウン校のユン・ワン氏らは、2026年5月に学術誌「コンピューターズ・イン・ヒューマン・ビヘイビア:アーティフィシャル・ヒューマンズ」で公開した論文で、文化背景や思考スタイルが異なる10種類の「多様なAIペルソナ」を用いてアイディアを生成することで、人間がAIの支援を受けても、集団全体の多様性を人間のみの場合と同等、あるいはそれ以上に維持できる、とした。

冒頭の南カリフォルニア大学のスラティ氏らも、複数の研究成果を踏まえて、AIと人間の相互作用で多様性を担保するためのいくつかの可能性を挙げる。

稀で高品質な生成結果に報酬を与える「多様性を考慮した重み付け」を学習プロセスに導入。

複数のAIによる討論ベースのフレームワークを用いることで、単一のAIよりも広範でバランスの取れた視点や議論を生成させる。

人間中心の多様性を評価基準に据える。

AIによる影響を可視化してユーザーに明示し、無意識の同調を防いで個人の主体性を維持するインターフェースの開発。

●ネットの3分の1がAI製、フィードバックループの加速

AI生成のコンテンツは、すでに情報空間に氾濫している。

2025年半ばまでに、新規公開されたウェブサイトの約35%がAI生成またはAI支援テキストに分類され、2022年後半のチャットGPTの公開前はゼロだったことが分かった。また、インターネット上のAI生成テキストの増加は、意味的多様性の低下と肯定的な感情の増加をもたらすことを示唆する証拠も見つかった。

インペリアル・カレッジ・ロンドン、インターネット・アーカイブ、スタンフォード大学の研究チームは、2026年4月14日に公開した論文でそんな研究結果を発表した。

AIコンテンツの氾濫は、その品質の低さから「AIスロップ(ゴミ)」とも呼ばれる。

※参照:「AIが生成したゴミでネットが汚染された」研究用データベースが更新停止したわけとは?(09/24/2024 新聞紙学的)
※参照:ガザからクマまで、粗製濫造の「AIスロップ」がSNSに氾濫した2025年、AI社会の行きつく先は?(12/22/2025 新聞紙学的)

そして、均質化したAIコンテンツの氾濫によって、人間の表現や考え方も均質化し、それをさらにAIが学習する――このフィードバックループは、AIの均質化と人間の均質化を強化し続けることになる。

その影響はテキストに限らない。

ドイツのマックス・プランク人間発達研究所の矢倉大夢氏ら研究チームによる2024年の論文(査読前)では、ユーチューブやポッドキャストの話し言葉でも、チャットGPT公開後にAIに特徴的な表現の使用が増加したことを示しており、書き言葉だけでなく話し言葉もAIの影響が浸透していることを示している。

●中国AIの検閲、ロシアの「LLMグルーミング」――政治化する均質化

この均質化を推進するアルゴリズムやデータセットそのものへの中央集権的な管理もまた、極めて政治的な性質を帯びている。大きな政治的影響力を持つ、数十億ドル規模の企業が所有する少数のプラットフォームが支配することで、その傾向はさらに強まっている。世界的にポピュリズムが高まる中、こうした権力の集中はトップダウン型の均質化を可能にし、特定の利益や権力を集中的に確保するために、人々の視点が巧妙に操作される事態を招きかねない。

南カリフォルニア大学のスラティ氏らは、そんな警鐘を鳴らす。

ロイター通信の2025年7月の記事では、米政府当局がアリババのクウェン3やディープシークのR1など中国のAIを検証し、南シナ海の領有権問題や天安門事件に関して、中国政府の主張に沿った回答をする傾向が著しく高い、といった評価をしていた、と報じている。

また、スタンフォード大学教授のジェニファ・パン氏らは2026年2月に学術誌「PNASネクサス」に掲載した論文で、中国で開発されたAIと中国以外の国で開発されたAIを比較すると、中国発のAIは、145の政治的質問に対する回答拒否率、回答時間の短さ、および回答の不正確さが著しく高いとし、その背景に政府の検閲がある可能性を示している。

さらに、学習データとしての偽・誤情報を氾濫させることで、大規模言語モデル(LLM)を汚染させる「LLMグルーミング(手なづけ)」によるロシア発の影響工作も指摘されてきた。

※参照:標的は「生成AI汚染」、年360万件超のプロパガンダを量産するロシア影響工作ネットのインパクトとは?(03/10/2025 新聞紙学的)
※参照:偽情報をオウム返し「生成AI汚染」1年で倍増、ロシア工作ネットの影深まる(09/08/2025 新聞紙学的)
※参照:「悪のAIスウォームが民主主義の破壊的脅威に」22人の世界的専門家が警告するリスクとは?(01/26/2026 新聞紙学的)

●「ニュースピーク」に匹敵する脅威

アルゴリズムと市場原理によって多様な思考が抹消されるこの状況は、オーウェルの『1984年』に登場する「ニュースピーク」による言語統制に匹敵する現代的な脅威をもたらしている。

スラティ氏らは、そう指摘する。

オーウェルの『1984年』には、党のイデオロギーに反する考え方(思考犯罪)を不可能にするために語彙を削減した「ニュースピーク」が登場する。

ニュースピークは世界で唯一、毎年語彙が減っていく言語だって知っているか?(中略)ニュースピークの目的は思考の範囲を狭めることにあるのが分からないのか? 最終的には、思考犯罪を文字通り不可能にする。なぜなら、それを表現する言葉がなくなるからだ。(第1部第5章)

AIによる言葉や思考の画一化は、なるほど、語彙を減らし思考の範囲を狭める「ニュースピーク」を思わせる。

『1984年』の結末とは違い、言葉や思考の画一化に対抗する手段は、まだ残っている。

■人類は、チャットGPTで何をしようとしているのか? 『チャットGPTvs.人類』(文春新書)

■AIに潜む「悪」とは何か?『悪のAI論 あなたはここまで支配されている』(朝日新書)

■フェイクニュースの本当の怖さとは?『信じてはいけない 民主主義を壊すフェイクニュースの正体』

■デジタルメディア・リテラシーをまとめたダン・ギルモア著の『あなたがメディア ソーシャル新時代の情報術』(拙訳)全文公開中

いいね 読み込み中…

関連