2026年04月08日 12時35分
AI

チャットボットを友人や恋人のように扱ってパーソナルな会話をしたり心理療法(セラピー)に活用したりと、精神的な支えとしてAIが使われるケースが増加しています。しかし、AIとの会話にのめり込みすぎて、偏見を抱いたり自殺に関する情報を得たりと、重大なリスクがある可能性も指摘されています。チャットAI「Gemini」を運用するGoogleは、特に未成年者がGeminiとやり取りする際にメンタルヘルスをより良くサポートするための変更点を発表しました。
Google’s mental health work and support for organizations
https://blog.google/innovation-and-ai/technology/health/mental-health-updates/

Googleは2026年4月7日に、「メンタルヘルスに関する取り組みの最新情報」をブログで公開しました。
Googleが発表したGeminiのアップデートは大きく分けて4点。1つ目は「危機支援へのアクセスを改善」です。会話の中でユーザーがメンタルヘルスに関する情報を必要としている可能性が示唆された場合、Geminiは臨床専門家と共同開発したより効果的かつ迅速なケアへの接続を提供する「サポートが利用可能です」というモジュールを表示します。また、自殺や自傷行為に関連する潜在的な危機を検知すると、危機ホットラインに即座に接続できる「ワンタッチインターフェース」を導入しています。2つ目として、今後3年間で世界各地のホットラインを支援するために総額3000万ドル(約47億円)の資金提供を行うことを発表しました。
3つ目に、Geminiは深刻な精神疾患の状況に適切に対応できるよう支援します。Googleの臨床、エンジニアリング、および安全チームは、安全性と人とのつながりを最優先にした上で、自傷行為への衝動などにより良い対応策を設計し、誤った信念を肯定することを避けるようGeminiをトレーニングしているとのこと。Googleは「Geminiは学習や情報収集に役立つツールではありますが、専門的な臨床ケア、セラピー、あるいは危機対応支援を必要とする人々にとって、それらに取って代わるものではありません。そのため、会話の中で深刻な精神疾患を抱えている可能性を認識したら、適切な支援へと導くことができるようにしています」と述べています。
そして4つ目に、若年ユーザーの保護機能もGeminiは備えています。例えばGeminiがユーザーの仲間であるかのように振る舞ったり自らを人間であると主張したりすることを防ぐ「人格保護機能」のほか、親密さを装ったり欲求を表現したりする言葉遣いを避けること、いじめやその他のハラスメント行為を助長することを防ぐための対策などが含まれています。

Googleは「これらのアップデートは、Googleの最先端の技術と、臨床医や安全専門家の専門知識を活用して人々を支援するという、当社の長期的な取り組みの一環です。これらのツールによって、よりアクセスしやすく、思いやりのある、効果的なサポートを提供できる可能性に期待しています」と説明しています。
Googleで子どもや家族向けの責任あるAI製品戦略を担当しているエイミー・カリアーブレア氏は、AIとメンタルヘルスのアップデートを伝えるムービーの中で「(自殺やハラスメントなどを含む)不適切な会話があった場合、ただAIチャットボットが回答を拒否したりセッションを打ち切ったりする形の規制では、特に子どもを相手にする場合はデメリットがあります」と述べています。また、消費者健康部門の臨床ディレクターであるメーガン・ジョーンズ・ベル氏は「苦痛を和らげ、必要な支援を受けるために実際に役立つのは、目の前で扉を閉めることではありません。助けを求める要望には迅速に対応すべきですが、彼らが必要としている支援はGoogleの製品によって提供されるものではないことを明確に伝える必要があります。それは、単に『その質問にはお答えできません』と言うよりも望ましいことです」と語りました。
AI and Mental Health | Google Safety Updates – YouTube

この記事のタイトルとURLをコピーする
・関連記事
ChatGPT・Grok・Geminiを「カウンセリングの来談者役」にすると結果が質問の出し方だけで激変するとの報告 – GIGAZINE
「ChatGPTヘルスケア」にプライベートな健康情報を入力すべきではないと専門家が指摘 – GIGAZINE
OpenAIいわく「毎週100万人以上がChatGPTで自殺について話している」 – GIGAZINE
人間らしいAIと触れ合うことで現実の人間を「人間らしくない」と見なして虐げる危険性が高まるとの研究結果 – GIGAZINE
「ChatGPTが10代の青年の自殺を助長した」としてOpenAIが訴えられる、ChatGPTの安全策は長い会話では機能しないとOpenAIが認める – GIGAZINE
14歳の息子が自殺する前にAIチャットボットに夢中になっていたとして母親がCharacter.AIを訴える – GIGAZINE
AIセラピストには「重大なリスク」があるとの警告、患者に偏見を抱いたり自殺に関する情報を提供したりと人間のセラピストに取って代わる準備はできていない模様 – GIGAZINE
