OpenAIは米国時間4月8日、AI時代の最も重要な課題の1つである若年ユーザーの保護にどう取り組むべきかを示す、新たな政策の提言を発表した。
訴訟を避けたい他のAI企業と同様、OpenAIも自社のAIが不法または有害な目的で使われるのを防ぐためのガードレールを設けている。しかし、他社と同じくそれらは簡単に回避されてきた。このことが、特に子供やティーンエージャーに壊滅的な影響をもたらす可能性がある。フロリダ州のある家族がOpenAIを相手取って起こした訴訟では、17歳の息子が「ChatGPT」を「自殺のコーチ」として利用したとされる。
OpenAIが発表した計画は、既存の法律と技術的なセーフガードを強化し、生成AIの進化に対応することに重点を置いている。児童安全の支援団体Thornや全米行方不明・被搾取児童センター(NCMEC)、そしてノースカロライナ州のJeff Jackson司法長官とユタ州のDerek Brown司法長官が率いる司法長官同盟のAIタスクフォースと協力して策定したものだ。
この計画には、OpenAIが導入済みまたは構築中の保護策を含む一連の推奨事項が含まれていると、同社は米CNETに語った。ロードマップは広範にわたり、IT企業、州政府、連邦政府、法執行機関、そして支援団体の間での連携を求めている。もっとも、AIモデルの規制は継続的な課題であり、政策の効果が保証されているわけではない。
子供のオンライン上の安全を守ることは、テクノロジー界で特に激しい議論の対象となっている。この議論は、MetaとGoogleが若いユーザーの保護を怠ったとして過失を認められた2つの画期的な裁判を受けて再燃した。AI企業はユーザーの安全をどう守り、失敗をどう回避するかを明確にするよう、強い圧力を受けている。
より厳格な法律と技術的ガードレール
この提言が扱う最大の懸念事項の1つは、児童性的虐待コンテンツ(CSAM)だ。CSAMは以前から存在していたが、生成AIが悪意ある者の活動を加速させた。1月にはxAIの「Grok」を使用した人々が、11日間で約300万枚の性的なAI画像を生成し、そのうち2万3000枚に子供の画像が含まれていた。
この状況は広範囲に及び、大きな怒りを引き起こした。Elon Musk氏のxAIへの調査が始まり、非同意の性的画像の被害者となった3人の10代の少女による訴訟へと発展した。Grokは、「X」(旧Twitter)からの画像編集機能を削除したが、その「スパイシーモード」は今でもウェブサイトで利用可能だ。
OpenAIらは、ディープフェイクやCSAMの作成と共有を規制する法律の改正を推奨している。2025年の報告書によると、45の州がAIやコンピュータによって作成されたCSAMを犯罪としている。提言では、全50州とコロンビア特別区で法律を制定するよう求めている。また、AI企業がCSAMをブロックした場合でも作成者を法執行機関が訴追できるよう、ルールの明確化も求めている。
ほとんどのAI企業は、違法または虐待的なコンテンツの作成を防ぐためのセーフガードを備えているが、それらは完璧ではない。提言では、技術的なガードレールの改善や、AI生成コンテンツを検出する新しいツールの開発にも触れている。これはもう1つの大きな課題だ。AIモデルは本物と区別がつかない画像を作成できるため、AIによる検出は極めて難しい。
また、「全米行方不明・被搾取児童センターによる迅速な対応を支援する、より効果的な通報パイプライン」も求めている。
AIは日常的なテクノロジーになりつつあるが、関連する立法がこれに追いついていない。そうした数少ない法律の1つが、2025年にトランプ大統領が署名して成立した「Take It Down Act」だ。これは、AIが生成したディープフェイクを含む、非同意の親密な画像の共有を禁止するものだ。この法律はSNSプラットフォームに対し、ユーザーがこうした画像の削除を申請できるプロセスを2026年5月までに導入するよう義務付けている。
この記事は海外Ziff Davis発の記事を4Xが日本向けに編集したものです。
Amazonで開催中のセールを見る
Amazonのアソシエイトとして、CNET Japanは適格販売により収入を得ています。
