X、AI Grokのビキニ化や水着化を規制すると発表

Xは2026年1月15日、X上の「@Grok」アカウントに関する画像生成・編集機能の運用を見直したと公表しました。目的は、実在人物の画像を同意なく性的に加工する用途(ビキニ化など)を抑止し、違法・有害コンテンツの流通を防ぐことにあります。

リリースの主な要点

1つ目は、実在人物の画像編集に対する技術的制限です。Xは「実在の人物をビキニなど露出の多い服装に加工する」編集を、@Grok経由ではグローバルに許可しない仕組みを導入したと説明しています(有料利用者を含むすべてのユーザーが対象)。

2つ目は、画像生成・編集機能の提供範囲を「有料加入者」に絞った点です。悪用が疑われる場合に追跡・対処しやすくする、という整理で「追加の保護層」と位置づけています。

3つ目は、法域ごとの地理的制限(ジオブロック)です。女性の過度な露出が違法とされる地域では、ビキニ・下着など「露出が高い服装の実在人物画像の生成」を利用できないよう制限し、Grokアプリ側でも同様の措置を進めるとしています。

背景にあったのは「同意のない性的画像」と「未成年リスク」

今回のアップデートは、単なる機能改善というより、規制当局と世論の圧力が一気に高まった為の対応でした。

英国の通信規制当局Ofcomは、Grokが「人の服を脱がせたような画像」や、子どもの性的画像に該当し得るコンテンツの生成・共有に使われたとの報告を受け、Online Safety Act(オンライン安全法)に基づく正式に調査を開始しています。

なお、Ofcomは、Xが1月15日に講じた対策を「歓迎する」としながらも、調査は継続すると明言しました。

日本語圏でも、画像生成AIのフィルタ回避を連想させる言い回し(「ビキニ可」など)が話題化した経緯があり、実在人物の水着化がミームとして消費されやすい土壌が、被害を拡散させる側面は否定できません。

 

関連:生成AIを悪用し女性芸能人のわいせつ画像を販売した容疑者を逮捕-ディープフェイクの国内外の規制動向

この記事をシェアする

メールマガジン

最新のセキュリティ情報やセキュリティ対策に関する情報をお届けします。

投稿者:三村

セキュリティ対策Labのダークウェブの調査からセキュリティニュース、セキュリティ対策の執筆まで対応しています。

セキュリティ製品を販売する上場企業でSOC(セキュリティオペレーションセンター)やWebサイトやアプリの脆弱性診断 営業8年、その後一念発起しシステムエンジニアに転職。MDMや人事系のSaaS開発を行う。