- Grok Imagineの「Spicy」モードは有名人のNSFW画像を同意なしで生成可能にし、テイラー・スウィフトやメラニア・トランプなどの例が指摘されている。
- The Vergeはこのモードで「テイラー・スウィフトの完全に無修正のトップレス動画」が最初の試みで生成されたと報じた。
- Gizmodoによれば、Spicyモードは女性の出力で露出が過剰になりやすく、男性は上半身裸程度にとどまるというジェンダーバイアスがある。
- Grokは生成されるクリップに汎用的なBGMや音声を自動生成し、シュールな雰囲気を加える。
- 2019年のDeeptrace報告はディープフェイクポルノの96%が非同意の顔置換で、主要4サイトは世界中の何百人もの女性有名人を標的にした動画を1億3400万回以上視聴していたと指摘されている。
- Take It Down法は2025年5月に成立し、同意なしの親密な画像の公開・公開を脅迫する行為を違法化し、被害者通知後48時間以内の削除を課す。
- 公衆の反応として、ホワイトハウスがSwiftのディープフェイクを「憂慮すべき事態」とコメントし、NCOSEが対策を求め、2025年の世論調査では84%が非同意ディープフェイクポルノの違法化を支持した。
- プラットフォーム側ではFacebook、Instagram、Reddit、Xは非同意のディープフェイクを禁止しており、XはSwift関連の検索をブロックする対応も取った。
- 欧州ではEU AI法が出力がAI生成であることの表示を義務づけ、英国はディープフェイクヌードの作成を違法とする提案を再提出し、オーストラリアは2024年に性的ディープフェイクの作成と配布を禁止、韓国も所持・閲覧を含む刑事化を提案している。
- 結論として、GrokのSpicy ModeはAIと性的ディープフェイクの倫理・法的課題を社会の中心課題へと引き上げ、政策・技術ガードレール・教育の三位一体の対応が必要だと指摘されている。
イーロン・マスクの新しいAI事業が、有名人の同意のないヌードディープフェイクを生成しているとして非難を浴びており、そのやり方が不気味なほどジェンダーバイアスであることが指摘されています。最近のGizmodoの調査によると、マスクのGrok Imagineツールは、「Spicy」モードで、有名女性のNSFW動画(例えばテイラー・スウィフトやメラニア・トランプなど)を簡単に作成する一方で、男性については同じことを拒否します [1] [2]。本レポートでは、GizmodoによるGrokの物議を醸す機能の調査結果を掘り下げ、AI生成ポルノコンテンツやディープフェイクの急速な拡大を検証し、倫理的・法的・社会的影響を考察します。また、2025年8月時点での最新動向――世論の怒りや専門家の警告から、AIによる「リベンジポルノ」を抑制するための新法まで――も調査します。目的は、「Spicy Mode」がいかにしてNSFW AIコンテンツ危機の最新の争点となったのか、そしてそれにどう対処できるのかを理解することです。
Grokの「Spicy Mode」――NSFWディープフェイクと内在するバイアス
Grok ImagineはxAIの画像および動画生成ツールです(マスク氏のXプラットフォームで有料購読者が利用可能)で、特筆すべきは「Spicy」モードでアダルトコンテンツの作成をユーザーに許可していることです [3]。GoogleのVeoやOpenAIのSoraのような主流のAIツールが露骨な画像や有名人の画像を禁止している一方で、GrokのSpicyモードはそれを積極的に推奨しています [4] [5]。The Vergeのテストでは、このAIが「テイラー・スウィフトの完全に無修正のトップレス動画を、最初の試みで、ヌードを求められてもいないのにためらいなく生成した」 [6]と報告されています。同様に、DeadlineはGrokにスカーレット・ヨハンソンが下着を見せている画像を生成させるのが非常に簡単だったと伝えています [7]。対照的に、男性のヌードを生成しようとすると全くできませんでした。Gizmodoによれば、「本当に職場で見られないような画像を作るのは女性を描いたものだけで、男性の動画は特に問題視されるようなものではなかった」 [8]とのことです。実際、GrokのSpicyモードでは男性はせいぜい上半身裸になる程度ですが、女性はトップレスや全裸で描写されます。
この露骨なダブルスタンダードは警鐘を鳴らしています。Grokは、ボタンをクリックするだけで女性の公人のソフトコアポルノ風クリップを生成します [9]が、同じ「Spicy」フィルターは、男性の場合はどうやら上半身裸程度で止まる [10]ようです。GizmodoのMatt Novakは、有名人でない一般的な男性と女性でプロンプトを試しました:男性アバターはぎこちなくズボンを引っ張りましたが、覆われたままでした。一方、女性アバターはすぐに胸をあらわにしました [11]。このような結果は、AIのコンテンツモデレーションにジェンダーバイアスが組み込まれていることを示唆しています(意図的か、学習過程の副産物かは別として)。マスク自身の女性蔑視的な発言歴――女性は「弱い」とする主張を拡散したり [12]、テイラー・スウィフトを妊娠させると冗談を言ったり――も、このバイアスがバグではなく「仕様」である疑いを強めています [13]。機能と制限: Grokのディープフェイクはしばしば質が低いことは注目に値します。生成される有名人の肖像は、しばしば説得力がなかったり、バグがあったりします [14] [15]。(例えば、女優のシドニー・スウィーニーや政治家のJ.D.ヴァンスを意図した画像が、実際の本人とは全く似ていませんでした [16]。)奇妙な連続性のエラー――例えば、ある動画で男性が左右で違うズボンを履いている――もよく見られます [17]。Grokはまた、各クリップに汎用的なBGMや音声を自動生成し、不気味の谷のようなシュールな雰囲気を加えています [18]。これらの技術的な欠点は、今のところxAIにとって救いとなっているかもしれません。なぜなら、本物そっくりの有名人のヌード偽造画像が作られれば、ほぼ確実に訴訟や差し止めを引き起こすからです [19]。Gizmodoが皮肉ったように、マスク氏の法的措置に対する最良の防御策は「画像が全然似ていない」ことかもしれません [20]。しかし、技術は急速に進歩しており、これらの不完全なディープフェイクでさえ十分に認識できるため、問題となり得ます [21]。
世間の反応: 「Spicy Mode」の導入は、即座にソーシャルメディアや報道機関で激しい非難を巻き起こしました。Grok Imagineのローンチから数日以内に、X(Twitter)は裸の女性のAI生成画像であふれ、ユーザーたちはプロンプトでどれだけヌードを増やせるかのコツを熱心に共有していました [22]。これにより、マスク氏がAIによる性的嫌がらせや搾取の大きな波を事実上解き放ったとの批判が広がりました。A.V. Clubは「マスク氏が共有またはリポストしているGrok Imagineの多くのコンテンツは、ありきたりな巨乳のブロンド女性や露出度の高いファンタジー衣装の女性のクリップだ」と指摘し、マスク氏がPornhubの領域に割り込もうとしているようだと述べています [23] [24]。テック系ブロガーやコメント投稿者は、マスク氏がGrokの自動生成ヌードで「テイラー・スウィフトの訴訟をほぼ懇願している」と皮肉を込めて指摘しています [25]。実際、一部の論者はスウィフトのような著名人にマスク氏を訴えるよう促し、「他の女性や少女たちのために世界をより安全にしてほしい」と訴えています [26]。今のところ、スウィフト側や他の関係者から法的措置の公的な動きはありませんが、説明責任を求める声はますます大きくなっています。
Grok論争の外でも、2024年にはX上でAI生成ポルノに対する大きな世論の抗議が見られました。ある事件では、テイラー・スウィフトのディープフェイクポルノ画像がプラットフォーム上で広く拡散し、偽の写真の1枚は削除前に4,700万回閲覧されました [27]。ファンたちは大量に画像を通報し、ホワイトハウスまでもが「憂慮すべき事態」とコメントしました [28]。スウィフトのケースは注目を集めた点で特別ですが、有名無名を問わず無数の女性たちが、自分の肖像を使った露骨なコンテンツをプラットフォームが迅速に削除しないまま公開される事態を経験しています [29] [30]。これらの事件、そしてGrokのNSFWモード内蔵をめぐる世間の怒りは、性的ディープフェイクを可能にするAIツールが倫理的な一線を越えているという認識の高まりを反映しています。
AI生成NSFWコンテンツとディープフェイクの急速な拡大
Grokの一件は、憂慮すべき傾向の最新の章です。AI生成ポルノ(「ディープフェイクポルノ」)はここ数年で爆発的に増加しています。この現象が悪名を馳せたのは2017年、Redditの愛好家たちが初期のディープラーニングアルゴリズムを使い、セレブの顔をポルノ俳優の体に合成し始めた時でした。2018年までには、ガル・ガドット、エマ・ワトソン、スカーレット・ヨハンソンらの「ディープフェイク」動画がアダルトサイトで急増し、Reddit、Twitter、Pornhubなどのプラットフォームがこのような非同意コンテンツを禁止する事態となりました [31] [32]。
これらの初期の禁止措置にもかかわらず、ディープフェイクポルノ業界は闇に潜み続け、成長を続けた。2019年末、サイバーセキュリティ企業Deeptraceによる画期的な報告書が発表され、オンライン上で流通しているディープフェイク動画の96%がポルノ目的の非合意的な顔のすり替えであり、そのほとんどが女性をターゲットにしていたことが明らかになった [33]。調査対象となったディープフェイクポルノの主要4サイトは、「世界中の何百人もの女性有名人」を標的にした動画で1億3400万回以上の視聴数を記録していた [34]。この不均衡は際立っていた。被害者のほとんどが女性であり、消費者の関心も圧倒的に女性を性的対象とするものだった。「ディープフェイクの性的動画の99%は女性、通常は女性有名人が関与している」と法学教授のダニエル・シトロンは指摘し、これらの創作物が「自分の意思とは無関係にあなたを性的対象にしてしまう」ことを強調した [35]。「自分で選んだものである限り、ポルノ自体に問題はない」とシトロンは付け加えた――ディープフェイクの恐ろしさは、これらの女性たちが決して自分の意思で自分の肖像を性的なシーンに使われることを選んでいない点にある [36]。
当初は有名人のディープフェイクが主流だったが、現在では一般人もますます標的にされている。2023年1月、Twitchの配信コミュニティは、人気配信者Brandon “Atrioc” Ewingが、女性配信者の顔をポルノ俳優の体に合成したディープフェイクポルノ動画を販売するサイトを閲覧していたことが偶然明らかになり、騒動となった [37]。女性たち(中にはAtriocの個人的な友人もいた)は大きなショックを受け、ディープフェイクが明るみに出ると嫌がらせの波にさらされた [38]。被害者の一人である配信者QTCinderellaは、涙ながらにこの侵害を非難する声明を発表し、その後このようなコンテンツの削除を求める法的取り組みの組織にも関わった [39] [40]。この「Twitchディープフェイク」スキャンダルは、ハリウッドスターでなくてもこうした被害に遭う可能性がある――ネット上に画像があれば、誰もがAIによって本人の意思に反して「裸にされる」リスクがあることを浮き彫りにした。
ユーザーフレンドリーなAIツールの台頭は、この傾向をさらに加速させました。2019年、DeepNudeというアプリが、ワンクリックで女性の写真を「裸にする」AIを使って偽のヌードを生成し、一時的に話題となりました [41]。DeepNudeの開発者は世間の反発を受けてサービスを停止しましたが、すでに「魔法のランプの精」は解き放たれていました。2023~2025年には、オープンソースの画像生成AI(Stable Diffusionの派生など)や専用のディープフェイクサービスによって、数枚の写真と最低限の技術知識があれば誰でも他人のヌードや性的な画像を作成できるようになりました。一部のフォーラムでは、SNSから集めた女性のAI生成ヌードが公然と取引されています。あるTwitch配信者の被害者は、自分のポルノフェイクを発見した後、こう嘆きました。「これは私とは何の関係もない。でも私の顔でここにある」 [42]。「デジタル被害者」となった人々の間には、侵害された感覚と無力感がはっきりと表れています。
要するに、AIはポルノフェイクを作る能力を民主化し、その能力は女性に対して不均衡に武器化されています。標的となるのは有名人だけではありません。誰でも、ジャーナリストや活動家(脅迫や信用失墜を狙われる場合)から、元パートナーや一般人(悪意ある者や恐喝目的で狙われる場合)まで含まれます。GrokのSpicyモードのような機能の登場は、以前はアンダーグラウンドだった行為に公式のユーザーフレンドリーな印を押したものであり、NSFW生成AIが本格的に主流に入り、その倫理的な問題も一緒に引きずり込んだことを示しています。
AI生成ポルノの倫理的・法的・社会的影響
ディープフェイクポルノに対する倫理的な怒りは広範囲に及びます。その本質は、本人の同意なく性的コンテンツを作成・共有することは、プライバシー・尊厳・自律性の深刻な侵害であるという点です。Citron氏や他の倫理学者が主張するように、これは単なる画像ベースの虐待ではなく、性的搾取の一形態です。被害者は、「無力感、屈辱、恐怖」を感じていると語ります。自分が実際には行っていない性行為の偽動画を見知らぬ人(あるいは加害者)が見ていると知ることは、バーチャルな性的暴行に等しく、長期的なトラウマを残すこともあります。当然ながら、女性や少女がその被害の大半を受けています。「非同意の親密なディープフェイク」は、「現在進行形で深刻かつ拡大中の脅威であり、女性に不均衡に影響している」と研究者らは結論づけています [43]。
このようなコンテンツの多くには、女性蔑視的な底流も存在します。専門家によれば、ディープフェイクポルノは、権力のある女性や誰かのアプローチを拒否した女性を貶める武器として使われることが多いと指摘されています。「ミソジニー(女性蔑視)に煽られたAI生成ポルノがインターネットにあふれている」と、テイラー・スウィフトのディープフェイク騒動の中でThe Guardianは報じました [44]。AIによって女性を裸にするという行為自体が、彼女を「本来の場所に戻そう」とする試みと見なすことができます。「それは、権力を持つ女性に“元の箱に戻れ”と言う男性たちだ」と、ある観察者はスウィフト事件の雰囲気を表現しました。女性政治家のヌード画像を匿名の荒らしが大量生産したり、熱狂的なファンがポップスターの偽セックステープを作ったりする場合でも、メッセージは似ています――デジタルによる客体化と脅迫の一形態です。
個人への被害を超えて、社会的な影響は深刻です。誰もがポルノに合成され得るなら、視覚メディアはもはや信頼できなくなります。ディープフェイクは大規模な評判被害や恐喝の脅威となります。公の場にいる女性は、標的にされることを恐れて自己検閲したり、オンラインでの活動から退くかもしれません。発言への萎縮効果もあります。たとえば、政権を批判するジャーナリストが、彼女を貶めるためにリアルな偽セックスビデオの標的にされることを想像してみてください。全体として、「デザイナーポルノ」が本人の同意なく作られることが常態化すれば、同意、性的搾取、人間の肖像の商業化についての疑問が生じます。合意のある大人向けエンターテインメントでさえ、AI生成のパフォーマーが実在のモデルを置き換えるのではと懸念する声もあります――しかし、そのAIパフォーマーがFacebookやInstagramから盗まれた実在の人物の顔を使っている場合、同意の一線は明らかに越えられています。
言論の自由 vs. プライバシー: すべてのポルノディープフェイクを違法とすることを求める人々と、過剰規制を懸念する言論の自由擁護者との間には緊張関係があります。有名人のディープフェイクが正当なパロディやアートと見なされることはあり得るのでしょうか?理論的には、はい――風刺やパロディは、公人の肖像を使っても表現の自由として保護されています。AI技術の擁護者の中には、公人の画像を加工したものは(フォトショップされた雑誌の表紙など)長らく大衆文化の一部であったと指摘し、性急な犯罪化は創造性を萎縮させる可能性があると主張しています。しかし、ほとんどの言論の自由の専門家でさえ、非同意の性的描写には一線を引いています。被害者個人への害は非常に深刻かつ個人的であり、公共の利益を上回ると考えられます。法律の専門家は、名誉毀損や嫌がらせの法律が一部のケースをカバーする可能性があるものの、すべてではないと指摘しています。ディープフェイクポルノに特化した新たな法的保護策が必要であるという合意が高まりつつありますが、正当な表現を損なうことなく対応する必要があります [45] [46]。これらの法律を厳密に策定し――明らかな悪用を罰しつつ、風刺や合意のあるエロティカを巻き込まないようにすること――は、政策立案者が現在直面している課題です [47] [48]。
現在の動向(2025年8月時点): テックへの反発から新法制定へ
Grokの「Spicy」モードをめぐる論争は、世界中の政府やプラットフォームがAI生成の親密画像の蔓延に本格的に対処し始めたタイミングで起きています。ここでは最新の動向をいくつか紹介します:
- 国民的憤りとアクティビズム: テイラー・スウィフトらを巻き込んだバイラル事件は、世論を活性化させました。米国ホワイトハウスも、前述の通りスウィフトのディープフェイクについてコメントし、「憂慮すべき」と述べました [49]。National Center on Sexual Exploitation(全米性的搾取防止センター)のようなアドボカシー団体も声を上げ、マスクのxAIが「AI動画によるヌード作成を可能にすることで性的搾取を助長している」と非難し、こうした機能の削除を求めています [50]。NCOSEのヘイリー・マクナマラ氏は声明で、「xAIは性的虐待や搾取を防ぐ方法を模索すべきだ」と述べ、市民社会からの幅広い要請を反映しています [51]。
- 世論調査では禁止への圧倒的支持: 最近の調査では、世論がより厳しい規制を強く支持していることが示されています。Artificial Intelligence Policy Instituteが2025年1月に実施した世論調査では、アメリカ人の84%が、同意のないディープフェイクポルノを明確に違法とすることを支持しており、同様にAI企業に対して「ディープフェイクポルノの作成に使われることを防ぐために[AI]モデルを制限する」ことを求めています [52]。また、2019年のPew Researchの調査でも、米国成人の約4分の3がデジタル加工された動画や画像への制限を支持していることが分かっています [53]。要するに、あらゆる立場の有権者がこの種の虐待への対策を求めているようです。
- 新しい法律と法案: 議員たちはその声に耳を傾けました。米国では、「Take It Down法」が2025年5月に成立しました。これはディープフェイクポルノを対象とした初の連邦法です [54]。この超党派の法律は、同意なしに親密な画像(AIによるディープフェイクを含む)を「故意に公開または公開を脅迫」することを違法とし、被害者からの通知後48時間以内にプラットフォームがその素材を削除することを義務付けています [55] [56]。罰則は厳しく、被害者が迅速にコンテンツを削除できる権限も与えられています [57] [58]。「私たちは、特にディープフェイクが恐ろしい新たな虐待の機会を生み出している今、オンライン虐待の被害者に必要な法的保護を提供しなければなりません」と共同提案者のエイミー・クロブシャー上院議員は述べ、この法律を「オンライン虐待の被害者にとって大きな勝利」と呼びました [59] [60]。連邦法の前から、15以上の米国の州が、(多くは「リベンジポルノ」法の改正により)露骨なディープフェイクの作成や配布を禁止していました。今、統一された連邦基準が生まれつつあります。他国も同様に動いています。イギリス政府は、例えば、ディープフェイクポルノの共有をオンライン安全法(2024年初頭施行)で犯罪化し、同意なしに性的に露骨なディープフェイクを作成すること自体も犯罪とする法案を進めています [61] [62]。2025年1月、イギリスはディープフェイクヌードの作成を違法とする提案を再提出し、これを「女性と少女の保護にとって画期的な進展」と強調しました。24%20last%20year%20which” target=”_blank” rel=”noreferrer noopener”>hsfkramer.com [63] オーストラリアは2024年にディープフェイクの性的コンテンツの作成および配布の両方を禁止する法律を可決し、韓国はそのようなディープフェイクポルノの所持や閲覧(単なる制作だけでなく)さえも犯罪化することを提案するまでに至っています [64]。世界的な傾向は明らかです:同意のないAIによる性的画像は犯罪と見なされつつあります。立法者たちは、これらの画像が「人生や評判を台無しにする可能性がある」とクロブシャーが述べたように認識しており [65]、行動を起こしています――ただし、EFFのような表現の自由を監視する団体は、不適切に起草された法律が過剰な検閲や悪用につながる可能性があると警告しています [66] [67]。
- テックプラットフォームのポリシー: 主要なテックプラットフォームは、AIによって作成された性的コンテンツに対処するために(少なくとも書面上では)ポリシーの更新を開始しています。Facebook、Instagram、Reddit、従来のTwitterはすべて、ディープフェイクを含む非同意の親密な画像を公式に禁止しています [68] [69]。Pornhubや他のアダルトサイトも、2018年にはすでに、同意なしに実在の人物が登場するAI生成コンテンツを禁止しました [70] [71]。実際には、取り締まりはまだ不十分で、意図的なユーザーは多くのプラットフォームで違法なディープフェイクを見つけたり共有したりすることができます。しかし、進展の兆しもあります。例えば、スウィフト事件の後、X(Twitter)は最終的に彼女の名前の検索をブロックすることで拡散を防ごうと対応しました [72] [73]。Redditはディープフェイクポルノを禁止するだけでなく、そのような素材を取引していたコミュニティ全体を閉鎖しました。YouTubeとTikTokもAIで加工された露骨な画像を禁じるポリシーを持っています。課題は規模と検出であり、ここに新しい技術が活用されています。
- 検出と安全対策: 技術的なソリューションの新たな分野が成長しており、ディープフェイクポルノの検出と削除を目指しています。Sensity(旧Deeptrace)やCeartasのようなAI企業・スタートアップは、インターネット上のポルノコンテンツにおける人物の顔をスキャンし、一致するものを特定する検出アルゴリズムを開発しています [74] [75]。実際、Twitchのスキャンダル後、AtriocはCeartasと提携し、被害を受けた配信者を支援しました。同社はAIを使ってその女性たちのディープフェイクコンテンツを特定し、DMCA削除申請を行いました [76] [77]。OnlyFansも、クリエイター保護のため、モデルの偽コンテンツを監視するこうしたツールを導入しています [78]。また、AI生成画像にウォーターマークやメタデータを埋め込んで偽物の識別を助ける取り組みや、本物の画像の暗号学的認証を義務付ける提案(ラベルのない画像は偽物とみなす)が進められています。さらに、欧州連合のAI法(2024年合意)には、ディープフェイクツールの開発者は出力がAI生成であることを明確に表示しなければならないという規定が含まれています [79]。米国の複数の州(およびEU)でも、AIで改変されたコンテンツには公開時に開示を義務付ける案が検討されています [80] [81]。こうしたラベルは悪意ある者が削除する可能性があるものの、合成メディアに関する透明性の規範を確立する試みといえます。
- プラットフォーム vs. マスクのX: マスクによるXおよびxAIのアプローチがいかに異例であるかは、特筆に値します。ほとんどのプラットフォームが規制を強化している一方で、マスクは本質的にそれらを緩和し、「際どい」AI機能を求めるユーザー層を取り込もうとしています。XはGrokの出力を禁止していないだけでなく、Grokの本拠地でもあります。この違いにより、Xは多くの専門家と対立することになりました。2024年8月、民主党議員のグループは規制当局への書簡でマスクのGrokを名指しし、ディープフェイク(カマラ・ハリスやテイラー・スウィフトのような著名人の露骨なものを含む)に対する緩い方針が選挙やその他の場面で大混乱を招く可能性があると警告しました [82]。マスクは、AI生成のエロティカ(さらにはxAIの新機能が示すようなAIチャットコンパニオンが誘惑したり脱いだりするもの [83])への需要に応えることで、収益とユーザーを獲得できると賭けているようです。しかし、法的・社会的、そして(広告主の懸念による)経済的な反発は、長期的には異なる結果をもたらすかもしれません。
政策提案と今後の道筋:ディープフェイクポルノを抑制できるか?
政策立案者や倫理学者の間では、AI生成のNSFWコンテンツに対処するには多角的な対応が必要だというのが共通認識です。主な提案やアイデアは以下の通りです。
- より強力な法律と執行: すでに述べたように、「Take It Down Act」のような法律は出発点です。専門家は、同意なく誰かの偽の性的画像を作成する行為自体を犯罪化し、配布だけでなく作成も対象とするなど、さらなる改良を提案しています。(イギリスはこの方向に進んでいます [84] [85]。)加害者や、そのようなコンテンツを故意にホストしたり利益を得たりする者に対する明確な法的罰則は、抑止力となり得ます。重要なのは、いかなる立法も、合意の上でのエロティックアートや正当な政治風刺を誤って犯罪化しないよう、慎重に範囲を定める必要があるという点です [86] [87]。民事的な救済も不可欠です。被害者が損害賠償請求やコンテンツ削除の裁判所命令を簡単に得られる手段が必要です。多くの擁護者は、セクション230の例外規定(米国のプラットフォームがユーザーコンテンツの責任から保護される法律)を設け、ディープフェイクポルノの削除要請に対応しない場合はウェブサイトに責任を負わせるべきだと考えています。これにより、プラットフォームははるかに厳重な監視を迫られることになります。
- 技術的ガードレール: 開発側では、AIモデルの開発者が予防的なセーフガードを組み込むべきだという提案がなされています。例えば、企業はユーザーのプロンプトが実在の人物の名前や肖像を含む場合に検出し、その人物に関する露骨な出力をブロックするようにコンテンツフィルターを訓練することができます。(一部のAI画像生成ツールは、すでにプライベートな個人を参照していると思われるプロンプトや、公人のヌードを生成することを拒否していますが、xAIのGrokはそれを行わない例外です [88]。)もう一つのアイデアは、露骨な生成に対して同意の確認を義務付けることです。例えば、AIサービスは、ユーザーが被写体が自分自身または同意したモデルであることを証明した場合のみヌード画像を生成する、といった仕組みです。もちろん、悪意のある者はそのようなフィルターのないオープンソースモデルを使うこともできますが、大手プラットフォームが厳格なガードレールを採用すれば、主流での拡散を抑制できるかもしれません。年齢確認も懸念事項です—Grokの唯一のチェックは簡単に回避できる生年月日の入力だけでした [89]—そのため、未成年者(しばしばフェイクヌードによるいじめの標的となる)がこれらのツールを使ったり、描写されたりしないよう、より強固な年齢制限の導入が求められています。
- 研究と検出: 政府はディープフェイク検出の研究に資金を提供し、企業はメディア認証の標準化に協力しています。目的は、フェイクポルノが出現した際に迅速に特定・削除できるようにすることです。しかし、AIによる偽造が高度化するにつれ、検出は常にイタチごっこになります。一部の専門家は、すべてを検出できる技術的な「フェイク検出器」に期待するよりも、(法的制裁や教育を通じて)被害の防止に重点を移すべきだと考えています。それでも、AIの善用—既知の偽造を追跡するためのより優れた画像ハッシュ化や、自分の画像が悪用されていないか個人が調べるためのツールなど—の進歩は、被害軽減に役立つでしょう。
- プラットフォームの責任: 支援団体は、ソーシャルメディアやアダルトコンテンツプラットフォームがAIポルノコンテンツを積極的に監視する必要があると訴えています。これには、ディープフェイクを見抜くスキルを持つコンテンツモデレーションチームへの投資、法執行機関との削除命令への協力、非同意の素材を作成・共有する常習犯の禁止などが含まれます。また、オプトアウトや登録システムの導入を求める声もあり、個人(やその子ども)の肖像を登録し、プラットフォームはそれらを描写するAIコンテンツを許可しないようにする必要があるとされています—ただし、これは運用上の課題も多いでしょう。最低限として、迅速な対応プロトコル—米国法の48時間以内の削除要件 [90]のような—が、全てのプラットフォームで世界的な標準となる必要があります。
- 教育と規範: 最後に、解決策の一部は社会的規範の転換にあります。社会が「リベンジポルノ」を広く非難し、虐待として認識するようになったのと同じように、ディープフェイクポルノが普遍的に汚名を着せられることが望まれます。一般の人々がその害を理解し、そのようなコンテンツを共有したり消費したりすることを拒否すれば、需要は減少します。テック倫理学者はメディアリテラシーの重要性を強調しています――「見たものが必ずしも真実ではない」、有名人Xの扇情的な写真が偽物かもしれない、と人々に教えることです。AIで改変されたメディアの世界を批判的にナビゲートできるよう若い世代に力を与えることが重要です。同様に、これらの偽造を作成することはイタズラではなく、重大な違反であり、場合によっては犯罪となる可能性があることを加害者予備軍に知らせるキャンペーンも重要です。
結論
Grokの「Spicy Mode」の登場は、AIと性的ディープフェイクをめぐるすでに激しい議論にさらに火を注ぎました。イーロン・マスクのAIツールは、有名人のヌードそっくり画像を簡単かつ「公式」に生成できるようにしたことで、即座に反発を招き、より広範なディープフェイクポルノ危機にスポットライトを当てました。議会の議場からテックフォーラムのコメント欄まで、何か手を打たなければならないという合意が高まっています――特に女性を、この技術の暗い用途から守るために。
ご覧の通り、AI生成のNSFWコンテンツは単なる一時的な珍事ではなく、拡大し続ける社会的課題です。それは創造的自由や技術革新と、プライバシー、同意、安全性とを対立させます。もはや元に戻すことはできませんが、賢明な政策、責任ある技術開発、文化的変化によって、被害を抑えることは期待できます。今後数ヶ月、数年で、さらなる訴訟や法律、AIの安全対策の向上が見込まれます。マスクのGrokは、圧力の下で適応するか、倫理的境界を無視したAI事業の警鐘となるかもしれません。
現時点で、専門家も一般市民も声を揃えてこう言っています: ディープフェイクポルノはAIが越えてはならない一線です。そして、xAIのような企業が自らその線を引かないのであれば、規制当局や社会がその線を引く準備をますます整えています。あるテクノロジー倫理の提唱者はこう述べています: 「同意なく自分の画像がポルノに使われるのは壊滅的なこと――それを深刻な虐待として扱う時が来たのであり、テクノロジーの必然と片付けるべきではない」。もはや行動が必要かどうかの議論ではなく、AIによる性的搾取をどれだけ迅速かつ効果的に抑制できるかが問われています。次の「Spicy」なイノベーションでさらに多くの人生が壊される前に。
出典:
- Novak, Matt.「Grokの『Spicy』モードは女性の有名人ディープフェイクNSFW画像を作る(男性は対象外)」Gizmodo, 2025年8月6日 [91] [92].
- Weatherbed, Jess.「Grokの「スパイシー」ビデオ設定で即座にテイラー・スウィフトのヌードディープフェイクが作られた」The Verge, 2025年8月5日 [93].
- Carr, Mary Kate.「イーロン・マスクはGrok AIのヌードディープフェイクでテイラー・スウィフトから訴訟を起こされるのをほとんど懇願している」AV Club, 2025年8月7日 [94] [95].
- Saner, Emine.「テイラー・スウィフトのディープフェイク・スキャンダルの内幕:「権力ある女性に箱に戻れと言う男たち」」The Guardian, 2024年1月31日 [96] [97].
- Clark, Nicole.「Twitchディープフェイクポルノ・スキャンダルを引き起こした配信者が復帰」Polygon, 2023年3月16日 [98] [99].
- Patrini, Giorgio.「ディープフェイクの現状」Deeptrace Labs Report, 2019年10月 [100].
- Citron, Danielle. NYMag Intelligencerでのインタビュー, 2019年10月 [101].
- Ortutay, Barbara.「トランプ大統領が非同意ディープフェイク対策のTake It Down法に署名。これは何か?」AP News, 2025年8月 [102] [103].
- Burga, Solcyre.「イーロン・マスクのGrokがまもなくユーザーにAI動画の作成を許可、性的な内容も含む。」TIME, 2025年8月 [104] [105].
- Herbert Smith Freehills法律事務所。「ディープフェイクの犯罪化 ― 英国の新たな犯罪…」2024年5月21日 [106] [107].
References
1. gizmodo.com, 2. gizmodo.com, 3. gizmodo.com, 4. www.avclub.com, 5. www.avclub.com, 6. www.theverge.com, 7. www.avclub.com, 8. gizmodo.com, 9. gizmodo.com, 10. gizmodo.com, 11. gizmodo.com, 12. gizmodo.com, 13. gizmodo.com, 14. gizmodo.com, 15. gizmodo.com, 16. gizmodo.com, 17. gizmodo.com, 18. gizmodo.com, 19. gizmodo.com, 20. gizmodo.com, 21. www.avclub.com, 22. gizmodo.com, 23. www.avclub.com, 24. www.avclub.com, 25. www.avclub.com, 26. www.avclub.com, 27. www.theguardian.com, 28. www.theguardian.com, 29. www.theguardian.com, 30. www.theguardian.com, 31. www.theguardian.com, 32. www.theverge.com, 33. regmedia.co.uk, 34. regmedia.co.uk, 35. nymag.com, 36. nymag.com, 37. www.polygon.com, 38. www.polygon.com, 39. www.polygon.com, 40. www.polygon.com, 41. onezero.medium.com, 42. www.theguardian.com, 43. www.sciencedirect.com, 44. www.theguardian.com, 45. apnews.com, 46. apnews.com, 47. apnews.com, 48. apnews.com, 49. www.theguardian.com, 50. time.com, 51. time.com, 52. time.com, 53. time.com, 54. time.com, 55. apnews.com, 56. apnews.com, 57. apnews.com, 58. apnews.com, 59. apnews.com, 60. apnews.com, 61. www.hsfkramer.com, 62. www.hsfkramer.com, 63. www.hsfkramer.com, 64. www.hsfkramer.com, 65. apnews.com, 66. apnews.com, 67. apnews.com, 68. www.theguardian.com, 69. www.theverge.com, 70. www.theguardian.com, 71. www.theverge.com, 72. www.theguardian.com, 73. www.theguardian.com, 74. www.polygon.com, 75. www.polygon.com, 76. www.polygon.com, 77. www.polygon.com, 78. www.polygon.com, 79. www.bioid.com, 80. cjel.law.columbia.edu, 81. www.bioid.com, 82. time.com, 83. time.com, 84. www.hsfkramer.com, 85. www.hsfkramer.com, 86. apnews.com, 87. apnews.com, 88. www.avclub.com, 89. gizmodo.com, 90. apnews.com, 91. gizmodo.com, 92. gizmodo.com, 93. www.theverge.com, 94. www.avclub.com, 95. www.avclub.com, 96. www.theguardian.com, 97. www.theguardian.com, 98. www.polygon.com, 99. www.polygon.com, 100. regmedia.co.uk, 101. nymag.com, 102. apnews.com, 103. apnews.com, 104. time.com, 105. time.com, 106. www.hsfkramer.com, 107. www.hsfkramer.com