LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

NSFW AI革命の内幕:AI生成ポルノが業界を変え、論争を巻き起こす

NSFW AI革命の内幕:AI生成ポルノが業界を変え、論争を巻き起こす

Inside the NSFW AI Revolution: How AI-Generated Porn Is Changing the Game and Courting Controversy

NSFW AI(NSFW人工知能)– 生成系人工知能を用いて「職場で閲覧注意」なアダルトコンテンツを作成すること – は、今や注目の現象として爆発的に広がっています。AI生成のエロ画像やディープフェイクポルノ動画から、声をクローンした誘惑者やチャットボットの「彼女」まで、機械学習はアダルトコンテンツの世界を再構築しています。これは、魅力的な可能性と緊急の倫理的課題が同時に浮上する技術革命です。支持者はファンタジーや創造性の新たな道を称賛する一方、批判者は嫌がらせ、同意の侵害、社会的被害を警告しています。2025年半ば、NSFW AIは岐路に立っています:ニッチなコミュニティやスタートアップに受け入れられ、立法者に精査され、その渦中に巻き込まれた人々には恐れられています。本レポートでは、NSFW AIとは何か、どこで盛り上がっているのか、最新動向(プラットフォームでの禁止から新法制定まで)、倫理的ジレンマ、議論の両側の声、そして世界がこの手に負えない新しいAIの次元をどう規制・管理しようとしているのかを徹底解説します。AI生成ポルノの世界の裏側、そしてそれが単なるポルノの話ではなく、プライバシー、権力、そして性的コンテンツの未来に関わる問題である理由に迫ります。

NSFW AIとは?その仕組みは?

NSFW AIとは、露骨なアダルトコンテンツ(ポルノ画像、動画、音声、テキストなど)を、しばしば驚くほどリアルに生成する人工知能システムを指します。これらのシステムは、近年のAIアートやメディアのブレークスルーを支える最先端の生成技術を、アダルト向け素材に応用しています。主な革新点は、ディープラーニングモデルが膨大な画像や動画のデータセットで訓練され、ユーザーの指示に応じて新しいコンテンツを生み出す点です。例えば、テキストから画像を生成する拡散モデル(Stable Diffusionなど)は、簡単なテキスト説明からフォトリアルなヌードや性的画像を作成できますglobenewswire.com。「ディープフェイク」技術は、動画内の顔を入れ替えたり合成したりして、実際には出演していない有名人や一般人がポルノに出演しているように見せかけることができます。高度な音声クローンツールは、ターゲットの声を驚くほど正確に模倣し、エロ音声や「卑猥なトーク」を生成可能です。また、大規模言語モデルは、官能的なエロ小説を生成したり、チャットで性的ロールプレイを行ったりできます。

本質的に、NSFW AIシステムはあらゆるAIアートやメディアを生成するのと同じアルゴリズムを使用しています――ただし、ポルノやエロティックな訓練データで訓練またはファインチューニングされている点が異なります。生成的敵対ネットワーク(GAN)はヌード画像作成の初期の先駆者でしたが、拡散モデルやトランスフォーマーベースのモデルによって忠実度が大幅に向上しました。現代のNSFW画像生成器は、ユーザーのプロンプトに合わせて高精細なヌード画像を簡単に生成できますglobenewswire.com。ディープフェイク動画の作成者は、既存のアダルト動画で顔を別の顔にマッピングする専用ソフトウェア(一部はオープンソース)をよく使用し、合成ポルノを作り出します。これは本物の映像と区別がつきにくい場合もありますcbsnews.com。音声AIサービスは音声サンプルを取り、その声で新たな発話(露骨な内容を含む)を生成できます。また、AI駆動のチャットボットは自然言語生成を用いて、パーソナライズされたエロティックな会話やセクスティングをオンデマンドで提供します。

フィクションと現実の境界が曖昧になりつつあります。ある観察者が指摘したように、「すでに非常にリアルなNSFW AI生成器による画像、音声、動画は進化を続けており、アダルトコンテンツの作成、消費、理解のあり方をさらに変革している」chicagoreader.com。ユーザーは今や、カスタムのポルノシーン――たとえば、ファンタジーの有名人との遭遇画像や、元恋人が露骨なことを言う音声クリップ――を簡単なプロンプトで呼び出せるようになりました。これはほんの数年前には不可能だったことです。この新たな力は、同意、プライバシー、創造的なファンタジーと搾取の違いについて緊急の疑問を投げかけます。基盤となる技術自体は道徳的に中立であり、何でも作り出すことができますが、人間のセクシュアリティや実在の人物の肖像に向けられると、その意味合いは複雑になります。

AI生成アダルトコンテンツの主な形態

  • AI生成画像: テキストから画像を生成するモデル(例:Stable Diffusion)は、プロンプトから露骨なエロティック画像やポルノ画像を作成できます。ユーザーは外見やシナリオなどを指定でき、オンデマンドでユニークなヌードや性的画像を得られますglobenewswire.com。こうしたモデルの多くはオープンソースまたはユーザーによるカスタマイズが可能で、主流のAIツールが許可しないコンテンツも生成できます。
  • ディープフェイクポルノ動画: ディープフェイク技術を使い、制作者が人物の顔をアダルトビデオに合成し、実際には出演していない人の偽のポルノ映像を作成します。これらAIで操作された動画は、多くの場合、セレブや一般人を無断で標的にします cbsnews.com theguardian.com。ディープフェイクの品質は向上し、2024~2025年には多くが驚くほどリアルに見えるようになり、より強力なGPUやアルゴリズムがそれを後押ししています。
  • ボイスクローンと音声: AI音声生成器は、セレブや知人の声をクローンし、過激な音声クリップを作成します(例:有名女優が卑猥なことを話すシミュレーションや、どんな声でもエロティックなオーディオブックを作るなど)。高度な音声AI(ElevenLabsのような)は、うめき声、セリフ、ナレーションを選んだ声で簡単に生成でき、ポルノ音声でのなりすましの懸念が高まっています。
  • エロティックチャットボットとフィクション: AI言語モデルは、NSFWチャットやストーリーテリングに使われています。「AIガールフレンド」アプリやエロティックなロールプレイチャットボットは、2023~2025年ごろに爆発的な人気となりました。これらのボットは、ユーザーと熱いチャットやセクスティングを行い、無限のエロティックテキストを生成できます。中にはビジュアルやボイスノートも組み合わせるものもあります。これは新しい形のアダルトコンテンツ、すなわちインタラクティブなAIコンパニオンが親密なファンタジーに応えるものです chicagoreader.com sifted.eu

主流のAIプラットフォーム(OpenAIのDALL·EやMidjourneyなど)はポルノ出力を禁止していますが、オープンソースやアダルトテックのコミュニティは、これらの技術を活用してNSFWの限界を押し広げています。多くのツールのオープンソース性は「イノベーションと協力を促進」しますが、同時にセーフガードを外して規制されていない過激なコンテンツを生成することも容易にします chicagoreader.com chicagoreader.com。ご覧の通り、イノベーションと規制の間のこの緊張は、さまざまなプラットフォームで展開されています。

NSFW AIを支えるプラットフォーム、アプリケーション、コミュニティ

活気に満ちた(時には影のある)プラットフォームやオンラインコミュニティのエコシステムが、AI生成のアダルトコンテンツを作成・共有するために急速に発展しています。大手テック企業が自社のAIサービスで露骨なコンテンツを禁止しているため、arnoldit.com blog.republiclabs.ai、NSFW AIブームは独立系開発者、オープンソースモデル、ニッチなスタートアップによって牽引されています。ここでは、NSFW AIが生き生きと存在し、発展している主な領域を紹介します:

  • オープンソースモデルハブ: CivitAI – 人気のコミュニティウェブサイト – には、ユーザーが作成したAIモデルや画像の膨大なライブラリがあり、多くはアダルトコンテンツに特化していますchicagoreader.com。ユーザーは、hentai、リアルなヌード、フェティッシュアートなどのために微調整されたStable Diffusionモデルをダウンロードしたり、生成した画像を共有したりできます。このようなサイトのオープン性が、NSFW AIクリエイターの定番となっています。しかし、それは同時に最小限のゲートキーピングも意味します。コンテンツは芸術的なエロティックアートから過激なポルノ素材まで幅広く存在します。他にもHugging FaceのようなサイトがNSFWモデル(警告付き)をホストしていたり、4chanやGitHubのようなフォーラムで「リーク」された無修正版モデルが共有されたりしています。
  • NSFW画像ジェネレーターとアプリ: 現在、多くのウェブベースのサービスがAIエロ画像生成を専門としています。例えば、Candy.ai、Arting.ai、Vondy、OurDreamなどのプラットフォーム(多くはサブスクリプション制)は、比較的少ない制限でカスタムアダルト画像を生成できるようにしていますchicagoreader.com chicagoreader.com。中には高品質なレンダリングや、フォトリアルからアニメまで幅広いスタイルを謳い、さまざまな嗜好に訴求しています。多くは2024~2025年に登場し、無料トライアルやトークンを提供しつつ、誰が最もリアルで想像力豊かなNSFWアートを作れるかを競っています。マーケティングではパーソナライズとプライバシーを強調し、「撮影済みコンテンツの制約から解放された安全でプライベートな環境で、まさに望むものを作れる」とユーザーに約束していますglobenewswire.com
  • AIポルノコミュニティとフォーラム: 最近の取り締まり以前は、専用のディープフェイクポルノサイトがこの活動の中心地となっていました。最も悪名高かったのはMr. Deepfakesで、2018年に設立され、ディープフェイクのセレブポルノや一般人を標的にしたものの「最も著名で主流なマーケットプレイス」となっていましたcbsnews.com。このサイトのユーザーは、露骨なディープフェイク動画をアップロード・閲覧でき、さらには料金を支払ってカスタムの非合意ポルノを依頼することもできましたcbsnews.com。サイト内には技術を語り合い、コンテンツを交換するためのフォーラムもあり、コミュニティが形成されていました。しかし、後述するように、Mr. Deepfakesは重要なサービスプロバイダーを失ったことで2025年に閉鎖されましたcbsnews.com。こうした取り締まりの後も、ディープフェイクポルノのコミュニティは消滅したわけではなく、分裂し移動しています。専門家は、大手サイトの解体は「ユーザーコミュニティを分散させ、コンテンツ交換のためにTelegramのような主流でないプラットフォームへと押しやる可能性が高い」と指摘していますcbsnews.com。実際、暗号化アプリやニッチなフォーラムが、大手プラットフォームから追い出された多くのNSFW AI愛好者の新たな拠点となっています。
  • AI「ガールフレンド」とコンパニオンサービス: スタートアップの波が、エロティックなコンテンツ生成とインタラクティブなコンパニオンシップを融合させています。注目すべき例はOh(ロンドン拠点)で、「AI版OnlyFans」を構築していると自称しています。これは、ユーザーがテキスト、音声、画像を通じてAI生成のバーチャルモデルとやり取りできるエロティック・コンパニオン・プラットフォームですsifted.eusifted.eu。Ohは2025年初頭に450万ドルを調達し、「自律的な露出度の高いボット」を作成しています。これらのボットはユーザーに積極的にフラーティーなチャットを送ることもできますsifted.eusifted.eu。サイト上では、ユーザーは半裸のAIボットのプロフィールを見ることができます。ほとんどが架空の女性キャラクターですが、一部は実在のアダルトクリエイターが自身の肖像権をライセンスし(収益の一部を受け取る)「デジタルツイン」も存在しますsifted.eu。ユーザーはこれらのボットとチャットし、セクシーなテキスト、AI生成のヌード画像、さらにはクローン音声によるボイスメッセージも受け取ることができますsifted.eu。同様のサービスは2023~2024年頃に多数登場しました:DreamGF、Kupid AI、FantasyGF、Candy.aiなどで、AI主導のアダルトチャットコンパニオンのトレンドを示していますsifted.eu。その魅力は、24時間365日、完全にカスタマイズ可能なエロティックなやり取り――本質的には、アルゴリズムによって動くバーチャル・カムガールやボーイフレンドです。
  • 既存のアダルトプラットフォームの適応: 従来のアダルトコンテンツプラットフォームもAIの波から無縁ではありません。OnlyFansという人気のクリエイター向けサブスクリプションサービスは、AI生成のアダルトコンテンツの急増に対応してきました。ポリシー上、OnlyFansではAI生成画像を本人が登場し、かつAIコンテンツであることが明確に表示されている場合のみ許可していますreddit.com。他人になりすます目的や、ファンとのチャットを自動化するためのAI利用は禁止されていますreddit.com。それにもかかわらず、明らかにAI生成と分かるヌード画像(不自然な手や「死んだような目」などの特徴的な不具合がある)を、何も知らない購読者に販売するアカウントが報告されていますreddit.com。一部の人間クリエイターは激怒しており、偽のAIモデルがプラットフォームに溢れ、自分たちの収入を脅かすのではないかと危惧していますreddit.comuniladtech.com。あるセックスワーカーは、AIは「本物のクリエイターが費やす努力、創造性、手間を奪う」と嘆き、「ファンに対する侮辱」だとし、性に対する非現実的な期待をさらに悪化させるのではと懸念していますreddit.comreddit.com。一方で、数人の賢いアダルトクリエイターはAIツールを積極的に活用しており、画像生成ツールでコンテンツを強化・増産したり、自分の肖像権をOhのような企業にライセンスして副収入を得たりしていますsifted.eu。アダルトコンテンツ業界全体(ポルノスタジオ、カムサイトなど)も、AIによるコンテンツ制作を慎重に試みつつ、プロの枠外でユーザー生成の過激なコンテンツが大量に生まれる破壊的な力としても警戒しています。業界アナリストは、現在の傾向が続けば、AI主導のアダルトコンテンツが2027年までにオンラインポルノ消費の30%以上を占める可能性があると予測していますglobenewswire.com。これは、この技術がいかに急速に拡大しているかを示しています。

NSFW AIコミュニティは急速に発展し多様化しています。趣味のアーティストがAIエロティカを「創造的かつ個人的な探求」として楽しむケースから、悪意ある偽ヌードを生成する過激なディープフェイク集団までさまざまです chicagoreader.com。新しいプラットフォームやツールがほぼ毎週のように登場し、それぞれが自由度と制限のバランスを異にしています。2025年のあるレビューでは「NSFW AIジェネレーターの世界は広大かつ急速に進化している」と評されており、あるプラットフォームは超リアルなビジュアルに特化し、別のものはインタラクティブなストーリーテリングに重点を置くなど、それぞれが独自の倫理的グレーゾーンを占めています chicagoreader.com。それらを結びつけているのは、オンデマンドで高度にパーソナライズされたアダルトコンテンツという約束――そして、その力を手にすることによる危険性です。

2025年:AIポルノの氾濫と高まる反発

2025年半ばまでに、NSFW AIは転換点に達しました。一方では、コンテンツがこれまでになく

広範かつ説得力のあるものとなり、他方では世間の懸念と規制当局の監視が新たなピークに達しました。最近の動向としては、注目を集めた悪用事件、迅速な規制対応、さらにはテック業界内での自主規制も含まれます。以下に、AI生成ポルノをめぐる2024~2025年の主なニュースとトレンドをまとめます:

論争と非同意ディープフェイク・スキャンダル

おそらく、NSFW AI 議論を最も加熱させているのは、非合意のディープフェイクポルノの急増でしょう。これは、AIを使って誰か(通常は女性)が実際にはしていないヌードや性行為に登場したように見せかけるものです。この手法は有名人から始まりましたが、一般人もますます標的にされるようになっています。多くの場合、嫌がらせや「リベンジポルノ」として利用されています。2023年までには、この問題は不穏なほど広がり、簡単にアクセスできるようになっていました。調査報道によると、誰でもGoogleでディープフェイクポルノのウェブサイトを簡単に見つけたり、カスタムフェイクを依頼するためにDiscordに参加したり、クレジットカードで支払いをしたりできる状況でした。これは「クリエイター」が堂々とサービスを宣伝する活況な地下経済となっています theguardian.com theguardian.com。研究によれば、この傾向の被害者の大多数は女性や少女であることが一貫して示されています。AI安全企業Sensityによる画期的な報告では、オンライン上のディープフェイクの95~96%が非合意の性的画像であり、そのほとんどが女性を描写していました theguardian.com。女優のテイラー・スウィフトからネット上の有名人まで、偽のヌード画像がSNSで拡散された例もあります klobuchar.senate.gov。さらに憂慮すべきは、一般人や未成年者も標的になっていることです。例えば、14歳の少女が、クラスメートたちがアプリを使って彼女の偽ポルノ画像を作成し、Snapchatで共有していたことを知った事例もあります klobuchar.senate.gov

2023年1月、Twitchのビデオゲーム配信者が、女性同僚たちのディープフェイクポルノサイトを開いたブラウザタブを表示していたことで発覚した有名な事件があった。その配信者は涙ながらに謝罪したが、女性の一人であるTwitch配信者QTCinderellaは、「これが侵害されたと感じるということ…私の『ヌード』写真が同意なく拡散されるのを見ることだ」と強い反応を示したtheguardian.com。彼女は、世間の注目を浴びる女性として、偽の性的画像をインターネットから削除するために時間とお金を費やさなければならないことが、いかに不公平かを強調したtheguardian.com theguardian.com。彼女の訴え――「このような嫌がらせを受けることが私の仕事の一部であってはならない」――は多くの共感を呼び、ディープフェイクポルノが深刻な虐待の一形態であることに世間の注目を集めた。

それ以降、このような事例は増加の一途をたどっている。2024年には、複数の国の学生たちがAIによるヌード画像のすり替えの加害者にも被害者にもなった。オーストラリアでは、複数の女子生徒の偽の性的画像が同意なく生成・共有され、学校コミュニティが衝撃を受け、警察の捜査と世間の怒りを招いたtheguardian.com。2025年の香港では、名門香港大学の法学部生が、少なくとも20人の女子学生や教員のAIポルノ画像を作成した疑いが持たれ、大学側の最初の処分が警告書のみだったことでスキャンダルとなったcbsnews.com cbsnews.com。香港当局は、現行法ではこのような画像の配布のみが犯罪であり、作成自体は犯罪とならないため、加害者が偽画像を公に共有しなければ抜け穴があると指摘したcbsnews.com。女性の権利団体は、香港が保護の面で「遅れている」と非難し、香港のプライバシーコミッショナーは、害意の可能性を理由に刑事捜査を開始したcbsnews.com cbsnews.com。この事件は、誰もが標的になり得ること、そして現行法がしばしば追いついていないことを浮き彫りにした。

こうした虐待の中で、被害者たちは深刻な精神的・評判上の被害を訴えています。ハイパーリアルな偽の性行為に描かれることは、たとえ論理的には偽物だと分かっていても、深く心に傷を負う体験です。「自分の顔が映っているのを見るのは非現実的でした…どこか魂が抜けたような顔でした」と、元同級生によりポルノサイトにAI生成動画をアップロードされた大学生は語っていますcenteraipolicy.org。被害者は無力感を感じています。なぜなら、こうした画像に同意したことは一度もないだけでなく、削除するのが非常に困難だからです。あるジャーナリストは「非合意のディープフェイクポルノは、人生を破壊する緊急事態だ」と書いています。これは女性たちを、誰がこの偽物を見たのかと疑心暗鬼にさせ、ネット上からコンテンツを消そうと「悪夢のようなモグラ叩きゲーム」にエネルギーを費やさせるのですtheguardian.comklobuchar.senate.gov。支援者たちは、これを女性を沈黙させ、脅すための性的サイバーテロの一形態だと例えていますtheguardian.com

主流のSNSプラットフォームでさえ、意図せずAIによる露骨なコンテンツの拡散を助長してきました。2024年初頭、テイラー・スウィフトのディープフェイクわいせつ画像がX(旧Twitter)上で数百万回も閲覧されるほど拡散し、プラットフォーム側は一時的に彼女の名前の検索結果をブロックして拡散を食い止めましたcbsnews.com。Meta(Facebook/Instagram)では、2024年に「nudify」アプリ(AIで女性の画像をデジタル的に裸にするツール)の数百件の広告が掲載されていたことが判明しましたが、これらの広告はポリシー違反です。CBSニュースの調査後、Metaは多くの広告を削除し、審査をすり抜けていたことを認めましたcbsnews.com。このような広告の存在は、AIによる「ストリッピング」アプリがどれほど一般化し、簡単に利用できるようになっているかを示しています。正規の広告ネットワーク上でさえもですcbsnews.com

プラットフォームによる禁止措置と業界の自主規制

世論の圧力を受けて、いくつかのテックプラットフォームやサービスプロバイダーは、過去1年でNSFW AIコンテンツの抑制に向けた措置を講じました。注目すべき動きとして、前述の2025年5月のMr. Deepfakesの閉鎖がありました。同サイトは「重要なサービスプロバイダーがサポートを撤回した」ため閉鎖すると発表し、これにより事実上サイトがオフラインになりましたcbsnews.com。確証はありませんが、これはインフラやホスティングプロバイダー(おそらくクラウドサービス、ドメインレジストラ、またはDDoS対策サービス)が法的または評判上のリスクから関係を断ったことを示唆しています。このタイミングは、米国議会が主要な反ディープフェイク法を可決した直後(後述)であり、多くの人がこれをより広範な取り締まりの一環と見なしましたcbsnews.comHenry Ajder氏は、著名なディープフェイク専門家であり、この閉鎖を大規模な悪用ネットワークの「中心ノード」の解体として称賛しましたcbsnews.com。「これは祝うべき瞬間だ」と彼は述べつつ、同意のないディープフェイク画像の問題は「なくならない」―分散はするが、これほど主流の拠点を再び得ることはおそらくないだろうと警告しましたcbsnews.com。実際、Ajder氏は、これらのコミュニティは新たな拠点を見つけるだろうが、「このような一大サイトほど大きく目立つことはないだろう」とし、これが「重要な」進展だと述べましたcbsnews.com

大手テクノロジー企業もツールと広告の側面に対応し始めています。2024年5月、Googleはポリシーを更新し、ディープフェイクポルノを作成するプラットフォームやその作り方のチュートリアルの広告を禁止することにしましたarnoldit.com。このGoogleの措置は2024年5月末に施行され、Google広告を通じたこれらサービスの宣伝を断つ試みでした。(Googleは以前、ディープフェイクモデルのトレーニングにColabプラットフォームを使うことを禁止しており、2018年にはRedditやPornhubのようなサイトもAI生成の非合意ポルノを公式に禁止していましたarnoldit.com。)これはGoogleが今後のさらなる悪化に備えていると位置付けられています。「2018年のディープフェイクポルノは粗末に見えたが、今でははるかにリアルに見えるはずだ」とExtremeTechのレポートは述べ、より厳格な広告規則の必要性を正当化していますarnoldit.com。ソーシャルメディア企業も同様にコンテンツモデレーションを更新しており、例えばPornhubや主要なアダルトサイトは2018年にディープフェイク(非合意ポルノ)を禁止することを約束しました。また、ヨーロッパでは2024~25年の新ルールにより、アダルトサイトは積極的に「有害コンテンツの取り締まり」を行わなければ罰金を科されることになっていますsubscriber.politicopro.com。より広範な安全対策の一環として、Pornhubの親会社は新法へのコンプライアンス懸念から一部地域(フランスや米国の特定州など)で一時的にサービスを停止する措置も取りましたsubscriber.politicopro.com。これは、アダルトプラットフォームがコンテンツの安全対策を真剣に講じるか、アクセスを遮断するかを迫られていることを示しています。

主流のAI企業は、NSFW(性的に不適切な内容)用途から距離を置き続けています。OpenAIの画像生成モデルDALL·EやChatGPTサービスは、性的コンテンツに対して厳格なフィルターを維持しています。Midjourney(人気のAI画像生成ツール)は、ポルノ的なプロンプトを禁止するだけでなく、ユーザーがNSFWリクエストをこっそり入力するのを防ぐために、文脈を認識する自動モデレーションを導入しましたarxiv.org。あるモデルのフィルターが巧妙なプロンプトによって突破されると、その事例が公になり、開発者はガードレールをさらに強化します(終わりのないイタチごっこです)。一方で、新規参入企業の中には、検閲の少なさを売りにするところもあります。例えば、Stability AIの最新モデルStable Diffusion XLは、安全フィルターを外してローカルで実行すれば技術的にはNSFW画像を生成できますし、小規模な企業の中には「競合他社と比べてNSFWコンテンツへの制限が少ない」と公然と宣伝しているところもありますlatenode.com。これはAI業界の分裂を示しています。大手は慎重さとブランドの安全性を重視し、一方で小規模またはオープンなプロジェクトは、ポルノを含む検閲されていない生成AIへの需要に応えています。

主な法的・規制上の動向(2024~2025年)

おそらく最も重要な動きは、AIポルノの危険性に対応する立法者たちによるものです。世界各国の政府が、非合意のディープフェイクを罰し、被害者を保護し、さらにはAIツール自体を規制する法律を制定し始めています。ここでは、主な動きをまとめます。

  • アメリカ合衆国 – Take It Down法(2025年): 2025年4月、米国議会は超党派の「Take It Down法」を圧倒的多数で可決しました。これはAI生成の親密な画像に直接対応する初の連邦法ですklobuchar.senate.gov。この法律は、本人の同意なく作成または共有された親密な画像(実写・AI生成問わず)を作成・共有することを連邦犯罪と定めています。特に、オンラインプラットフォームに対し、被害者からの通報後48時間以内にそのコンテンツを削除することを義務付けていますklobuchar.senate.gov。この法律は、ファーストレディのメラニア・トランプ氏が推進し、両党の上院議員が共同執筆、2025年5月にドナルド・トランプ大統領が署名しましたklobuchar.senate.gov。これはトランプ大統領2期目の最初の主要なインターネット法とされ、「急速に拡大する[非同意ポルノ]問題」への直接的な対応ですklobuchar.senate.gov。被害者支援団体は、この法律を「遅すぎたが歓迎すべきもの」と評価しました。「ディープフェイクは恐ろしい新たな虐待の機会を生み出している」とエイミー・クロブシャー上院議員は述べ、今や被害者が素材を削除でき、加害者に責任を取らせることができると付け加えましたklobuchar.senate.gov。注目すべきは、Meta、Google、Snapなどの大手テック企業もこの法案を支持したことで、何らかの対策が必要だというコンセンサスの表れですklobuchar.senate.gov。この法律には、違反者に対する罰金や最長2年の禁錮刑などの罰則が含まれていますcbsnews.com。また、被害者が作成者や配布者に損害賠償を求めて訴訟を起こすことも可能となり、市民による法的措置を後押しします。一方で、言論の自由やプライバシー擁護団体は、法律の悪用の可能性について警鐘を鳴らしています。例えば、Fight for the Futureのリア・ホランドは「善意だが不十分な法案」と評し、悪意ある者が削除要請を悪用して正当なコンテンツを検閲する恐れがあると懸念を示しましたklobuchar.senate.gov。それでも、Take It Down法はすでに施行されており、米連邦政府がAIによる性的搾取に本格的に取り組む最初の一歩となりました。
  • アメリカ合衆国の州: 連邦政府の対応より前に、複数のアメリカの州が独自の法律を制定しました。カリフォルニア州、テキサス州、バージニア州、ニューヨーク州、その他の州は、2019年から2023年にかけて、同意なしにディープフェイクポルノを作成または配布することを違法とする法律(多くはリベンジポルノや性的ななりすまし法のカテゴリー)を可決しました。2025年には、各州が法律の改正を続けています。例えば、テネシー州は「ディープフェイク画像防止法」を導入し、2025年7月1日から施行され、同意なしに親密な肖像が使用された場合に民事および刑事の訴訟原因を創設しましたwsmv.comwsmv.com。この動きは、地元のテレビ気象キャスターが自身の偽ヌード画像がネット上で拡散していることを発見し、彼女と家族への影響について証言したことがきっかけでしたwsmv.com。テネシー州はまた、AI児童ポルノのツール自体を犯罪とする法律も可決しました。AI生成の児童性的虐待素材を作成するためのソフトウェアを、知っていて所持・配布・製造することを重罪としていますwsmv.com。この法律は、AI生成の児童ポルノの恐ろしさを認識し、技術自体を標的にすることで未然に防ごうとしています(テネシー州でこのようなツールを所持するとクラスE重罪、製造するとクラスB重罪となります)wsmv.com
  • ヨーロッパ – EU全体の対策: 欧州連合は、広範なAI規制と特定の刑事指令という二本立てのアプローチを取っています。今後制定予定のEU AI法(2024/2025年に最終決定見込み)では、生成AIコンテンツに透明性義務が課されます。ディープフェイクは「限定的リスク」AIと分類され、全面的な禁止にはなりませんが、AI生成であることを明確に表示(例:ウォーターマークや注意書き)し、企業は学習データの詳細を開示する必要がありますeuronews.com euronews.com。違反した場合、最大1,500万ユーロ以上の罰金が科される可能性がありますeuronews.com。さらに、EUは女性に対する暴力指令を承認し、同意のない性的ディープフェイクの作成や共有を明確に犯罪としていますeuronews.com。これにより、EU加盟国はこの行為を2027年までに禁止することが義務付けられています(具体的な罰則は各国に委ねられます)euronews.com euronews.com。つまり、ヨーロッパ全域で、同意なく誰かの偽ポルノ画像を作成することは犯罪となり、実際のリベンジポルノと同様の扱いになります。
  • フランス: フランスは2024年に刑法の新たな規定で積極的に動きました。現在、フランスでは本人の同意なしにAI生成の映像や音声を共有することは違法ですeuronews.com。オンラインサービスを通じて行われた場合、罰則はさらに重くなり(最長2年の懲役、4万5千ユーロの罰金)euronews.com。重要なのは、フランスがポルノのディープフェイクを明確に全面禁止したことです。たとえ偽物とラベル付けしようとしても禁止されますeuronews.com。したがって、フランスでは性的なディープフェイクを作成または配布すると、最長3年の懲役および7万5千ユーロの罰金が科されますeuronews.com。また、フランスの法律はデジタル規制当局ARCOMに対し、このようなコンテンツの削除や通報システムの改善をプラットフォームに強制する権限も与えていますeuronews.com
  • イギリス: 2023~2024年のイギリスでも法律が改正されました。性犯罪法の改正により、同意なしに性的ディープフェイクを作成することは最長2年の懲役刑の対象となりますeuronews.comeuronews.com。別途、2023年オンライン安全法(大規模なインターネット規制)は、同意のない性的画像(ディープフェイクを含む)をSNSで共有したり、共有を脅したりすることを明確に違法とし、プラットフォームに対してそのような素材を「積極的に削除」または表示されないようにすることを義務付けていますeuronews.com。プラットフォームがこれに失敗した場合、全世界の売上高の最大10%の罰金が科される可能性があり、これは遵守への大きなインセンティブとなりますeuronews.com。しかし、一部の専門家は、イギリスではまだ共有されていないディープフェイクの作成自体は犯罪とされておらず、画像が非公開のまま保管されている場合、被害者が脆弱なままである(香港の事例と同様)と指摘していますeuronews.com。イギリスではディープフェイクツール自体の開発や配布も犯罪化すべきだという声も上がっていますeuronews.com
  • デンマーク: 2025年6月、デンマーク議会は、自分自身の肖像に著作権を与えるという画期的な法律に合意しました。これは本質的に、あなたの顔を「あなたの知的財産」として、ディープフェイクと戦う手段となりますeuronews.com。この法律により、本人の同意なしにその人の特徴を「デジタル模倣」することや共有することが違法となりますeuronews.com。「あなたには自分の身体、自分の声、自分の顔の特徴に対する権利があります」とデンマークの文化大臣は述べ、これを偽情報や性的悪用からの保護と位置付けましたeuronews.com。詳細は未定ですが、デンマークは誰かがあなたのディープフェイクを作成した場合、それを「肖像権」の侵害、つまり著作権侵害と同様に扱うことを示唆しており、削除や法的措置が大幅に簡素化される可能性があります。
  • 韓国: 韓国はディープフェイクポルノによって深刻な打撃を受けた最初の国の一つでした(近年のデジタル性犯罪の問題を考えると)。2021年までに、韓国は性的ディープフェイクの作成や共有を禁止しました。2024年後半にはさらに進み、こうしたコンテンツの所持や閲覧さえも犯罪化しました。2024年9月に可決された法案(ユン大統領が2024/25年に署名)は、性的に露骨なディープフェイク画像・動画の購入、所持、視聴を違法とし、違反者には最長3年の懲役が科されますcbsnews.com cbsnews.com。作成・配布はすでに違法(懲役5年以上)でしたが、新法が署名されれば最長7年に引き上げられましたcbsnews.com。この積極的な姿勢は、これらの偽画像が若者の間で頻繁にやり取りされていたことを認識したものです。実際、2024年には韓国警察が、ディープフェイク性コンテンツに関連して上半期だけで387人を逮捕し、そのうち80%が10代でした cbsnews.com。この問題は10代の間で非常に蔓延しており(クラスメートや教師などの偽画像を作成)、韓国はこうした素材を探すだけでも重大な犯罪として扱っていますcbsnews.com cbsnews.com。ソウルの活動家たちは「繰り返されるディープフェイク性犯罪、国家も共犯だ」と書かれたプラカードを掲げてより厳しい対応を求めて抗議しcbsnews.com、政府はこれらの措置で応じました。
  • 中国:中国ではあらゆる種類のポルノが厳格に違法であり、それはAI生成ポルノにも及びます。さらに、中国は2023年1月に「ディープシンセシス」技術に関する先駆的な規制を導入し、誤解を招く可能性のあるAI生成または改変メディアには明確なラベルや透かしを付けることを義務付け、このような技術のなりすまし、詐欺、または安全保障を脅かす目的での使用を禁止しましたoxfordmartin.ox.ac.uk afcea.org。本質的に、中国はラベルのないディープフェイクを事前に違法とし、当局にそれを作成した者を処罰する広範な権限を与えました。中国のわいせつ物に対する全面的な禁止と相まって、NSFW AIコンテンツは二重に禁止されています――地下のサークルで存在している可能性はありますが、中国の検閲当局はそれを即座に削除し、起訴する法的手段を持っています。

世界的に見ても、傾向は明らかです:非同意のAI性的画像は各国で犯罪化されつつあり、プラットフォームにはその監視が義務付けられています。2025年末までには、法的状況は2年前――米国の一部の州や韓国などごく一部の国にしかそのような法律がなかった時期――よりもディープフェイクポルノに対してはるかに寛容でなくなっています。しかし、執行や認知には依然として課題があります。多くの被害者は、今や法律が自分たちを守っていることを知らず、警察や検察も匿名のオンライン加害者を捜査する体制が整っていません。また、法律の内容も異なります――私的な作成も処罰する場所もあれば、配布された場合のみ処罰する場所もあります。それでもなお、AI生成の性的虐待を実際の虐待として認識する流れは明白です。ある米国の法学教授が指摘したように、この一連の立法は被害者の手に力を取り戻し、「AI時代においても自分自身のイメージや身体に対する権利がある」というメッセージを発信していますeuronews.com

倫理的な泥沼:同意、ディープフェイク、社会的影響

法的領域を超えて、NSFW AIは深い倫理的・社会的な問いを投げかけます。その核心は同意の問題です――描かれている本人の同意(あるいは認識)なしに生成された露骨なコンテンツは、倫理的であり得るのでしょうか?ほとんどの人は、非同意のディープフェイクは明らかな倫理的過ちであり、本質的には性的侵害の一形態であると考えるでしょう。しかし、ジレンマはさらに深まります。同意を得て入手した実在の人物の画像を使ったAI生成ポルノ(例:商業ポルノ動画を学習データに使用)については――それは「被害者なき」ものなのか、それとも出演者の肖像をさらなる同意や報酬なしに搾取しているのでしょうか?完全に架空のAIポルノ――実在の人物が描かれていない場合――は無害なのでしょうか、それとも(児童搾取やレイプシナリオのような)危険な空想を正当化する可能性があるのでしょうか?そして、AIモデルのバイアスはエロティックなコンテンツにどのように影響するのでしょうか?

同意とプライバシー: 最も差し迫った懸念は、人々が自分の肖像がAIによってどのように使われるかについて全くコントロールも同意もできないことです。インターネットに写真を投稿したことがある人(あるいは、知人が自分の写真を持っている場合は投稿したことがなくても)は、理論的にはポルノディープフェイクの顔になるリスクがあります。特に公の場にいる女性たちは、今やぞっとする現実と共に生きています。つまり、AIのおかげでインターネット上に自分のヌード写真やセックステープが「ある」と思われてしまうかもしれないのですtheguardian.com。これは基本的な人格の尊厳とプライバシーを侵害します。デンマークの法律が述べているように、自分自身の顔や体に対する権利があるべきですが、現状の技術や社会規範ではそれが保証されていません。倫理学者たちは、これらのフェイクが存在すること自体が害であり、たとえ広く流通していなくても、本人の許可なく作られた、本人が関与する性的行為の表現だと主張します。心理的な影響としては、性的暴行の一形態のように感じられることもあります。「インターネットは永遠である」という事実が被害をさらに大きくします。一度流通すれば、これらの画像は何度も再浮上し、被害者はトラウマを繰り返し体験することになります。これらすべての要素が、非同意のAIポルノを深刻な倫理的違反としています。社会はこれを他の性犯罪と同等にスティグマや結果の面で扱い始めていますが、前述の通り、法律はまだ追いついていません。

ディープフェイクと真実: もう一つの側面は、ディープフェイクが現実を曖昧にすることです。AIポルノ画像がますます本物らしく見えるようになると、視聴者はそれが偽物だと気づかず、さらに評判が傷つけられる可能性があります。偽のセックスビデオが原因で仕事を失ったり、人間関係が壊れたり、恐喝(「セクストーション」)に使われたりすることもあり得ます。後で偽物だと証明されても、屈辱や評判の損失は完全には元に戻せません。これは、そのようなフェイクを作る人々にとって倫理的なリスクを高めます――彼らは実際の人生や生計をもてあそんでいるのです。また、見ることが信じることではなくなった時代に、私たちはどうやってメディアへの信頼を維持するのかという社会的課題も浮き彫りになります。専門家の中には、ディープフェイクを「真実への攻撃」と呼び、ポルノの文脈では女性を貶め、罰するための武器として使われていると指摘する人もいますtheguardian.com

未成年者とAI生成CSAMについて: おそらく最も満場一致で合意されている倫理的な一線は、AI生成の児童性的虐待資料(CSAM)、すなわち未成年者が性的な状況で描写されているものです。たとえその作成過程で実際の子どもが傷つけられていなくても、事実上すべての規制当局やプラットフォームは、AI生成の児童ポルノを実際のCSAMと同様に違法かつ有害なものとして扱っています。倫理的な根拠は明確です:このようなコンテンツは子どもを性的対象化し、実際の犯罪を助長する可能性があります。また、しばしば実在の子どもの写真が利用されることもあります(例:子どもの無邪気な写真をAIで「裸化」したり、改変したりすること―これはその子どもの尊厳とプライバシーに対する忌まわしい侵害です)centeraipolicy.org。残念ながら、これが実際に起きている証拠もあります。スタンフォード大学の研究者デイビッド・ティールは、Stable Diffusionの人気AIトレーニングデータセットに数百枚の既知の児童虐待画像が埋め込まれていることを発見しましたcenteraipolicy.org。これは、そのモデルが一部、実際の犯罪的虐待画像で訓練されていたことを意味しており、非常に深刻な問題です。たとえ現在それらが削除されているとしても、そもそも使用されたという事実は、AI開発者が知らずに虐待的なコンテンツでモデルを訓練していた可能性を浮き彫りにしています。さらに悪いことに、慎重な安全策がなければ、AIは違法な訓練データに似た新たな画像を生成してしまう可能性もあります。フォーラムの一部ユーザーは、AIを使って未成年者の写真を「脱がせる」または不正な画像を作成しようと試みており、法執行機関はこれを阻止しようと急いでいます。倫理的には、ほぼコンセンサスがあります:AIは決してCSAMの作成に使われるべきではありません。しかし、それを実現するのは難しく、モデルがそのようなコンテンツの生成を促すプロンプトや試みに明確に拒否するよう訓練されるか、あるいはそのような試み自体を重大な犯罪とする法律(テネシー州のように)が必要です。現在、テック企業は「child」や未成年を示唆する単語がプロンプトに含まれるだけでブロックされるよう、しばしばフィルターをハードコーディングしています。しかし、悪意あるユーザーは抜け道を探します。リスクは非常に高く、AIがこのように悪用されれば、虐待の被害者を再び傷つけることになり、「実際の子どもは傷ついていない」という誤った正当化のもとで小児性愛者に新たな材料を与えてしまいます。多くの倫理学者は、「被害者のいない犯罪」という主張に対し、実際・AI問わず児童搾取の描写を消費すること自体が、それを正当化し現実の虐待を助長する可能性が高いと指摘していますcenteraipolicy.orgreddit.com。したがって、これはほとんどの人が同意する厳格な倫理的境界線です:児童性的コンテンツの生成やAIによる利用は絶対的に間違っており、あらゆる手段(技術的・法的)で防がれなければなりません。

トレーニングデータと強要されたコンテンツ: どのようにNSFW AIモデルが構築されているかには、あまり目立たないが重要な倫理的問題があります。多くのAIポルノジェネレーターは、インターネットから収集された大規模なデータセット(ポルノサイトを含む)でトレーニングされました。つまり、実在する人々の画像(ポルノ俳優、ウェブカメラモデル、さらには流出した個人のヌード写真まで)が、本人の同意なしにトレーニングデータとして使われたのです。AI企業はこれを密かに行い、後になって研究者たちがその実態を明らかにし始めました。例えば、「These Nudes Do Not Exist」というAIヌードジェネレーターは、「Czech Casting」というポルノ会社のコンテンツでトレーニングされていたことが判明しました。この会社は女性にセックスを強要した疑いで調査されていますcenteraipolicy.org。つまり、そのAIは人身売買やレイプの被害者であった可能性のある女性たちの動画で文字通りトレーニングされており、彼女たちの体や同様のポーズをとる他者の画像を再生成することを学んでいたのです。これらの女性たちは、自分たちの画像がさらに新たなポルノを無限に生み出すために使われることに、確実に同意していません。その状況の被害者の一人は、自分の画像がAIのトレーニングセットに含まれていることについて「不公平に感じるし、自由が奪われているように感じる」と語っていますcenteraipolicy.org。それほど極端でない場合でも、モデルはSNSやモデル撮影からの何百万枚もの日常的な女性の写真を取り込んでいるかもしれません――それらの人々も、ポルノ生成の素材になることに同意していません。すべてのAIポルノモデルは、そのトレーニングデータに実在の人々の“亡霊”を背負っています。その中には、まったく気にしない人もいるかもしれません――例えば、自発的にポルノを撮影した成人パフォーマーは、自分の仕事を拡張する技術を歓迎するかもしれません。しかし、(流出画像の一般人や、業界を辞めて新たな人生を歩みたい元ポルノ俳優など)他の人々は、自分の肖像がAIによって永遠に新しい性的コンテンツにリミックスされていると知ったら、恐怖を感じるでしょう。これは知的財産権や肖像権という倫理的な問題を提起します。自分の画像が収益性の高いAIポルノツールの作成に使われた場合、個人は補償されるべきでしょうか?「トレーニングデータに登場した男女から直接利益を得ているのに、感謝の言葉すらない」と主張する人もいますcenteraipolicy.org。一方で、データが公開されていたのであれば、現行の知的財産法の下ではAIトレーニングに使っても問題ないとする意見もあります。倫理的なコンセンサスとしては、少なくとも明らかに非同意または虐待的な素材(例:リベンジポルノや人身売買動画など)はトレーニングに使うべきでない、という方向です。企業はこうしたコンテンツのためにデータセットを監査し始めていますが、歴史的にはそうしてこなかったため、これは憂慮すべきことです。Center for AI Policyによれば、AIポルノモデルは「ほぼ確実に」何らかの非同意の親密画像(NCII)でトレーニングされているとのことですcenteraipolicy.org。今後は、より厳格なデータセットの精査や、「オプトアウト」登録制度の導入――つまり自分の画像をAIトレーニングセットから削除できる仕組み――を求める声も上がっています。centeraipolicy.org。これは技術的にも物流的にも複雑ですが、生成AIにおけるデータ倫理をめぐる議論はますます活発になっています。

架空だが過激なコンテンツ: もう一つの難しい領域――実在の人物が描かれていない場合、AIポルノが生み出すべき内容に制限はあるのか?AIが超過激または極端な性的コンテンツを可能にし、現実世界では不可能なものが作られることを懸念する声もある。そして、それが有害かもしれないという指摘もある。たとえば、レイプや獣姦、「スナッフ」(殺人)ポルノ、あるいは前述の児童を想定したシナリオなどのシミュレーションが挙げられる。擁護派は「現実でやるよりAIの方がマシだ」と言うかもしれないが、批判派は人々の感覚を麻痺させたり、現実での実行を助長したりすることを恐れている。少なくとも、こうしたファンタジーにAIが応えることを許すことが社会的な一線を越えるのかという道徳的な問題が生じる。Ohのようなプラットフォームは、「違法行為」をすべてブロックすると述べている――彼らのボットは小児性愛や他の犯罪的な性的テーマには関与しないsifted.eu。これは責任ある企業が試みている倫理的な安全策だ。しかし、オープンソースのモデルには本質的な道徳観がなく、モデルに明確な制約がなければ、ユーザーはほぼ何でも生成させることができる。つまり、最終的な責任は個人の良心(および現地の法律)に委ねられる。多くのAIコミュニティの倫理的立場は、違法または暴力的な性的コンテンツに対して厳格なフィルターをかけることだ。しかし、あるOnlyFansのクリエイターが厳しく予測したように、「AIによる児童虐待が年齢プレイとしてラベル付けされたり、AIによるレイプシナリオが作られたりするのは時間の問題」であり、「この問題はもっと議論されるべきだ」と述べているreddit.com。倫理的な問いは未解決のままだ:超リアルな架空の犯罪描写の存在自体が害なのか?多くの人は「イエス」と考えており、特に未成年が関わる場合(これは明確に犯罪)にはそうだ。他の極端なファンタジーについては、社会的な合意には至っていないが、デジタル倫理の分野で活発に議論されている。

ジェンダーと表象: NSFW AI(アダルトAI)は、その元となるデータのバイアスやステレオタイプも引き継ぎます。主流のポルノの多くは、女性の性差別的または非現実的な描写で批判されており、AIはそうした傾向を増幅させる可能性があります。たとえば、女性を客体化したり、限られた体型のみを描いたポルノで主に学習したモデルは、そのような出力を生み出します。これは、非現実的な美の基準や性的なシナリオを強化することにつながりかねません。さらに、ほとんどのAIエロティック・コンパニオンやイメージ生成ボットはデフォルトで女性であり、想定される異性愛男性ユーザー向けに作られています。たとえば、OhプラットフォームのAIボットのラインナップは「大多数が女性」で、露出度の高いアバターとして登場しますsifted.eu。批評家たちは、これが女性をデジタルのおもちゃとして見る感覚を強化し、(主に男性の)ユーザーが現実の人間関係をどう捉えるかに影響を与えるのではと懸念しています。一部のAIコンパニオン開発者自身も、親密さの未来が「奇妙」または「ディストピア的」になりうること、つまり人々が現実のパートナーから離れAIの空想に没頭する可能性を認めていますsifted.eu。こうしたAIガールフレンドは、女性が常に利用可能で、従順で、あらゆる要望に応じる存在であるという有害なステレオタイプを強化するかもしれないと指摘されていますsifted.eu。心理学者やフェミニストは、このような技術が孤独感や女性蔑視、性に対する歪んだ期待などの問題を悪化させるのではと懸念しています。一方で、支持者は、人間関係が苦手な人にとって安全なはけ口となったり、スティグマなしに性を探求できる手段になると主張します。倫理的には、これは両刃の剣です。AIガールフレンドが誰かのコミュニケーション能力を高めたり、慰めを与えたりする可能性はあるでしょうか?おそらくあります。一方で、現実の人間関係から逃避し、女性をカスタマイズ可能なオブジェクトとして扱うことを助長する可能性も?おそらくあります。こうしたサービスが拡大する中、社会はこれらの問いに向き合う必要があります。

要するに、NSFW AIの倫理は、同意、被害、そして性や人格について社会が発信するメッセージ

を中心に展開します。倫理的なポルノの黄金律――「登場する全員が同意した成人である」――は、AIポルノでは完全に覆されます。なぜなら、実際には誰も「参加」しておらず、同意しようがないからです。私たちは、肖像権やデータにまで同意の概念を拡張せざるを得ません。ある論評が述べたように、この技術は「親密さ、同意、創造的自由の根本」をデジタル時代に再考させるものですchicagoreader.com。倫理的な状況はグレーゾーンだらけですが、児童コンテンツや実在人物の無断使用など、いくつかのレッドラインは守られるべきだという合意が広がりつつあり、個人の自律性への尊重が何を許容範囲とするかの指針になるべきだとされています。一方で、すべてのAIによる性的コンテンツ制作を病理化しないよう注意も必要です――同意した大人が自分のために使う場合、それは有益なツールとなりうるからです。課題は、革新的で同意に基づく利用を促進しつつ、搾取的な利用を排除することです。

支持者 vs. 批判者:NSFW AIをめぐる論争

NSFW AIへの反応は二極化しています。これを大人向けエンターテインメントや個人の自由の刺激的な進化として称賛する人もいれば、社会的な脅威として非難する人もいます。ここで、両者の主な主張を分解してみましょう:

支持者(NSFW AI賛成派)の主張:

  • 創造的自由と性的探求: 賛成派は、AIが性的なこと、ファンタジー、フェティッシュをプライベートかつ非難されない方法で探求するための前向きな手段になり得ると主張します。現実で特定のファンタジーを実現するのが恥ずかしい、またはできないと感じるユーザーも、AI生成コンテンツやチャットボットを使えば安全に体験できます。これにより、性に関するタブーや恥の意識が減る可能性もあります。中には「同意した大人同士が安全でプライベートな環境で自分たちのビジュアルファンタジーをAIと共に創造できる」として、エンパワーメントだと呼ぶ人もいます(あるAIアダルトプラットフォームのCEO談、globenewswire.com)。この見方では、生成AIは単なるツールであり、エロティックアートやセックストイと同様に健全な性的表現を高めるものとされています。
  • 大人向けエンターテインメントにおけるパーソナライズとイノベーション: 支持者は、NSFW AIが従来のポルノと比べて比類なきパーソナライズを提供する点を強調します(globenewswire.com)。スタジオが制作したものを受動的に消費するのではなく、個人が自分の好み(体型、シナリオなど)にぴったり合ったコンテンツを生成できます。このユーザー主導モデルは、大人向けコンテンツの「ワンサイズ・フィッツ・オール」パラダイムを“破壊する”イノベーションと見なされています(globenewswire.com)。主流のプロデューサーが無視しがちなニッチな興味にも対応できます(合法である限り)。この分野のスタートアップは、AIが大人向けコンテンツの提供方法に飛躍的進歩をもたらし、ユーザーの手にコントロールを委ねるものだとよくアピールします(globenewswire.com)。また、プライバシーの尊重も主張されます。ユーザーは他人とやり取りしたり、自分のファンタジーをAI以外の誰かに明かす必要がありません。
  • 有害な欲望の安全な代替手段: より議論を呼ぶ賛成意見として、AIポルノが本来なら有害な行動の無害な代替手段となり得るというものがあります。例えば、ペドフィリアの人がCGIやAI生成の児童ポルノを利用することで、実際の子どもを傷つけることなく欲求を満たせるのではないかとする説もあります(この主張は大いに議論されており、ほとんどの専門家は否定していますが、議論としては挙げられます)。また、暴力的な性的ファンタジーを持つ人が、実際の被害者を求める代わりにAIシミュレーションを利用できるのではないかという意見もあります。要するに、「人に向けるよりピクセルに向けた方がましだ」という立場です。しかし、これはあくまで推測の域を出ず、倫理的にも問題が多いです。AIが実際の犯罪を減らすという明確な証拠はなく、むしろ助長する可能性もあると批判されています。それでも、一部の表現の自由擁護者は、AIによるどんなに忌まわしいファンタジーであっても、現実の人が直接被害を受けない限り、思考実験として犯罪化すべきではないと主張します。この見解は主流ではありませんが、過激なコンテンツに関する議論では存在していますreddit.com.
  • ニッチなコミュニティやアイデンティティの支援: AIは、従来の主流ポルノではほとんど表現されてこなかったコミュニティ向けのコンテンツを生成できます。例えば、特定のLGBTQファンタジーや、同意のパラメータが明確なBDSMシナリオ、ファンタジー要素を含むエロティックアートなどです。たとえば、ファーリーやヘンタイのサブカルチャーの一部の人々は、実際の俳優では不可能なコンテンツをAIアートで作成しています。これはエロティックアートの幅を広げるものと見なされています。さらに、AIは障害を持つ人やその他の制約がある人が、従来は不可能だったバーチャルな親密さを体験することも可能にします。対人関係が苦手な人も、AIパートナーなら自分をジャッジしないため、仲間を見つけやすいかもしれません。「AI OnlyFans」スタートアップの創業者のような支持者は、これらのAIコンパニオンが社会にとって「純粋なプラス」になり得ると主張しています。特に他の形の仲間がいない人々にとってはなおさらですsifted.eu。彼の見解では、孤独だったり搾取的なポルノを消費している人にとって、AIパートナーはよりコントロールされた、もしかするとより健康的な代替手段になり得るといいますsifted.eu.
  • 創作物の同意 vs. 実在モデル: NSFW AIを支持するもう一つの主張は、AI生成の俳優(実際には存在しない人物)をポルノに使用することで、アダルト業界の多くの問題が解消されるかもしれないというものです。ポルノ女優がAI生成であれば、実際の出演者を搾取するリスクはありません。AIの現場では、誰の身体も実際に性感染症や虐待のリスクにさらされることはありません。理論的には、最終的に一部の実写ポルノ制作を置き換えることができ、危険な状況にある人間の出演者への被害を減らすことにつながるかもしれません。(もちろん、反論としては、そうした出演者はしばしば自らの意思でそこにいて、もし置き換えられれば収入を失う可能性があるため、話は複雑です。)しかし未来学者たちは、完璧にリアルなAIポルノが需要を満たし、現実の人間が屈辱的な仕事に従事する必要がなくなる世界を想像しています――本質的には、より倫理的なポルノのサプライチェーンです。実際、一部のアダルトクリエイターは自発的に「デジタルツイン」(自身の画像や声をライセンスすることで)を作成し、AIが一部の労働を代行できるようにしています――同意と利益分配のもとでsifted.eu。このモデルが拡大すれば、人間のクリエイターが自分の管理下で一部のコンテンツ制作をAIに任せつつ収入を得ることができ、双方にとって有益となる可能性があります。
  • 表現の自由と芸術的価値: 市民的自由の観点から、一部の人々はNSFW AIでさえ表現の一形態として擁護しています。エロティックアートやポルノは、長い間多くの国で(猥褻物を除き)保護された表現とみなされてきました。AIは単に表現の媒体を拡張するものです。アーティストがヌードを描いたり、合意の上でポルノシーンを撮影できるなら、なぜAIにヌードアートを作らせてはいけないのでしょうか?AIによる性的コンテンツの全面禁止は、セクスポジティブなアートや正当な創作活動を検閲する過剰な措置になると主張します。関係者全員が同意している限り(AIが関与する場合は難しいですが、仮にプロセスが合意の上で行われているとすれば)、大人は自分の選択で性的コンテンツを創作・消費する自由があるべきだ、AIの助けがあってもなくても、というのが彼らの主張です。Electronic Frontier Foundationのような団体は、ディープフェイク技術の広範な禁止に警鐘を鳴らしており、この技術には有益な用途もあること、そして悪用者を狭くターゲットにする方が技術自体を禁止するよりも良いと指摘していますklobuchar.senate.gov。この議論のリバタリアン的側面は、「実際の被害(非合意の使用など)を罰すべきだが、ツールや合意の上のファンタジーを犯罪化すべきではない」と述べています。

批判者からの主張(反NSFW AI):

  • 同意違反と画像悪用: 批評家たちは、NSFW AIがすでに個人の同意や肖像権の大規模な悪用を可能にしていると強調しています。非同意のディープフェイクの蔓延はその証拠であり――人生が破壊され、プライバシーが粉々にされています。彼らは、これは周縁的な現象ではなく、これまでのディープフェイク技術の主流の使用例だと主張します: ディープフェイクの96%がポルノ目的であり、ほぼすべてが同意なしで作成されている theguardian.com。この技術は本質的にそのような悪用に使われやすく、危険な武器になり得ると言います。人々が直接標的にされていなくても、トレーニングデータや他人の妄想に自分が含まれることに同意する手段が全くないことは問題です。誰かが性的自律性を完全に損なわれる可能性があり、他人が何もないところからその人の露骨な画像を生成できてしまいます。これは本質的に非倫理的であり、のぞきや他の性犯罪と同様に非難されるべきだと批評家は述べています。「何百ものAI脱衣アプリ」が簡単に利用できる現状はklobuchar.senate.govどんな女性の写真も数秒でポルノ化できてしまうという、耐え難く恐ろしい状況だと多くの人が訴えています。
  • 感情的・心理的被害: AIポルノフェイクの被害者になると、屈辱、不安、PTSD、さらには自殺念慮など深刻な精神的苦痛を引き起こす可能性があります。悲劇的な例として、2022年に米国で17歳の少年が、偽のヌード写真を使ったセクストーション詐欺で脅迫され自殺した事件がありますklobuchar.senate.gov。自分のディープフェイクを発見した女性たちの心理的負担は計り知れず、バーチャルな性的暴行と表現されています。したがって、批評家はNSFW AIを、嫌がらせや虐待を助長するツールであり、脆弱な人々(特に女性、未成年者、ヘイト目的の性的フェイクの標的となり得るLGBTQ個人など)にとって「緊急事態」だと見なしていますtheguardian.com。彼らは、この技術のいかなる主張される利益も、現に起きているこれらの実害を上回るものではないと主張しています。
  • 搾取的コンテンツの正常化: 批判者たちは、AIポルノ、特に過激または非同意のシナリオが氾濫することで、そのような画像が正常化され、プライバシーや同意といった事柄に対する社会的制裁が弱まるのではないかと懸念しています。有名人やクラスメートの偽ヌードが「インターネット上でよくある話」になれば、他人のプライバシーを侵害することに対して人々が鈍感になる可能性があります。また、女性を好きなように利用できる性的対象物とみなす女性蔑視的な考え方を助長する恐れもあります。倫理的には、リベンジポルノや盗撮と同様であり、それが蔓延することは「女性の身体は自分のものではない」というメッセージを送ることになります。さらに、批判者たちはAIが逸脱した嗜好をエスカレートさせるかもしれないと懸念しています。例えば、AIによるレイプポルノを消費する人が実際の暴力行為に及ぶ可能性が高まったり、AI生成の児童ポルノで満足しない小児性愛者が現実の子どもを虐待するようになるかもしれません。証拠については議論がありますが、多くの心理学者は、メディアが行動を強化する可能性があることから慎重になるよう呼びかけています。
  • 人間関係と社会への影響: 一部の社会学者やフェミニストは、AIの性的パートナーや超個人化されたポルノが実際の人間関係を損なう可能性を懸念しています。多くの人が完璧に従順なAI「ガールフレンド」に頼るようになった場合、自立したニーズや境界を持つ現実のパートナーと関係を築く能力はどうなるのでしょうか。社会的孤立や、性や恋愛に対する歪んだ期待が高まることが懸念されています。あるAIコンパニオンアプリの創設者自身も、それが「非常にディストピア的」であり、人々が互いに切り離される「親密さの奇妙な未来」を生み出すかもしれないと述べていますsifted.eu強化されるステレオタイプ—多くの場合、AIガールフレンドは従順な女性の人格—は、ユーザーの間で性差別的な態度を固定化する可能性があります。このように、批判者たちはNSFW AIが孤独、女性蔑視、親密さの商品化といった問題を悪化させるかもしれないと主張しています。
  • アーティスト、パフォーマー、労働者への脅威: クリエイティブ分野やアダルト業界に従事する人々は、NSFW AIを生計や権利への脅威と見なしています。ビジュアルアーティスト(例:エロティカのイラストレーターやモデル)は、AIが無断で自分の作品をスクレイピングし、その後自分のスタイルや自分自身の画像を生成することに直面しています。これは知的財産の盗用のように感じられ、依頼アートの市場を損ないます。写真家は、AI画像生成器が撮影のためのモデル雇用を代替してしまうことを懸念しています。ポルノ俳優やセックスワーカーは、AIの「クローン」や完全に架空のAIモデルが消費者を奪ったり、自分たちの仕事の価値を下げるコンテンツで市場を溢れさせたりすることを心配しています。OnlyFansのクリエイターの中には、AI生成コンテンツとの競争により収入が減少し、ファンからの苦情が増えたと報告する人もいます。AI生成コンテンツは安価で常に利用可能なためですreddit.com。彼らは、AIが本質的に自分たちの画像や魅力を努力や人間的な手間なく流用しているため、不公平な競争だと主張し、実際の労働者にとって持続不可能なレベルまで価格が下がると訴えています。セックスワーカーはまた、より多くのコンテンツを作成するため、あるいは24時間365日利用可能であるためにAIの使用を強いられるのではないかと恐れており、労働のさらなる商品化を懸念していますreddit.com。労働組合やアドボカシー団体は、企業が(権利も要求も報酬もない)AIポルノスターを人間の代わりに選ぶ世界を懸念しており、これは仕事を奪い、元々これらのモデルを訓練したパフォーマーの肖像を搾取するシナリオになりかねません。要するに、批判者はNSFW AIが人間の創造性と労働を切り崩していると見ており、人間のデータを使って無限の無料(または安価な)コンテンツを生み出していると主張しています。
  • 道徳と法の滑りやすい坂: 政策の観点から、批判者は今NSFW AIにしっかりとした制限を設けなければ、制御不能な未来につながると主張します。AIポルノを「単なるファンタジー」として受け入れた場合、それが同意など現実の問題と交差したときどうなるのでしょうか?例えば、誰かが元恋人のAIポルノを作り「ただのファンタジーだ」と主張した場合、それは許されるのでしょうか?ほとんどの人はノーと言うでしょう――元恋人は明らかに傷つけられています。したがって批判者は予防原則を重視し、早い段階で線引きをすべきだと考えます。中にはディープフェイク作成ツールをピッキングツールやハッキングツールのように扱うべきだと主張する人もいます――それ自体は違法ではないが厳しく管理し、明らかに悪用目的のツール(画像を無断で裸にする「ヌーディファイ」アプリなど)は全面禁止すべきだという意見です。強い規制を支持する倫理学者は、悪用の可能性がニッチな肯定的用途をはるかに上回ると主張します。彼らはしばしば被害者の声を引用します。あるテック倫理学者は「AI生成ポルノで自分の姿を見た10代の少女――そのたった一度の経験、たった一つの人生が台無しになることが、この技術への厳格な規制を正当化する」と述べています。表現の自由は重要ですが、それは他者の主体性や安全を犠牲にしてはならないと彼らは言います。

注目すべき点は、誰もが極端な立場にいるわけではなく、多くの人がNSFW AIの可能性と危険性の両方を認めているということです。例えば、あるユーザーは架空のキャラクターのカスタムエロティカを生成できること(無害な用途)を評価しつつ、実在の人物を偽造することには完全に反対するかもしれません。したがって、議論はしばしばどこで線を引くかに集中します。世論における新たなコンセンサスは、AIによるアダルトコンテンツは同意と透明性がある場合のみ許容される、そして実在の人物の許可なしや未成年者が関与する場合は厳格に禁止される、というもののようです。アダルトAIコンテンツに賛成する多くの技術者でさえ、非同意のディープフェイクは弁護の余地がなく、犯罪化されるべきだと同意していますcbsnews.com。一方で、批判的な立場の人の中にも、同意した大人が自分たちのためにこれらのツールを使うこと(例えば、カップルが共有するファンタジーのAIアートを作る、またはセックスワーカーがAIを使ってビジネスを拡大するなど)は個人の選択であるべきだと認める人もいます。

支持者と批判者の分断は、時にテクノロジー楽観主義と社会的懐疑主義の線に沿って分かれます。テクノロジー愛好家はNSFW AIを(いくつかの課題はあるものの)刺激的なフロンティアと見なす一方、社会的擁護者はこれを抑制すべき新たなデジタル虐待の形態と見なします。どちらも有効な視点であり、今後の課題は(創造的自由、個人的な楽しみ、業界のイノベーションなどの)利益を最大化しつつ、(非同意の搾取、誤情報、労働者の置き換えなどの)害を最小化することです。いかなる解決策も、技術者、立法者、倫理学者、アダルト業界、画像被害のサバイバーからの意見が必要となるでしょう。2025年現在、その議論が本格的に始まっています。

(要約すると、両者の主張を簡単に比較します:)

  • 支持者は、NSFW AIは大人の創造性を高め、安全なファンタジーの実現を提供し、同意したクリエイターが収益化したり孤独な人が仲間を見つけたりするのにも役立つ——本質的にはポルノの技術的進化形であり、倫理的に使われれば誰も傷つけず、個人の自由を高めるものだと主張しますglobenewswire.com sifted.eu
  • 批評者たちは、これが画像を使った性的虐待の波を助長し、同意やプライバシーを侵食し、ユーザーの性や人間関係に対する見方を歪め、実在する人々の画像や労働を本人の同意なく利益のために搾取していると主張しているtheguardian.com reddit.com。彼らの見解では、NSFW AIが社会(特に女性や脆弱なグループ)にもたらすコストは、一部のユーザーが得る個人的な利益をはるかに上回っており、強力な規制と監督が必要だとしている。

反撃:NSFWコンテンツのためのAIによるコンテンツモデレーションと安全対策

NSFW AIのリスクを踏まえ、技術的および政策的な安全策を開発するための並行した競争が進んでいる。この取り組みは複数の側面にまたがっており、AI生成コンテンツの検出ツールの改良、コンテンツモデレーションフィルターの実装、現実と偽物を区別するための規範やウォーターマークの促進などが含まれる。以下は、AIやプラットフォームがNSFW AIの暗部を抑制しようとしている方法である。

  • 自動NSFWフィルター: 多くのAI画像生成ツールには、ポルノグラフィー分類器が搭載されており、露骨な出力をブロックまたはフィルタリングしようとする。例えば、公式のStable Diffusionリリースには「Safety Checker」が付属しており、ヌードや性的な画像を検出してぼかすarxiv.org。OpenAIのDALL·Eは、性的コンテンツをほのめかすプロンプト自体を拒否する。Midjourneyは膨大な禁止ワードリストを持ち、AIがプロンプトの文脈を解釈して、リクエストがポルノ的または搾取的だと判断すれば画像を生成しないarxiv.org。これらのフィルターは完璧ではなく(ユーザーは婉曲表現や禁止語の綴りを変えるなどして回避策を常に見つけているarxiv.org)、それでも一般ユーザーによる偶発的または軽率なNSFW画像の生成を防いでいる。これらは第一の防衛線として機能し、特に露骨なコンテンツをホストしたくない主流プラットフォームで重要である。オープンソースの派生版の中にはこれらのフィルターを削除しているものもあるが、その場合は責任がユーザー(およびコンテンツが投稿されるプラットフォーム)に移る。
  • ディープフェイク検出ツール: 研究分野では、ディープフェイク検出アルゴリズムに多大な努力が注がれています。Microsoftのような企業やSensityのようなスタートアップは、動画や画像を操作の兆候(照明の不一致、顔のアーティファクト、デジタル透かしなど)で分析するAIを開発しています。ある評価では、Hive Moderationモデル(いくつかのソーシャルメディアで使われているAIモデレーションスイート)が、AI生成キャラクターと実在の人物の判別で最も高い精度を示しましたemerginginvestigators.org。これらの検出器は、プラットフォームがアップロードをスキャンする際に使われています(例:Facebookが画像をヌードかどうか、または既知の偽画像かどうかもスキャンする場合)。検出器の開発はイタチごっこであり、生成モデルが進化すれば検出器も進化しなければなりません。EUは企業にこうしたシステムの導入を推進しており、AI法の透明性ルールや女性に対する暴力指令は、プラットフォームがAIポルノを特定し削除できることを事実上義務付けていますeuronews.com euronews.com。一部の検出方法は、メタデータや特定の生成ツールからの既知のパターン(例:特定のAIツールがピクセルパターンに見えない透かしを残す)に依存しています。業界ではより積極的なアプローチも検討されています:AIコンテンツを作成時に透かしを入れる。例えばGoogleは、AI生成画像にタグを付け、編集後でもAI作成と認識できる方法に取り組んでいます。OpenAIは言語モデルからのテキストに暗号学的透かしを提案しています。これが広く採用されれば、自動フィルターがAIポルノを拡散前に検出できる助けとなるでしょう。しかし、オープンソースモデルは自発的に透かしを入れることはなく、悪意ある者は透かしの除去を試みる可能性があります。
  • コンテンツハッシュ化とデータベース: リベンジポルノやディープフェイク対策として、テック企業やNGOは既知の虐待画像のデータベースを作成しています(例えば実際の児童虐待画像にはPhotoDNAのような暗号学的ハッシュを使用)。同様のアプローチがディープフェイクにも検討されています:被害者が偽画像を申し出た場合、そのハッシュを削除データベースに追加し、他でアップロードされた際に即座に認識・削除できるようにします。イギリスの今後のオンライン安全法の下でのシステムも、こうした積極的検出を含む可能性があり、プラットフォームに「[禁止コンテンツ]が最初から表示されないようにする」euronews.comことを求めています。実際には、アップロード時に既知の違法画像や動画をスキャンすることを意味します。AIフェイクの課題は、加害者が無限にバリエーションを生成できるため、1つのハッシュでは次のものを検出できない点です。そこでAIベースの類似性検出が必要となり、既知の偽画像に酷似したコンテンツや、ネット上で明示的な画像を望まないと登録した人物に一致するものを検出できます。
  • ポルノサイトのモデレーション: 興味深いことに、Pornhubのような主流のアダルトサイトはディープフェイクの影響でモデレーションを強化せざるを得なくなっています。Pornhubは2018年以降、本人の同意なしに実在の人物を描写したAI生成コンテンツのアップロードを禁止しています。これらを見つけるためにユーザーからの報告とモデレーターによる審査に頼っていますが、何百万ものアップロードがあるため困難です。EUのデジタルサービス法はより厳しい責任を課しており、2024年にはPornhub(およびXvideos、Xnxxなどの類似サイト)が違法または有害なコンテンツを積極的に抑制しなければ罰金の対象となる subscriber.politicopro.comと指定されました。これはおそらく自動フィルタリングへの投資を意味します。ポルノサイトは今後、すべての新しい動画にディープフェイク検出器を使い始めるかもしれません。また、現在はアップローダーの本人確認も導入されています。これは完全ではありません(偽造者が自分自身として認証し、他人の偽動画をアップロードできるため)が、追跡性が向上します。
  • ソーシャルメディアのポリシー: Twitter(X)やRedditのようなソーシャルネットワークは、「AIによって生成または改変された親密な画像」を本人の同意なしに共有することを明確に禁止するようポリシーを更新しています。Redditは最初の波の後、2018年にディープフェイクを禁止しました。Facebookのコミュニティ基準も、有害な方法で欺く可能性のある合成メディア(誰かの偽ポルノを含む)を禁じています。しかし、取り締まりはまだ不十分です――前述の通り、2024年にもXでディープフェイクコンテンツが拡散しましたcbsnews.comし、MetaもAIヌード広告の削除を世論に促されましたcbsnews.com。とはいえ、新しい法律(Take It Down ActやEUの規則)により、今や法的義務が課されています。今後はより迅速な対応が期待できます――例えば米国の法律では、プラットフォームは報告されたNCIIを48時間以内に削除しなければ罰則の対象となりますklobuchar.senate.gov klobuchar.senate.gov。このため、企業は疑わしい場合は削除を優先する傾向になるでしょう。また、「これは私のAI偽造です」と報告できる仕組みを統合し、ユーザーが迅速に悪用を通報できるようにするかもしれません。
  • 年齢確認とアクセス制限: もう一つのモデレーションの側面は、未成年者がAIポルノにアクセスするのを防ぐことです。従来のポルノサイトには年齢確認がありますが(完全には徹底されていません)、一部の法域(フランス、ユタ州、テキサス州など)ではアダルトサイトに厳格な年齢確認を義務付ける法律が可決されていますversustexas.com。AIツールはこれを複雑にします—生成モデルはゲートキーピングなしで個人的に使用できるからです。しかし、一部のAIプラットフォームでは、NSFWモードにアクセスするためにID認証を求め、ユーザーが成人であることを確認し始めています。例えば、Infatuated.aiプラットフォームは強固な年齢確認プロトコルと未成年者に関するプロンプトのブロックを強調しましたglobenewswire.com。Replika(AIチャットボットアプリ)は、かつてエロティックなロールプレイを許可し、多くの未成年者が利用したことで悪名高いエピソードがありましたが、批判を受けて、支払いやIDによる年齢確認で18歳以上のユーザーのみにエロティックコンテンツを制限しました。したがって、少なくとも商用サービスでは、子どもたちからアダルトAIコンテンツを遮断する努力がなされています。これは重要です。なぜなら、子ども自身がディープフェイクツールを使って同級生をいじめる事例(学校で見られたように)もあるからですcbsnews.com。若者に倫理的・法的な結果について教育することもモデレーションの一部であり、一部の学校ではディープフェイク認識をデジタル市民教育カリキュラムに組み込むようになっていますnea.org
  • 協力とベストプラクティス: AIの悪用との戦いは、テック企業、法執行機関、NGOの協力につながっています。Partnership on AIのメディアインテグリティグループCoalition for Content Provenance and Authenticity (C2PA)のようなイニシアチブは、コンテンツの認証基準を設定することを目指しています。企業は画像や動画がどのように作成されたか(カメラかAIソフトか)についてのメタデータを含める場合もあります。一方、法執行機関もディープフェイクについて訓練を受けており、被害者の報告を真剣に受け止め、証拠を収集する方法を知るようになっています。Europolは2023年にディープフェイクポルノを新たな脅威として警告し、加盟国に対策リソースの割り当てを促しましたtheguardian.com
  • AIモデルの制限: より直接的な防御策として、有害なコンテンツを生成できるモデルの配布を制限する方法があります。いくつかのAIモデルリポジトリには利用規約があります。例えば、Stability AIはStable Diffusion 2.0のトレーニングセットに明らかにポルノ的な画像を公式には含めないことを選択しました。これは部分的には、ポルノ生成が得意になりすぎるのを避けるためでした(その結果、新しいモデルが「慎み深い」とユーザーから不満が出ました)。Hugging Face(AIモデルのハブ)は、明らかにポルノ用に作られたモデルのホスティングを拒否したり、ユーザーが悪用しないことに同意する大きな免責事項を付けたりすることがあります。また、注目すべき事例もありました。2022年末、クラウドファンディングサイトのKickstarterは「Unstable Diffusion」のキャンペーンを禁止しました。これはポルノに最適化されたAIモデルを構築するための資金調達の試みでした。KickstarterはポルノAIプロジェクトに対するポリシーを理由にこれを停止しましたarnoldit.com。この出来事は、NSFW AIへの資金提供や支援でさえ障害に直面する可能性があることを浮き彫りにしました。Appleのようなアプリストアも、フィルターのないAIアプリには敵対的です。AppleはNSFW出力を生成できるAI画像生成アプリを削除し、開発者にフィルターの追加を促しました。このように、最先端AIモデルへのアクセスは、ある程度企業の方針によって制限される可能性があります。しかし、本当にオープンソースのモデルは簡単には封じ込められません。一度リリースされると、トレントやフォーラムで拡散します。したがって、これは限定的な対策です。

AIポルノ時代のコンテンツモデレーションは間違いなく困難です。違反の可能性があるコンテンツの量は膨大で、増え続けています。しかし、技術が技術に立ち向かっています。AI自体がAI対策に使われているのです。例えば、Metaは有名人のディープフェイクを検出するために、ヌード画像内の既知の顔を検出する機械学習分類器や、ディープフェイク特有の合成アーティファクトを検出する技術を使用していると報じられています。Reality Defenderのようなスタートアップは、企業向けにディープフェイクコンテンツをリアルタイムでスキャン・削除するサービスを提供していますrealitydefender.com。そして新しい法律によって与えられた法的強制力により、これらの対策に投資しないプラットフォームは重大な罰金や訴訟のリスクを負うことになります。

有望な方法の一つは、認証済みメディアという考え方です。例えば、すべての正規のポルノ制作者が自分の動画を暗号的に署名して本物であることを証明すれば、署名のない「誰々のセックステープ」と主張するものは疑わしいと判断できます。これを普遍的に実装するのは複雑ですが、出所証明(プロヴェナンス)の概念が模索されています(これはポルノだけでなく、すべてのメディアの誤情報対策としても検討されています)。

最終的に、モデレーションが完全無欠になることはありません――ワイルドなウェブ上では多くがすり抜けてしまうでしょう。暗号化されたプラットフォームや分散型プラットフォームは、最悪のコンテンツの温床となります。しかし、少なくとも主流や合法的な領域では、NSFW AIの害を軽減するための協調した取り組みが行われています。目指しているのは、正当な利用(合意のあるアダルトコンテンツ、ファンタジーアートなど)が存在できる一方で、悪意ある利用は迅速に特定・削除される環境を作ることです。これは大変な課題であり、被害者たちからは「モグラ叩き」のようだと表現されています klobuchar.senate.gov。しかし、法律、AI検出ツール、プラットフォームポリシー、ユーザー教育といったツールキットが組み合わさることで、多層防御が形成されています。

余波と未来:クリエイターとアダルト業界への影響

NSFW AIが現状を揺るがす中、すでにアダルトエンターテインメントのエコシステムにいる実在の人々――ポルノスターやセックスワーカー、エロティックアーティスト、コンテンツスタジオ――に影響を与えています。新技術にチャンスを見出す人もいれば、自分が時代遅れになったり、望まぬ形で巻き込まれたりすることを恐れる人もいます。

アダルトパフォーマーとセックスワーカー: おそらく最も直接的な影響を受けるのは、アダルトコンテンツの制作で生計を立てている人たちです。一方で、先見の明のあるクリエイターの中にはAIを活用して自分の作品を拡張し始めている人もいます。例えば、アダルトモデルはAIフォトジェネレーターを使って自分自身の強化版やスタイライズされた画像を作成し販売できます(高額な写真撮影の必要がなくなる)――ただし、その画像が本人に似ていて、プラットフォームのルールに適合している場合に限ります reddit.com。2023年には、インフルエンサーのCaryn Marjorieが自分の人格を模したAIチャットボットを立ち上げ、ファンが親密にチャットできるようにしたことで話題になりました。同様に、スタートアップのOhが提唱する「デジタルツイン」のコンセプトでは、ポルノスターが自分のイメージをライセンスし、AIアバターがファンとチャットしたりパフォーマンスしたりすることで、最小限の追加労力で新たな収益源を生み出せます sifted.eu。これらの動きは、業界の一部がAIを自分自身を拡張するツールと見なしていることを示しています――理論的には、AIを通じて物理的に一対一で対応するよりも多くのファンを楽しませることができるのです。

一方で、多くのパフォーマーは心配しています。もしファンがAIによって自分好みのファンタジーコンテンツをカスタムメイドできるようになったら、実際の人間にお金を払わなくなるのでは?AI生成のOnlyFansプロフィールが登場しており、完全に架空(だがリアルな)女性を使い、疑いがかかると#AIの透かしが入れられたり、より安価にコンテンツを販売したり、ユーザーにスパムを送ったりしているという報告もありますreddit.com。このような競争は本物のクリエイターの収入を脅かす可能性があります。一部のセックスワーカーは、「成功するには24時間365日アルゴリズムのようにコンテンツを量産し続けることが新たな基準になりつつあり、人間には不可能だがAIには簡単。だから人間もAIを使うか、取り残されるかのプレッシャーを感じる」と「気が滅入る」と語っていますreddit.com。また、感情的な側面もあります。あるベテランのクリエイターは、AIを使って完璧な体や無限のアウトプットを「ズル」して生み出すことは、人間クリエイターが注いだ本当の努力や本物らしさの価値をreddit.com下げてしまうと書いています。「それは卑怯なやり方だし、私のファンにも…そして自分の体やコンテンツに注いだ努力にも失礼だ」と、AIで偽コンテンツを作る人たちについて語っていますreddit.com

すでにいくつかの反発や適応も見られます。クリエイターたちが協力して偽AIプロフィールを告発したり、プラットフォーム側が本物のクリエイターがAIに成りすまされないようポリシーを調整したりしています。OnlyFansも前述の通り、他人の肖像の使用を禁止し、AIコンテンツにはタグ付けを義務付けていますreddit.com。クリエイターがAI偽アカウントに対して法的措置を検討しているという話もあり、例えばOnlyFansのボットアカウントを排除するための訴訟の噂もありますreddit.com。さらに、パフォーマーたちは同意と肖像権についても懸念しています。たとえば、引退したポルノ女優が過去の映像をAIの学習に使われ、本人の同意も報酬もなく「彼女」の新たな過激動画が生成されるかもしれません。これはハリウッド俳優がAIに自分の肖像を使われることを懸念するのと同じですが、ポルノ俳優の場合はよりセンシティブなものに結びついているため、さらにリスクが高いのです。業界としては、俳優がAIによるシミュレーションの可否を交渉できるよう、全米映画俳優組合のような立場を築く必要があるかもしれません。実際、デンマークの「肖像権」付与のアプローチは、世界中のパフォーマーが自分の顔や体の所有権を主張する力を与える可能性がありますeuronews.com

スタジオとプロデューサー: 従来のポルノスタジオもまた、影響を受けるかもしれません。AIツールを使った少人数のチームが、俳優を雇わずにそれなりのアダルトビデオを制作できるなら、大手スタジオの優位性は失われます。しかし、現時点のAI動画は、長尺コンテンツにおいてプロのスタジオ品質にはまだ達していません――主に短いクリップか、実写映像との組み合わせが必要です。一部のスタジオは、特殊効果やポストプロダクション(例:出演者の若返り、映像の強化、匿名性のためのタトゥー消去など)にAIを使い始めるかもしれません。もう一つの可能性は、手作業では高コストだったリアルなアダルトアニメーションの生成です。しかし、スタジオは海賊版のような行為の脅威にも直面します。悪意ある者がAIを使ってプレミアムコンテンツやモデルの模倣品を作る可能性があるのです。例えば、スタジオが人気スターと契約している場合、誰かがそのスターをディープフェイクで新しいシーンに登場させ、流出させるかもしれません。これはスタジオの利益やスターのブランドを損なうことになります。スタジオは、契約タレントの商標やパーソナリティ権を強く行使して対応するかもしれません。ポルノスタジオが、海賊版より先に自社スターの公認AIコンテンツ(収益分配付き)をテック企業と提携して制作する動きが、防衛策として見られるかもしれません。

エロティックアーティストと作家: 映像出演者以外にも、エロ漫画やイラスト、小説を制作する人々がいます。AIはすでにアートスタイルの模倣が可能で、特に2022年末にはAI生成のアニメエロが大量に登場し、同人アートコミュニティに亀裂を生みました。一部の依頼者は、コストや利便性を理由に人間のアーティストに依頼せずAIを使い始めました。アーティストたちはDeviantArtのようなプラットフォームで抗議しており(AI機能導入で反発もありました)、カスタムエロアートやストーリーの市場が、無料でパーソナライズされたコミックやエロ小説を生成できる時代に崩壊するのではという懸念があります。しかし、熱心なファンは、AIは複雑なストーリーテリングや本当に洗練されたアートにはまだ苦戦していると指摘します――人間のアーティストはAIにはない創造性や感情を提供できます。おそらく、アーティストがAIで下書きや着色を行い、仕上げを自分で加えるハイブリッドな手法が主流になるでしょう。しかし、あまり有名でないアーティストは、多くの視聴者が「十分良い」と感じるワンクリックAI作品と競争するのが難しくなるかもしれません。これにより、エロアートにおいても、実際に人間が作ったことを知っているからこそ追加料金を払うファンがいるような、新たな「本物の手作り」価値の必要性が高まるかもしれません。

アダルト業界の姿勢: 興味深いことに、大手アダルトエンターテインメント企業はAIについて公には比較的静かです。おそらく、社内で戦略を模索しているか、注目を集めることでさらなる監視を招くのを避けているのでしょう。アダルト業界は歴史的にテクノロジーの導入が早く(インターネット、ウェブカメラ、VRポルノなどをいち早く取り入れました)、すでに「ディープフェイクの有名人そっくり」コンテンツ(場所によっては法的グレーゾーン)を販売したり、AIによるレコメンド機能を試したりしています。カム業界では、モデルがオフラインの時に顧客を引き留めるため、AIチャットボットを試験的に導入したサイトもあります。しかし、主要プラットフォームで人間のエンターテイナーをAIが完全に置き換える事例はまだありません。これは技術の成熟度不足や、本物の交流を求めるユーザーの嗜好が理由の一部です。

しかし、経済的な圧力が適応を強いる可能性があります。仮に、2~3年後にAIが任意の2人の有名人のフルHDポルノ動画をオンデマンドで生成できるようになった場合、無名の俳優によるプロのポルノ市場は低迷するかもしれません――無限の無料ファンタジーが手に入るのに、なぜお金を払ったりサブスクしたりする必要があるのでしょうか?業界は本物らしさ、ライブでの交流、コミュニティといった、AIには提供できない要素を強調する方向に転換するかもしれません。皮肉にも「100%人間、本物の快楽」といったタグでポルノが売り出されるのを見ることになるかもしれません。逆に、業界がコスト削減のためにAIを取り入れる可能性もあります――例えば、1人の俳優が演じて、その顔をAIで変えて1回の撮影から複数の「異なる」動画を作る(理想的には同意の上で)。このシナリオでは倫理的な問題が生じます(視聴者は同じ人が変形されていると知っているのか?パフォーマーはバリエーションごとに報酬を得るのか、それとも1回分だけなのか?)。

一つのポジティブな影響は安全性に関するものかもしれません:AIが危険な行為をシミュレートできるなら、スタジオはパフォーマーを危険にさらさずに済むようにAIを使うかもしれません。例えば、パフォーマーに極端なスタントをさせる代わりに、基本的なものを撮影し、激しい部分はAIで生成することができます。また、前述のように、パフォーマーが服を着たまま撮影し、AIがヌードバージョンを生成することで、実際に現場で裸にならずにポルノに出演できる方法も考えられます(ただし、そのアイデア自体が本物らしさや同意について新たな議論を呼ぶでしょう)。

市場の細分化: アダルトコンテンツ市場は階層化して細分化する可能性が高いです:

  • ハイエンドな人間によるコンテンツ――本物の交流を重視(パーソナライズされた動画、クリエイターと直接やり取りできるOnlyFans、ライブカムショーなど、人間の存在自体がポイントとなるもの)。
  • AI生成コンテンツ――非常に安価または無料で、チューブサイトやプライベートチャンネルにあふれる可能性があります。これはカジュアルな消費者や、非常に特定のファンタジー(有名人など)を持つ人々を満足させるかもしれません。ディープフェイクポルノが半ば違法のままであれば、よりアンダーグラウンドや非商業的なフォーラムにとどまるかもしれません。
  • ハイブリッドコンテンツ――クリエイターがAIを使いつつも関与し続けるもの。例えば、モデルが自分の画像をAIで加工したセットを販売する――実質的には本人の肖像だが、AIによって完璧化されたり、幻想的なシーンに配置されたりする。透明性と同意があれば、ファンはその多様性を評価するかもしれません。

クリエイターへの精神的・社会的影響: 自分の顔が無断で使われたり、機械と競争しなければならないというプレッシャーが、クリエイターに与える感情的な負担は無視できません。OnlyFansのクリエイターによるRedditのコメントには、不安や絶望感すらも露わになっていましたreddit.com reddit.com。これは他のクリエイティブ分野(アーティストや俳優)でAIに関して起きていることと同じですが、アダルト業界ではスティグマや制度的支援の欠如により、懸念を声に出したり保護を求めたりするのがより困難です。今後、セックスワーカーの支援団体がデジタル権利やAIも活動範囲に含め、トレーニングデータセットからの削除権や、同意のないパフォーマーのディープフェイク禁止などを求めていく動きが広がるかもしれません。米国のAdult Performers Actors Guildのような組合が、契約にAI条項を盛り込む交渉をする可能性もあります。例えば、パフォーマーが「自分の映像を、将来的に自分のイメージを置き換えるAIのトレーニングに使わないこと」や、「もし使うなら報酬を支払うこと」をスタジオに要求するかもしれません。

消費者行動の観点では、初期の逸話的な証拠によると、多くのポルノ視聴者は「本物」であることを好む傾向が依然として強いようです――実際の人間のパフォーマーには独特の魅力があります。AIポルノは、最初の新鮮さが薄れると「魂がない」あるいは満足感が低いと感じるユーザーもいます。したがって、人間のクリエイターは、AIには真似できない「本物らしさ」や「個人的なつながり」を強調することで、ファンを維持できるかもしれません。ただし、AIの進化が進めばその差は縮まり、AIと共に育った若い世代は区別しなくなる可能性もあります。

新たな才能のチャンス? 興味深い逆の側面もあります。AIは、アダルトコンテンツ分野への参入障壁を下げる可能性があります。自分の体や顔を公開したくない人でも、AIの分身――架空のセクシーなアバター――を作り、そのアバターのコンテンツを販売できるのです。つまり、AI代理でカムガールやOnlyFansモデルになるということです。実際に一部のユーザーがこれを試み、成功例も出ています。これは、身元や身体を晒さずにファンタジーを収益化する道を開きます。ただし、現状ではプラットフォームがなりすましや未成年防止のために本人確認を義務付けているため、個人は登録し、かつ「このコンテンツは架空の人物のAI生成である」と明示する必要があるでしょう。もしこれが認められれば、AI主導のアダルトクリエイターという新たなカテゴリが生まれるかもしれません。彼らは実在のモデルと競争することになります。「偽物」のモデルにお金を払うユーザーはいるのでしょうか?もし十分に魅力的でインタラクティブなら、特に最初は偽物だと気づかれなければ、あり得る話です。むしろ「いつでも利用できて、機嫌が悪い日がない」AIモデルを好むユーザーも出てくるかもしれません。これは人間のパフォーマーにとっては、当然ながら不安なことです。

業界への規制および法的影響: ディープフェイクに関する新しい法律により、アダルトプラットフォームは非同意のコンテンツを禁止する法的インセンティブを持つことになります。これは皮肉にも、(同意した出演者のみを扱う)既存の規制されたアダルトビジネスの立場を、無法なAIサイトに対して強化する可能性があります。もし取り締まりが厳しくなれば、ディープフェイクポルノを求めるユーザーは入手が難しくなり、違法なダークウェブの情報源に流れるか、その習慣自体をやめるかもしれません。一方で、(モデルが自分自身のAIバージョンに同意するような)同意のあるAI作品は、新たなライセンス製品カテゴリになる可能性があります。これには法的な明確化が必要です。例えば、モデルが自分の顔に著作権や商標権を取得し、許可なくAIクローンを作った人を訴えることができるのか?デンマークや今後成立する可能性のあるアメリカの州法は、その考え方に向かって動いていますeuronews.com。これはパフォーマーが自分のブランドを守る助けになるでしょう。

影響のまとめ: アダルトコンテンツ業界は、潜在的なパラダイムシフトの始まりにあります。AIを倫理的かつ透明に活用して適応する者は、成功するか、少なくとも生き残ることができるでしょう。無視する者は、コンテンツの大波や変化する消費者習慣に苦しむかもしれません。AIコンパニオンについてあるAI起業家が言ったように、「どんな新しいイノベーションも劇的な変化のように感じることがある…それは進化だ」sifted.eu。この進化が既存のクリエイターエコシステムを補完するのか、食い尽くすのかが問われています。

結論: ジレンマに満ちた新たなエロティックフロンティア

NSFW AIの台頭は、間違いなくパンドラの箱を開けました。わずか数年で、AIは面白い猫の画像を生成するところから、人の人生を破壊しうる偽のヌード写真を生成するまでになりました。この技術は強力で、両刃の剣であり、今後も存在し続けます。一方では、一般の人々が思い描くあらゆるエロティックな画像やシナリオを作り出すことを可能にし、アダルトエンターテインメントにおける消費者とクリエイターの境界を曖昧にしています。これは、パーソナライズされた快楽、創造的な探求、そしてしばしば技術的に停滞してきた数十億ドル規模の業界における新たなビジネスモデルの可能性を秘めています。他方で、NSFW AIは新たな形の虐待――「デジタルレイプ」と呼ぶ人もいます――を助長し、個人(主に女性)がデジタル領域で自分の画像や身体のコントロールを奪われる事態を生み出しています。これは、なりすまし、ポルノ、同意の定義をAI時代に合わせて更新しようとする法制度に挑戦を突きつけています。そして、AIによって拡張またはシミュレートされたとき、性、表現の自由、人間関係の本質について社会に不快な問いを突きつけています。

2025年末時点で、振り子はセーフガードと説明責任の方向に振れています。米国やEUでの主要な法整備、アジアでの取り締まり、プラットフォームのポリシー変更など、非合意のAIポルノが広く容認できないものと見なされていることを示しています。同時に、生成系技術自体が進化する中で、乱用を検出・抑止する技術も開発されています。今後も「いたちごっこ」の構図が続くことが予想されます。新たな安全対策が導入されるたびに、悪意ある者による新たな回避手法が現れるかもしれません。しかし、今や社会全体の認識は格段に高まっています。AIポルノはもはやインターネットの一部の奇異な現象ではなく、議会や報道機関でも主流の懸念事項となっています。この社会的認知の高まりは、被害者が声を上げて正義を求め、企業に責任を取らせる力となり得ます。

今後を見据えると、グローバルな協力が鍵となるでしょう。これらの問題は国境で止まりません。ある国で作られたディープフェイクが、別の国の誰かの人生を台無しにすることもあります。各国政府がベストプラクティスを共有することが重要です(Euronewsによるヨーロッパの法律調査が示すように、多くの国が互いのアプローチから学んでいますeuronews.comeuronews.com)。今後数年で、画像ベースの性的虐待に対抗するための国際的な枠組みや条約が生まれ、最悪の犯罪を人権侵害として扱う可能性もあります。その間も、市民団体や教育者は啓発活動を続け、メディアリテラシーを教え(「流出」した親密なコンテンツを信じたり拡散したりする前に考えるよう促し)、被害者を支援する必要があります。

NSFW AIにまつわる暗い側面が多く語られる中で、すべてが絶望的というわけではないことも指摘しておきたいです。合意のある文脈では、実際に幸せを感じている人もいます。たとえば、カップルがAI生成のロールプレイシナリオで親密さを高めたり、アダルトクリエイターがAIの分身を使って自宅で安全に収入を得たり、あるいは自分の特定のファンタジーがAIアートやストーリーで初めて表現されるのを見て満足する人もいます。こうした利用例は議論の中で見落とされるべきではありません。これらは、技術自体が本質的に悪ではないことを強調しています。これは道具であり、人間の意図を良くも悪くも増幅するものです。私たちの課題は、その利用を合意と創造性のある方向に導き、悪意ある利用を強く防ぐことです。

アーティスト、クリエイター、セックスワーカー――アダルトコンテンツの世界に生きる人々は、この新しい領域でも適応し、居場所を切り開き続けるでしょう。多くの人が「AI倫理」に自分たちの声が含まれることを求め、同意と補償の仕組みを要求しています。彼らが求めているのは、実はとてもシンプルなことです。「私たちに無断で奪わないで」ということです。社会全体が、アートからニュース、ポルノに至るまで、あらゆるAI分野でこの原則に向き合っています。

結論として、NSFW AIはテクノロジー、セクシュアリティ、法律、倫理の交差点に立っています。これは、デジタル時代における同意、プライバシー、さらには現実そのものの概念を再定義することを私たちに求めています。2020年代後半は、この分野を支配する規範やルールを定める上で極めて重要な時期となるでしょう。AIポルノが広く普及しつつも厳しく規制され、主に善意または中立的な目的で使われる未来に向かっているのでしょうか?それとも、主流メディアがこれを排除しつつも、違法取引のように暗部で繁栄する「バルカン化」が進むのでしょうか?その結果は、今まさに立法者、テック企業、ユーザーによって下されている決断にかかっています。

一つ確かなことがあります。それは、もはや元に戻せないということです。NSFW AIを「発明しなかったこと」にはできません。しかし、私たちはこれと責任を持って共存する方法を学ぶことができ、また学ばなければなりません。ユーザーとしては、これらのツールを使う際に他者の尊厳を尊重すること、企業としては最初から安全性を組み込むこと、政府としては明確な境界線を設けること、そしてコミュニティとしては悪用を容認しないことが求められます。警戒心と共感を持って臨めば、AIポルノの「西部開拓時代」は、より洗練された領域へと進化することが期待されます。そこでは、合意した大人たちが新しい形のエロティックアートやつながりを楽しむ一方で、技術を悪用しようとする者は排除されるでしょう。NSFW AIの物語はまだ書かれている途中であり、2025年半ばはその第1章にすぎません。今の社会の対応が、この技術が最終的に私たちの親密なコンテンツ領域を豊かにするのか、それとも危険にさらすのかを左右するのです。

出典:

  • Oremus, Will. 「議会、ディープフェイクヌードやリベンジポルノ対策法案を可決」 The Washington Post(Klobuchar上院サイト経由)、2025年4月28日 klobuchar.senate.gov klobuchar.senate.gov.
  • Fawkes, Violet. 「8つのベストNSFW AI画像ジェネレーター ― コードと同意の交差点で快楽を見つける」 Chicago Reader, 2025年4月13日 chicagoreader.com chicagoreader.com.
  • Mahdawi, Arwa. 「非合意のディープフェイクポルノは人生を破壊する緊急事態だ」 The Guardian, 2023年4月1日 theguardian.com theguardian.com.
  • フェリス、レイラ。「AI生成ポルノサイト『Mr. Deepfakes』、サービスプロバイダーのサポート停止で閉鎖」CBSニュース、2025年5月5日cbsnews.comcbsnews.com.
  • CBSニュース/AFP。「AI生成ポルノスキャンダル、香港大学を揺るがす――法学部生が20人の女性のディープフェイクを作成した疑い」CBSニュース、2025年7月15日cbsnews.comcbsnews.com.
  • リヨンズ、エメット。「韓国、性的ディープフェイク動画の所持・視聴を犯罪化へ」CBSニュース、2024年9月27日cbsnews.comcbsnews.com.
  • ウェシントン、ケイレブ。「テネシー州でディープフェイクやAI生成児童ポルノ対策の新法が施行」WSMVニュース・ナッシュビル、2025年6月30日wsmv.comwsmv.com.
  • デスマレ、アンナ。「デンマーク、著作権保護でディープフェイクに対抗。ヨーロッパの他の法律は?」ユーロニュース、2025年6月30日euronews.comeuronews.com.
  • ニコル=シュワルツ、カイ。「AI版OnlyFans登場:あるスタートアップが“エロティック・コンパニオン”プラットフォーム構築のため数百万ドルを調達」Sifted、2025年3月13日sifted.eusifted.eu.
  • Wilson, Claudia.「上院がDEFIANCE法案を可決」Center for AI Policy (CAIP)、2024年8月1日centeraipolicy.orgcenteraipolicy.org
  • Arnold, Stephen.「Googleが立場を表明 ― 疑わしいコンテンツに対して。AIは正しく判断できるのか?」Beyond Searchブログ、2024年5月24日arnoldit.comarnoldit.com
  • Holland, Oscar.「台湾の林志玲、ディープフェイク被害とAI偽情報との闘いについて語る」CNN、2023年10月5日(セレブのディープフェイクに関する文脈として)。
  • (本文中で引用された追加の政策文書、プレスリリース、報告書など)

Tags: ,