LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

درون انقلاب هوش مصنوعی NSFW: چگونه پورن تولیدشده با هوش مصنوعی بازی را تغییر می‌دهد و جنجال‌برانگیز شده است

درون انقلاب هوش مصنوعی NSFW: چگونه پورن تولیدشده با هوش مصنوعی بازی را تغییر می‌دهد و جنجال‌برانگیز شده است

Inside the NSFW AI Revolution: How AI-Generated Porn Is Changing the Game and Courting Controversy

هوش مصنوعی NSFW – استفاده از هوش مصنوعی مولد برای ایجاد محتوای بزرگسالان “نامناسب برای محیط کار” – به پدیده‌ای داغ و بحث‌برانگیز تبدیل شده است. از تصاویر اروتیک تولیدشده توسط هوش مصنوعی و ویدیوهای پورن دیپ‌فیک گرفته تا اغواگران با صدای شبیه‌سازی‌شده و چت‌بات‌های “دوست‌دختر”، یادگیری ماشین در حال بازتعریف چشم‌انداز محتوای بزرگسالان است. این یک انقلاب فناورانه است که به همان اندازه که امکانات وسوسه‌انگیز ایجاد می‌کند، پرسش‌های اخلاقی فوری نیز مطرح می‌سازد. طرفداران، این فناوری را راهی نو برای خیال‌پردازی و خلاقیت می‌دانند، در حالی که منتقدان نسبت به آزار، نقض رضایت و آسیب‌های اجتماعی هشدار می‌دهند. در میانه سال ۲۰۲۵، هوش مصنوعی NSFW در یک دوراهی قرار دارد: توسط جوامع خاص و استارتاپ‌ها پذیرفته شده، توسط قانون‌گذاران زیر ذره‌بین قرار گرفته و توسط کسانی که در تیررس آن هستند، مورد ترس واقع شده است. در این گزارش جامع، به بررسی چیستی هوش مصنوعی NSFW، محل‌های رونق آن، آخرین تحولات (از ممنوعیت پلتفرم‌ها تا قوانین جدید)، معضلات اخلاقی، دیدگاه‌های موافق و مخالف و تلاش جهانی برای مدیریت و قانون‌گذاری این بعد بی‌قانون از هوش مصنوعی می‌پردازیم. بیایید پرده از دنیای پرهیاهوی پورن تولیدشده توسط هوش مصنوعی برداریم – و ببینیم چرا این موضوع فقط درباره پورن نیست، بلکه درباره حریم خصوصی، قدرت و آینده محتوای جنسی است.

هوش مصنوعی NSFW چیست و چگونه کار می‌کند؟

هوش مصنوعی NSFW به سامانه‌های هوش مصنوعی اطلاق می‌شود که محتوای صریح بزرگسالان – شامل تصاویر، ویدیوها، صدا و متن پورنوگرافیک – را اغلب با واقع‌گرایی خیره‌کننده تولید می‌کنند. این سامانه‌ها از همان فناوری‌های مولد پیشرفته‌ای بهره می‌برند که در پیشرفت‌های اخیر هنر و رسانه مبتنی بر هوش مصنوعی به کار رفته‌اند، اما برای محتوای درجه X استفاده می‌شوند. نوآوری‌های کلیدی شامل مدل‌های یادگیری عمیق است که با مجموعه داده‌های عظیمی از تصاویر و ویدیوها آموزش دیده‌اند و می‌توانند در پاسخ به درخواست کاربر، محتوای جدید تولید کنند. برای مثال، مدل‌های انتشار متن به تصویر مانند Stable Diffusion می‌توانند تنها با یک توصیف متنی ساده، تصاویر برهنه یا جنسی فوتورئالیستی خلق کنند globenewswire.com. تکنیک‌های “دیپ‌فیک” امکان تعویض یا ساخت چهره‌ها در ویدیوها را فراهم می‌کنند، به‌طوری که به نظر می‌رسد افراد واقعی (اغلب سلبریتی‌ها یا اشخاص خصوصی) در پورنی که هرگز تولید نکرده‌اند، حضور دارند. ابزارهای پیشرفته شبیه‌سازی صدا می‌توانند صدای یک فرد را با دقتی شگفت‌انگیز تقلید کنند و تولید صدای اروتیک یا “صحبت‌های جنسی” با صدای هدف را ممکن سازند. همچنین مدل‌های زبانی بزرگ می‌توانند داستان‌های اروتیک داغ تولید کنند یا از طریق چت وارد نقش‌آفرینی جنسی شوند.

در اصل، سیستم‌های NSFW AI از همان الگوریتم‌هایی که هر نوع هنر یا رسانه هوش مصنوعی را تولید می‌کنند استفاده می‌کنند – فقط بر روی داده‌های آموزشی پورنوگرافیک یا اروتیک آموزش دیده یا بهینه‌سازی شده‌اند. شبکه‌های مولد تخاصمی (GANs) از پیشگامان اولیه در خلق تصاویر برهنه بودند، اما مدل‌های انتشار و مدل‌های مبتنی بر ترنسفورمر به طور قابل توجهی کیفیت را بهبود بخشیده‌اند. تولیدکننده‌های مدرن تصاویر NSFW می‌توانند تصاویر برهنه با کیفیت بالا و متناسب با درخواست کاربر را با کمترین تلاش تولید کنند globenewswire.com. سازندگان ویدیوهای دیپ‌فیک اغلب از نرم‌افزارهای تخصصی (برخی متن‌باز) برای جایگذاری یک چهره بر روی چهره دیگر در ویدیوهای بزرگسالان موجود استفاده می‌کنند و پورنوگرافی مصنوعی تولید می‌کنند که تشخیص آن از فیلم واقعی دشوار است cbsnews.com. سرویس‌های صوتی هوش مصنوعی می‌توانند یک نمونه صوتی را گرفته و گفتار جدید (از جمله محتوای صریح) را با همان صدا تولید کنند. و چت‌بات‌های مبتنی بر هوش مصنوعی با استفاده از تولید زبان طبیعی، مکالمات اروتیک شخصی‌سازی‌شده یا سکس‌چت را به صورت درخواستی ارائه می‌دهند.

مرزهای بین واقعیت و خیال در حال محو شدن است. همان‌طور که یک ناظر اشاره کرده است: «تصاویر، صداها و ویدیوهای بسیار واقع‌گرایانه تولیدشده توسط NSFW AI همچنان در حال پیشرفت هستند و نحوه خلق، مصرف و درک محتوای بزرگسالان را دگرگون می‌کنند» chicagoreader.com. اکنون یک کاربر می‌تواند تنها با یک درخواست ساده، یک صحنه پورنوگرافیک سفارشی – مثلاً تصویری از ملاقات خیالی با یک سلبریتی یا یک کلیپ صوتی از یک دوست سابق که حرف‌های صریح می‌زند – را خلق کند، چیزی که تا چند سال پیش غیرممکن بود. این قدرت تازه، پرسش‌های فوری درباره رضایت، حریم خصوصی و تفاوت بین خیال‌پردازی خلاقانه و سوءاستفاده را مطرح می‌کند. خود فناوری پایه از نظر اخلاقی بی‌طرف است – می‌تواند برای خلق هر چیزی استفاده شود – اما زمانی که به سمت مسائل جنسی انسانی و شباهت افراد واقعی هدایت می‌شود، پیامدهای آن پیچیده می‌شود.

اشکال اصلی محتوای بزرگسالان تولیدشده توسط هوش مصنوعی

  • تصاویر تولیدشده توسط هوش مصنوعی: مدل‌های متن به تصویر (مانند Stable Diffusion) می‌توانند تصاویر اروتیک یا پورنوگرافیک صریح را از روی درخواست‌ها تولید کنند. کاربران می‌توانند ظاهر، سناریو و غیره را مشخص کنند و تصاویر برهنه یا جنسی منحصربه‌فردی را به صورت درخواستی دریافت کنند globenewswire.com. بسیاری از این مدل‌ها متن‌باز یا قابل سفارشی‌سازی توسط کاربر هستند و امکان تولید محتوایی فراتر از آنچه ابزارهای هوش مصنوعی جریان اصلی اجازه می‌دهند را فراهم می‌کنند.
  • ویدیوهای پورن دیپ‌فیک: با استفاده از فناوری دیپ‌فیک، سازندگان چهره یک فرد را روی یک ویدیوی بزرگسالانه قرار می‌دهند و کلیپ پورن جعلی از کسی که هرگز شرکت نکرده ایجاد می‌کنند. این ویدیوهای دستکاری‌شده با هوش مصنوعی اغلب افراد مشهور یا افراد عادی را بدون رضایت هدف قرار می‌دهند cbsnews.com theguardian.com. کیفیت دیپ‌فیک‌ها به حدی بهبود یافته که تا سال ۲۰۲۴–۲۰۲۵ بسیاری از آن‌ها به طرز نگران‌کننده‌ای واقعی به نظر می‌رسند، که این امر با پردازنده‌های گرافیکی و الگوریتم‌های قدرتمندتر ممکن شده است.
  • کپی‌برداری صدا و صوت: تولیدکننده‌های صدای هوش مصنوعی صدای افراد مشهور یا آشنایان را کپی می‌کنند تا کلیپ‌های صوتی صریح تولید کنند (مثلاً شبیه‌سازی صحبت‌های جنسی یک بازیگر معروف یا ساخت کتاب‌های صوتی اروتیک با هر صدایی). هوش مصنوعی صوتی پیشرفته (مانند ElevenLabs) تولید ناله، دیالوگ یا روایت با صدای دلخواه را بسیار آسان کرده و نگرانی‌هایی درباره جعل هویت در محتوای صوتی پورن ایجاد کرده است.
  • چت‌بات‌ها و داستان‌های اروتیک: مدل‌های زبانی هوش مصنوعی برای چت و داستان‌نویسی NSFW استفاده می‌شوند. اپلیکیشن‌های «دوست‌دختر هوش مصنوعی» و چت‌بات‌های نقش‌آفرینی اروتیک از حدود ۲۰۲۳–۲۰۲۵ به شدت محبوب شدند. این ربات‌ها می‌توانند با کاربران وارد چت داغ یا سکس‌چت شوند و متن اروتیک نامحدود تولید کنند. برخی نیز تصاویر و یادداشت‌های صوتی را ترکیب می‌کنند. این یک شکل جدید از محتوای بزرگسالانه است – همراهان تعاملی هوش مصنوعی که به فانتزی‌های صمیمی پاسخ می‌دهند chicagoreader.com sifted.eu.

در حالی که پلتفرم‌های اصلی هوش مصنوعی (مانند DALL·E یا Midjourney شرکت OpenAI) خروجی پورنوگرافیک را ممنوع می‌کنند، جوامع متن‌باز و فناوری بزرگسالان این فناوری‌ها را برای گسترش مرزهای NSFW پذیرفته‌اند. ماهیت متن‌باز بسیاری از ابزارها «نوآوری و همکاری را تشویق می‌کند» اما همچنین حذف آسان محافظت‌ها و تولید محتوای صریح بدون نظارت را ممکن می‌سازد chicagoreader.com chicagoreader.com. همان‌طور که خواهیم دید، این تنش میان نوآوری و مقررات در پلتفرم‌های مختلف در حال رخ دادن است.

پلتفرم‌ها، اپلیکیشن‌ها و جوامعی که نیروی محرکه هوش مصنوعی NSFW هستند

یک اکوسیستم پرجنب‌وجوش (و گاهی سایه‌دار) از پلتفرم‌ها و جوامع آنلاین به وجود آمده است تا محتوای بزرگسال تولیدشده با هوش مصنوعی را خلق و به اشتراک بگذارد. از آنجا که شرکت‌های بزرگ فناوری اجازه انتشار محتوای صریح را در سرویس‌های هوش مصنوعی خود نمی‌دهند arnoldit.com blog.republiclabs.ai، رونق هوش مصنوعی NSFW توسط توسعه‌دهندگان مستقل، مدل‌های متن‌باز و استارتاپ‌های تخصصی هدایت شده است. در اینجا برخی از حوزه‌های کلیدی که هوش مصنوعی NSFW در آن‌ها زندگی می‌کند و رشد می‌یابد آورده شده است:
  • هاب‌های مدل متن‌باز: CivitAI – یک وب‌سایت جامعه‌محور محبوب – میزبان یک کتابخانه عظیم از مدل‌ها و تصاویر هوش مصنوعی ساخته‌شده توسط کاربران است، از جمله بسیاری که برای محتوای بزرگسال تخصصی شده‌اند chicagoreader.com. کاربران می‌توانند مدل‌های Stable Diffusion تنظیم‌شده برای هنتای، تصاویر برهنه واقع‌گرایانه، هنر فتیش و غیره را دانلود کنند و تصاویر تولیدشده خود را به اشتراک بگذارند. باز بودن سایت‌هایی مانند این، آن‌ها را به مقصد اصلی سازندگان هوش مصنوعی NSFW تبدیل کرده است. با این حال، این موضوع همچنین به معنای حداقل نظارت است؛ محتوا از هنر اروتیک هنری تا مواد پورنوگرافیک افراطی را شامل می‌شود. سایت‌های دیگری مانند Hugging Face نیز مدل‌های NSFW را (با هشدار) میزبانی کرده‌اند و انجمن‌هایی مانند 4chan یا GitHub نیز مدل‌های سانسورنشده “لو رفته” را به اشتراک گذاشته‌اند.
  • تولیدکننده‌ها و اپلیکیشن‌های تصویر NSFW: اکنون سرویس‌های مبتنی بر وب متعددی به تولید تصویر اروتیک با هوش مصنوعی تخصص دارند. برای مثال، پلتفرم‌هایی مانند Candy.ai، Arting.ai، Vondy، OurDream و دیگران (اغلب مبتنی بر اشتراک) به کاربران اجازه می‌دهند تصاویر سفارشی بزرگسال با محدودیت‌های نسبتاً کم تولید کنند chicagoreader.com chicagoreader.com. برخی رندرهای باکیفیت و طیف وسیعی از سبک‌ها – از فوتورئالیسم تا انیمه – را ارائه می‌دهند که برای سلیقه‌های مختلف جذاب است. بسیاری از این سرویس‌ها در سال‌های ۲۰۲۴–۲۰۲۵ ظاهر شدند و اغلب آزمایش رایگان یا توکن ارائه می‌دهند و بر سر اینکه چه کسی می‌تواند هنر NSFW واقع‌گرایانه یا خلاقانه‌تر تولید کند رقابت می‌کنند. بازاریابی آن‌ها بر شخصی‌سازی و حریم خصوصی تأکید دارد و به کاربران وعده می‌دهد که می‌توانند دقیقاً همان چیزی را که می‌خواهند “در محیطی امن و خصوصی، بدون محدودیت‌های محتوای از پیش فیلم‌برداری‌شده” خلق کنند globenewswire.com.
  • انجمن‌ها و جوامع پورن هوش مصنوعی: پیش از سرکوب‌های اخیر، وب‌سایت‌های اختصاصی پورن دیپ‌فیک، مراکز اصلی این فعالیت بودند. بدنام‌ترین آن‌ها Mr. Deepfakes بود که در سال ۲۰۱۸ تأسیس شد و به «بزرگ‌ترین و اصلی‌ترین بازار دیپ‌فیک پورن سلبریتی و همچنین اهداف غیرسلبریتی» تبدیل شد cbsnews.com. کاربران این سایت می‌توانستند ویدیوهای دیپ‌فیک صریح را بارگذاری و مشاهده کنند و حتی پورن غیرتوافقی سفارشی را با پرداخت هزینه سفارش دهند cbsnews.com. این سایت جامعه‌ای با انجمن‌هایی برای بحث درباره تکنیک‌ها و تبادل محتوا ایجاد کرده بود. با این حال، همان‌طور که بعداً توضیح خواهیم داد، Mr. Deepfakes در سال ۲۰۲۵ تعطیل شد پس از آنکه یک ارائه‌دهنده خدمات حیاتی خود را از دست داد cbsnews.com. در پی چنین سرکوب‌هایی، جامعه پورن دیپ‌فیک از بین نرفته است – بلکه پراکنده شده و مهاجرت کرده است. کارشناسان اشاره می‌کنند که تعطیلی یک سایت بزرگ «جامعه کاربران را پراکنده می‌کند و احتمالاً آن‌ها را به سمت پلتفرم‌های کمتر جریان اصلی مانند تلگرام» برای تبادل محتوا سوق می‌دهد cbsnews.com. در واقع، اپلیکیشن‌های رمزگذاری‌شده و انجمن‌های خاص، خانه جدید بسیاری از علاقه‌مندان NSFW هوش مصنوعی هستند که از پلتفرم‌های بزرگ‌تر رانده شده‌اند.
  • خدمات «دوست‌دختر» و همراه مبتنی بر هوش مصنوعی: موجی از استارتاپ‌ها در حال ترکیب تولید محتوای اروتیک با همراهی تعاملی هستند. یک نمونه قابل توجه Oh (مستقر در لندن) است که خود را به عنوان سازنده «OnlyFans هوش مصنوعی» معرفی می‌کند – یک پلتفرم همراه اروتیک که کاربران در آن از طریق متن، صدا و تصویر با مدل‌های مجازی تولیدشده توسط هوش مصنوعی تعامل دارند sifted.eu sifted.eu. Oh در اوایل سال ۲۰۲۵ مبلغ ۴.۵ میلیون دلار برای ساخت «بات‌های نیمه‌برهنه خودمختار» جمع‌آوری کرد که حتی می‌توانند به طور فعالانه با پیام‌های معاشقه‌آمیز به کاربران پیام دهند sifted.eu sifted.eu. در سایت آن، کاربران پروفایل‌هایی از بات‌های هوش مصنوعی نیمه‌برهنه را می‌بینند – عمدتاً شخصیت‌های زن خیالی، اگرچه برخی «دوقلوهای دیجیتال» از خالقان واقعی محتوای بزرگسال هستند که تصویر خود را مجوز داده‌اند (و سهمی از درآمد می‌گیرند) sifted.eu. کاربران می‌توانند با این بات‌ها چت کنند و پیام‌های متنی سکسی، تصاویر برهنه تولیدشده توسط هوش مصنوعی و حتی یادداشت‌های صوتی تولیدشده با صدای شبیه‌سازی‌شده دریافت کنند sifted.eu. تعدادی سرویس مشابه در حدود سال‌های ۲۰۲۳ تا ۲۰۲۴ ظاهر شدند: DreamGF, Kupid AI, FantasyGF, Candy.ai و غیره، که نشان‌دهنده روند همراهان چت بزرگسال مبتنی بر هوش مصنوعی است sifted.eu. جذابیت این خدمات، تعامل اروتیک کاملاً قابل شخصی‌سازی و ۲۴ ساعته است – در اصل یک دختر یا پسر مجازی وب‌کم مبتنی بر الگوریتم‌ها.
  • سکوهای بزرگسالان تثبیت‌شده که در حال تطبیق هستند: پلتفرم‌های سنتی محتوای بزرگسالان نیز از موج هوش مصنوعی بی‌نصیب نمانده‌اند. OnlyFans، سرویس محبوب اشتراک‌گذاری سازندگان، با هجوم محتوای بزرگسالانه تولیدشده توسط هوش مصنوعی دست‌وپنجه نرم می‌کند. طبق سیاست، OnlyFans تصاویر تولیدشده با هوش مصنوعی را تنها در صورتی مجاز می‌داند که خود سازنده تأییدشده در آن حضور داشته باشد و به‌وضوح به‌عنوان محتوای هوش مصنوعی برچسب‌گذاری شده باشد reddit.com. استفاده از هوش مصنوعی برای جعل هویت دیگران یا خودکارسازی چت با طرفداران ممنوع است reddit.com. با این حال، گزارش‌هایی از حساب‌هایی وجود داشته که بسته‌هایی از تصاویر برهنه آشکارا تولیدشده با هوش مصنوعی (با نشانه‌هایی مانند دست‌های عجیب یا «چشم‌های بی‌روح» در هر تصویر) را به مشترکین بی‌خبر می‌فروشند reddit.com. برخی از سازندگان انسانی خشمگین هستند و می‌ترسند مدل‌های جعلی هوش مصنوعی بتوانند پلتفرم را پر کنند و به درآمدشان آسیب بزنند reddit.com uniladtech.com. یکی از کارگران جنسی اظهار تأسف کرد که هوش مصنوعی «تلاش، خلاقیت و دردسر» واقعی سازندگان را از بین می‌برد و آن را «بی‌احترامی به طرفدارانم» خواند و نگران بود که این موضوع انتظارات غیرواقعی از رابطه جنسی را بدتر کند reddit.com reddit.com. از سوی دیگر، برخی از سازندگان بزرگسال باهوش در حال استفاده از ابزارهای هوش مصنوعی هستند – با استفاده از تولیدکننده‌های تصویر برای بهبود یا افزایش محتوای خود، یا اعطای مجوز چهره خود به شرکت‌هایی مانند Oh برای درآمد اضافی sifted.eu. صنعت محتوای بزرگسالان به طور کلی (استودیوهای پورن، سایت‌های کم، و غیره) با احتیاط در حال آزمایش هوش مصنوعی برای تولید محتوا است، اما همچنین با نگرانی به آن به عنوان یک نیروی مخرب نگاه می‌کند که می‌تواند باعث هجوم محتوای صریح تولیدشده توسط کاربران خارج از حوزه حرفه‌ای شود. تحلیلگران صنعت پیش‌بینی می‌کنند که محتوای بزرگسالانه مبتنی بر هوش مصنوعی می‌تواند تا بیش از ۳۰٪ از مصرف پورن آنلاین تا سال ۲۰۲۷ را تشکیل دهد اگر روند فعلی ادامه یابد globenewswire.com، که نشانه‌ای از سرعت رشد این فناوری است.
جامعه هوش مصنوعی NSFW بسیار پویا و متنوع است، از هنرمندان علاقه‌مند که به عنوان «کاوش خلاقانه و شخصی» به اروس هوش مصنوعی می‌پردازند تا حلقه‌های دیپ‌فیک افراطی که تصاویر برهنه جعلی مخرب تولید می‌کنند chicagoreader.com. پلتفرم‌ها و ابزارهای جدید تقریباً هر هفته ظاهر می‌شوند و هرکدام تعادل متفاوتی از آزادی در مقابل محدودیت‌ها را ارائه می‌دهند. همانطور که یک بررسی در سال ۲۰۲۵ بیان کرد، «دنیای تولیدکننده‌های NSFW هوش مصنوعی وسیع و پرشتاب است»، برخی پلتفرم‌ها بر تصاویر فوق‌واقع‌گرایانه تمرکز دارند، برخی دیگر بر داستان‌سرایی تعاملی، و هرکدام منطقه خاکستری اخلاقی خاص خود را اشغال می‌کنند grey area chicagoreader.com. آنچه آن‌ها را متحد می‌کند، وعده محتوای بزرگسالان کاملاً شخصی‌سازی‌شده و در لحظه است – و خطراتی که با داشتن چنین قدرتی همراه است.

۲۰۲۵: سیل پورن هوش مصنوعی و شکل‌گیری واکنش منفی

تا اواسط ۲۰۲۵، NSFW AI به نقطه عطفی رسیده بود. از یک سو، محتوا بیش از هر زمان دیگری گسترده و قانع‌کننده شده بود؛ از سوی دیگر، نگرانی عمومی و نظارت‌های قانونی به اوج جدیدی رسید. تحولات اخیر شامل موارد سوءاستفاده پر سر و صدا، واکنش‌های سریع قانون‌گذاران و حتی خودنظارتی در صنعت فناوری است. در ادامه برخی از اخبار و روندهای مهم سال‌های ۲۰۲۴ تا ۲۰۲۵ پیرامون پورن تولیدشده با هوش مصنوعی را مرور می‌کنیم:

جنجال‌ها و رسوایی‌های دیپ‌فیک غیررضایتی

شاید هیچ چیز به اندازه افزایش پورنوگرافی دیپ‌فیک غیررضایتمندانه باعث داغ شدن بحث هوش مصنوعی NSFW نشده است – استفاده از هوش مصنوعی برای اینکه به نظر برسد کسی (معمولاً یک زن) برهنه یا در صحنه‌های جنسی ظاهر شده که هرگز انجام نداده است. این کار با افراد مشهور شروع شد اما به طور فزاینده‌ای افراد عادی را هدف قرار داده است، اغلب به عنوان نوعی آزار یا «پورن انتقامی». تا سال ۲۰۲۳، این پدیده به طرز نگران‌کننده‌ای فراگیر و در دسترس شده بود: گزارش‌های تحقیقی نشان دادند که هر کسی می‌تواند به راحتی وب‌سایت‌های پورن دیپ‌فیک را از طریق گوگل پیدا کند، به یک دیسکورد بپیوندد تا درخواست دیپ‌فیک سفارشی بدهد و حتی با کارت اعتباری پرداخت کند – یک اقتصاد زیرزمینی پررونق با «سازندگانی» که به طور آشکار خدمات خود را تبلیغ می‌کنند theguardian.com theguardian.com. مطالعات به طور مداوم نشان داده‌اند که قربانیان اصلی این روند زنان و دختران هستند. یک گزارش مهم از شرکت Sensity (فعال در حوزه ایمنی هوش مصنوعی) نشان داد که ۹۵ تا ۹۶ درصد دیپ‌فیک‌های آنلاین، تصاویر جنسی غیررضایتمندانه هستند که تقریباً همه آن‌ها زنان را نشان می‌دهند theguardian.com. افراد مشهوری مانند بازیگر تیلور سوئیفت تا شخصیت‌های آنلاین، تصاویر برهنه جعلی‌شان در شبکه‌های اجتماعی وایرال شده است klobuchar.senate.gov. حتی نگران‌کننده‌تر اینکه، افراد عادی و کودکان و نوجوانان نیز هدف قرار گرفته‌اند: برای مثال، یک دختر ۱۴ ساله متوجه شد که همکلاسی‌هایش با یک اپلیکیشن، تصاویر پورن جعلی از او ساخته و در اسنپ‌چت به اشتراک گذاشته‌اند klobuchar.senate.gov.یک حادثه برجسته در ژانویه ۲۰۲۳ رخ داد، زمانی که یک استریمر بازی‌های ویدیویی در توییچ با یک تب مرورگر باز به یک سایت پورن دیپ‌فیک که همکاران زن او را نشان می‌داد، دیده شد. این استریمر با گریه عذرخواهی کرد، اما یکی از زنان، استریمر توییچ QTCinderella، واکنشی احساسی نشان داد: «این همان چیزی است که احساس نقض شدن به نظر می‌رسد… دیدن عکس‌هایی از من به صورت ‘برهنه’ که بدون رضایت من پخش می‌شود» theguardian.com. او تأکید کرد که چقدر ناعادلانه است که به عنوان یک زن در معرض دید عموم، اکنون باید وقت و پول صرف کند تا تصاویر جنسی جعلی خود را از اینترنت حذف کند theguardian.com theguardian.com. درخواست او – «نباید بخشی از شغل من باشد که اینگونه مورد آزار قرار بگیرم» – بازتاب گسترده‌ای یافت و توجه رسانه‌های اصلی را به پورن دیپ‌فیک به عنوان شکلی جدی از سوءاستفاده جلب کرد.

از آن زمان، چنین مواردی فقط افزایش یافته‌اند. در سال ۲۰۲۴، دانش‌آموزان در چندین کشور هم به عنوان مرتکب و هم قربانی تعویض برهنگی با هوش مصنوعی شناخته شدند. در استرالیا، یک جامعه مدرسه‌ای با تصاویر جعلی صریح از چند دانش‌آموز دختر که بدون رضایت آن‌ها تولید و به اشتراک گذاشته شده بود، شوکه شد و این موضوع باعث تحقیقات پلیس و خشم عمومی شد theguardian.com. در هنگ‌کنگ در سال ۲۰۲۵، یک دانشجوی حقوق در دانشگاه معتبر هنگ‌کنگ ظاهراً تصاویر پورن هوش مصنوعی از دست‌کم ۲۰ همکلاسی و معلم زن خود ایجاد کرد و زمانی که مجازات اولیه دانشگاه فقط یک نامه هشدار بود، این موضوع به یک رسوایی تبدیل شد cbsnews.com cbsnews.com. مقامات هنگ‌کنگ اشاره کردند که طبق قانون فعلی، تنها توزیع چنین تصاویری جرم محسوب می‌شود، نه صرفاً ایجاد آن‌ها، که اگر مرتکب تصاویر جعلی را به طور عمومی به اشتراک نگذاشته باشد، یک خلأ قانونی باقی می‌ماند cbsnews.com. گروه‌های حقوق زنان این شهر را به عنوان «عقب‌مانده» در زمینه حمایت‌ها محکوم کردند و کمیسر حریم خصوصی هنگ‌کنگ با استناد به احتمال قصد آسیب، با این حال تحقیقات کیفری را آغاز کرد cbsnews.com cbsnews.com. این پرونده نشان داد که هر کسی می‌تواند هدف قرار گیرد و قوانین موجود اغلب برای همگام شدن با این پدیده دچار مشکل هستند.

در میان این سوءاستفاده‌ها، قربانیان از آسیب‌های شدید عاطفی و حیثیتی سخن می‌گویند. به تصویر کشیده شدن در یک صحنه جنسی جعلی فوق‌واقع‌گرایانه عمیقاً آسیب‌زا است، حتی اگر از نظر منطقی بدانید که جعلی است. «دیدن صورتم… حس عجیبی داشت. انگار درونشان مرده بود»، این را یک دانشجوی دانشگاه گفت که ویدیوهای تولیدشده با هوش مصنوعی از خودش را در یک سایت پورن پیدا کرد (که توسط یک همکلاسی ناراضی بارگذاری شده بود) centeraipolicy.org. قربانیان احساس ناتوانی می‌کنند، نه فقط به این دلیل که هرگز با چنین تصاویری موافقت نکرده‌اند، بلکه چون حذف آن‌ها بسیار دشوار است. همان‌طور که یک روزنامه‌نگار نوشت، «پورن دیپ‌فیک غیرتوافقی یک وضعیت اضطراری است که زندگی‌ها را نابود می‌کند.» این موضوع زنان را مجبور می‌کند در حالت پارانویا زندگی کنند، مدام نگران باشند چه کسی این تصاویر جعلی را دیده، و انرژی‌شان را صرف یک «بازی کابوس‌وار موش و چکش» برای پاک کردن محتوا از وب کنند theguardian.com klobuchar.senate.gov. فعالان این موضوع را به نوعی تروریسم جنسی سایبری تشبیه کرده‌اند که هدفش ساکت کردن و ترساندن زنان است theguardian.com.

حتی پلتفرم‌های اصلی شبکه‌های اجتماعی نیز ناخواسته در تسهیل گسترش محتوای صریح هوش مصنوعی نقش داشته‌اند. اوایل سال ۲۰۲۴، تصاویر دیپ‌فیک صریح از تیلور سوئیفت آن‌قدر در ایکس (توییتر سابق) پخش شد – و میلیون‌ها بازدید گرفت – که این پلتفرم موقتاً نتایج جستجو برای نام او را مسدود کرد تا جلوی موج را بگیرد cbsnews.com. مشخص شد متا (فیسبوک/اینستاگرام) در سال ۲۰۲۴ صدها تبلیغ برای اپلیکیشن‌های «برهنه‌ساز» (ابزارهایی که تصاویر زنان را با هوش مصنوعی به‌صورت دیجیتال برهنه می‌کنند) نمایش داده، با وجود اینکه چنین تبلیغاتی خلاف سیاست است. پس از تحقیقات CBS News، متا بسیاری از این تبلیغات را حذف کرد و پذیرفت که آن‌ها از بررسی عبور کرده‌اند cbsnews.com. وجود چنین تبلیغاتی نشان می‌دهد که اپلیکیشن‌های «برهنه‌سازی» هوش مصنوعی چقدر عادی و در دسترس شده‌اند، حتی در شبکه‌های تبلیغاتی معتبر cbsnews.com.

ممنوعیت‌های پلتفرمی و خودتنظیمی صنعت

در مواجهه با فشار عمومی، برخی از پلتفرم‌ها و ارائه‌دهندگان خدمات فناوری در سال گذشته اقداماتی برای مهار محتوای NSFW تولیدشده توسط هوش مصنوعی انجام دادند. یکی از تحولات قابل توجه، تعطیلی Mr. Deepfakes در ماه مه ۲۰۲۵ بود که پیش‌تر به آن اشاره شد. این سایت اعلام کرد که پس از آنکه «یک ارائه‌دهنده خدمات حیاتی حمایت خود را قطع کرد»، تعطیل می‌شود، که عملاً سایت را از دسترس خارج کرد cbsnews.com. اگرچه تأیید نشده است، اما این موضوع نشان می‌دهد که یک ارائه‌دهنده زیرساخت یا میزبانی (احتمالاً یک سرویس ابری، ثبت‌کننده دامنه یا سرویس محافظت در برابر حملات DDoS) تصمیم گرفته است به دلیل ریسک‌های قانونی یا اعتباری، همکاری خود را قطع کند. این اتفاق تنها چند روز پس از تصویب یک قانون مهم ضد دیپ‌فیک توسط کنگره آمریکا رخ داد (که در ادامه به آن پرداخته می‌شود) و بسیاری آن را بخشی از سرکوب گسترده‌تر دانستند cbsnews.com. هنری اجدر، کارشناس شناخته‌شده دیپ‌فیک، تعطیلی این سایت را به منزله از هم پاشیدن «گره مرکزی» یک شبکه بزرگ سوءاستفاده جشن گرفت cbsnews.com. او گفت: «این لحظه‌ای برای جشن گرفتن است»، اما هشدار داد که مشکل تصاویر دیپ‌فیک غیررضایتمندانه «از بین نخواهد رفت» – این مشکل پراکنده خواهد شد اما احتمالاً هرگز دوباره چنین جایگاه برجسته‌ای پیدا نخواهد کرد cbsnews.com. در واقع، اجدر اشاره کرد که این جوامع مکان‌های جدیدی پیدا خواهند کرد اما «هرگز به بزرگی و برجستگی» داشتن یک سایت اصلی نخواهند بود، که این پیشرفتی «حیاتی» است cbsnews.com.شرکت‌های بزرگ فناوری نیز شروع به پرداختن به جنبه ابزارها و تبلیغات کرده‌اند. در ماه مه ۲۰۲۴، گوگل سیاست‌های خود را به‌روزرسانی کرد تا تبلیغات برای پلتفرم‌هایی که پورن دیپ‌فیک تولید می‌کنند یا آموزش‌هایی درباره نحوه ساخت آن ارائه می‌دهند را ممنوع کند arnoldit.com. اقدام گوگل که از پایان ماه مه ۲۰۲۴ اجرایی شد، تلاشی بود برای جلوگیری از ترویج این خدمات از طریق تبلیغات گوگل. (گوگل پیش‌تر استفاده از پلتفرم Colab خود را برای آموزش مدل‌های دیپ‌فیک ممنوع کرده بود و حتی در سال ۲۰۱۸، سایت‌هایی مانند ردیت و پورن‌هاب به طور رسمی پورن غیرتوافقی تولیدشده با هوش مصنوعی را ممنوع کرده بودند arnoldit.com.) این اقدام به عنوان آماده‌سازی گوگل برای شرایط بدتر مطرح شد: «اگر پورن دیپ‌فیک در سال ۲۰۱۸ ضعیف به نظر می‌رسید، حالا قطعاً بسیار واقعی‌تر به نظر خواهد رسید»، گزارشی از ExtremeTech اشاره کرد و نیاز به قوانین سخت‌گیرانه‌تر تبلیغاتی را توجیه کرد arnoldit.com. شرکت‌های شبکه‌های اجتماعی نیز به طور مشابه در حال به‌روزرسانی سیاست‌های مدیریت محتوا هستند – برای مثال، پورن‌هاب و سایت‌های بزرگ بزرگسالان در سال ۲۰۱۸ متعهد شدند دیپ‌فیک‌ها را ممنوع کنند (به عنوان پورن غیرتوافقی)، و در اروپا، قوانین جدید در سال‌های ۲۰۲۴–۲۵ سایت‌های پورن را مجبور می‌کند تا فعالانه «با محتوای مضر مقابله کنند» وگرنه با جریمه مواجه خواهند شد subscriber.politicopro.com. به عنوان بخشی از تلاش گسترده‌تر برای ایمنی، مالک پورن‌هاب حتی به طور موقت خدمات خود را در برخی مناطق (مانند فرانسه و برخی ایالت‌های آمریکا) به دلیل نگرانی‌های مربوط به رعایت قوانین جدید متوقف کرد subscriber.politicopro.com، که نشان می‌دهد پلتفرم‌های بزرگسالان مجبور شده‌اند موضوع ایمنی محتوا را جدی بگیرند یا دسترسی را قطع کنند.شرکت‌های اصلی هوش مصنوعی همچنان خود را از کاربردهای NSFW دور نگه می‌دارند. مدل تصویر DALL·E و سرویس ChatGPT متعلق به OpenAI فیلترهای سختگیرانه‌ای علیه محتوای جنسی دارند. Midjourney (یک تولیدکننده تصویر هوش مصنوعی محبوب) نه تنها درخواست‌های پورنوگرافیک را ممنوع کرده، بلکه مدیریت خودکار که زمینه را تشخیص می‌دهد را پیاده‌سازی کرده است تا از درخواست‌های NSFW پنهانی جلوگیری کند arxiv.org. زمانی که فیلترهای یک مدل با استفاده از واژه‌پردازی هوشمندانه شکست می‌خورند، این اتفاقات عمومی می‌شوند و توسعه‌دهندگان محدودیت‌ها را سخت‌تر می‌کنند (یک بازی همیشگی موش و گربه). از سوی دیگر، تازه‌واردها گاهی نبود سانسور را به عنوان یک مزیت تبلیغ می‌کنند: برای مثال، مدل جدید Stable Diffusion XL شرکت Stability AI از نظر فنی می‌تواند تصاویر NSFW تولید کند اگر به صورت محلی و بدون فیلتر ایمنی اجرا شود، و برخی شرکت‌های کوچک‌تر به طور آشکار “محدودیت کمتر بر محتوای NSFW نسبت به رقبا” را تبلیغ می‌کنند latenode.com. این موضوع شکاف موجود در صنعت هوش مصنوعی را نشان می‌دهد: بازیگران بزرگ جانب احتیاط و ایمنی برند را می‌گیرند، در حالی که پروژه‌های کوچک‌تر یا متن‌باز به تقاضا برای هوش مصنوعی مولد بدون سانسور – از جمله پورن – پاسخ می‌دهند.

تحولات عمده حقوقی و مقرراتی (۲۰۲۴–۲۰۲۵)

شاید مهم‌ترین تحولات از سوی قانون‌گذاران در واکنش به خطرات پورن هوش مصنوعی رخ داده باشد. در سراسر جهان، دولت‌ها شروع به تصویب قوانینی برای مجازات دیپ‌فیک‌های غیررضایتی، حمایت از قربانیان و حتی تنظیم خود ابزارهای هوش مصنوعی کرده‌اند. در اینجا مروری بر اقدامات مهم آمده است:

    ایالات متحده – قانون Take It Down (۲۰۲۵): در آوریل ۲۰۲۵، کنگره آمریکا با اکثریت قاطع قانون دوحزبی «Take It Down» را تصویب کرد، که اولین قانون فدرال است که مستقیماً به تصاویر صمیمی تولیدشده توسط هوش مصنوعی می‌پردازد klobuchar.senate.gov. این قانون ایجاد یا به اشتراک‌گذاری تصاویر صمیمی غیررضایتمندانه (واقعی یا تولیدشده توسط هوش مصنوعی) از یک فرد را به عنوان جرم فدرال تعیین می‌کند. نکته مهم این است که پلتفرم‌های آنلاین را ملزم می‌کند تا این نوع محتوا را ظرف ۴۸ ساعت پس از گزارش قربانی حذف کنند klobuchar.senate.gov. این قانون – که توسط بانوی اول ملانیا ترامپ حمایت شد و سناتورهایی از هر دو حزب آن را تدوین کردند – در ماه مه ۲۰۲۵ توسط رئیس‌جمهور دونالد ترامپ امضا شد klobuchar.senate.gov. این قانون به عنوان اولین قانون مهم اینترنتی در دوره دوم ترامپ و پاسخی مستقیم به «مشکل رو به رشد [پورن غیررضایتمندانه]» تلقی می‌شود klobuchar.senate.gov. مدافعان حقوق قربانیان آن را اقدامی دیرهنگام اما ضروری دانستند. سناتور ایمی کلوبوچار گفت: «دیپ‌فیک‌ها فرصت‌های وحشتناکی برای سوءاستفاده ایجاد می‌کنند»، و افزود که اکنون قربانیان می‌توانند مطالب را حذف کرده و عاملان را پاسخگو کنند klobuchar.senate.gov. قابل توجه است که شرکت‌های بزرگ فناوری مانند متا، گوگل و اسنپ از این قانون حمایت کردند – نشانه‌ای از اجماع بر اینکه باید اقدامی صورت می‌گرفت klobuchar.senate.gov. این قانون مجازات‌هایی از جمله جریمه و تا ۲ سال زندان برای متخلفان دارد cbsnews.com. همچنین به قربانیان اجازه می‌دهد تا از سازندگان/توزیع‌کنندگان برای دریافت خسارت شکایت کنند و اقدامات مدنی را تقویت می‌کند. گروه‌های مدافع آزادی بیان و حریم خصوصی درباره احتمال سوءاستفاده از این قانون هشدار داده‌اند – برای مثال، لیا هولند از Fight for the Future آن را «با نیت خوب اما ضعیف تدوین‌شده» خواند و ابراز نگرانی کرد که افراد بدخواه ممکن است از درخواست‌های حذف برای سانسور محتوای مشروع سوءاستفاده کنند klobuchar.senate.gov. با این حال، قانون Take It Down اکنون اجرایی شده و اولین گام واقعی دولت فدرال آمریکا برای مقابله با بهره‌کشی جنسی مبتنی بر هوش مصنوعی در مقیاس وسیع به شمار می‌رود.
  • ایالت‌های آمریکا: حتی پیش از اقدام فدرال، چندین ایالت آمریکا قوانین خود را تصویب کردند. کالیفرنیا، تگزاس، ویرجینیا، نیویورک و سایر ایالت‌ها در سال‌های ۲۰۱۹ تا ۲۰۲۳ قوانینی را تصویب کردند که ساخت یا توزیع پورن دیپ‌فیک بدون رضایت را غیرقانونی می‌کند (که اغلب تحت قوانین پورن انتقامی یا جعل هویت جنسی دسته‌بندی می‌شود). در سال ۲۰۲۵، ایالت‌ها به اصلاح قوانین ادامه دادند. برای مثال، تنسی «قانون جلوگیری از تصاویر دیپ‌فیک» را معرفی کرد که از اول ژوئیه ۲۰۲۵ اجرایی می‌شود و باعث ایجاد دعاوی حقوقی و کیفری برای هر کسی می‌شود که تصویر صمیمی فردی را بدون رضایت او استفاده کند wsmv.com wsmv.com. این اقدام پس از آن صورت گرفت که یک هواشناس تلویزیونی محلی متوجه شد تصاویر برهنه جعلی از او به طور گسترده‌ای در اینترنت پخش شده و او درباره تأثیرات این موضوع بر خود و خانواده‌اش شهادت داد wsmv.com. تنسی همچنین قانونی را تصویب کرد که خود ابزارهای پورن کودک با هوش مصنوعی را جرم‌انگاری می‌کند – یعنی داشتن، توزیع یا تولید آگاهانه نرم‌افزاری که برای ساخت محتوای سوءاستفاده جنسی از کودکان با هوش مصنوعی طراحی شده، جرم سنگینی محسوب می‌شود wsmv.com. این قانون وحشت پورنوگرافی کودک با هوش مصنوعی را به رسمیت می‌شناسد و تلاش می‌کند با هدف قرار دادن خود فناوری، از آن پیشگیری کند (داشتن چنین ابزاری در تنسی اکنون جرم درجه E و تولید آن جرم درجه B محسوب می‌شود) wsmv.com.
  • اروپا – اقدامات سراسری اتحادیه اروپا: اتحادیه اروپا رویکردی دوگانه اتخاذ کرده است: مقررات کلی برای هوش مصنوعی و دستورالعمل‌های کیفری خاص. قانون هوش مصنوعی اتحادیه اروپا که انتظار می‌رود در سال ۲۰۲۴/۲۰۲۵ نهایی شود، ملزم می‌کند که محتوای تولیدشده توسط هوش مصنوعی مولد، الزامات شفافیت را رعایت کند. دیپ‌فیک‌ها که به عنوان هوش مصنوعی با «ریسک محدود» طبقه‌بندی می‌شوند، به طور کامل ممنوع نخواهند شد اما باید به وضوح برچسب‌گذاری شوند که توسط هوش مصنوعی تولید شده‌اند (مثلاً با واترمارک یا هشدار)، و شرکت‌ها باید جزئیات داده‌های آموزشی خود را افشا کنند euronews.com euronews.com. عدم رعایت این مقررات می‌تواند منجر به جریمه‌هایی تا ۱۵ میلیون یورو یا بیشتر شود euronews.com. علاوه بر این، اتحادیه اروپا یک دستورالعمل مقابله با خشونت علیه زنان را تصویب کرده که به طور صریح ایجاد یا اشتراک‌گذاری دیپ‌فیک‌های جنسی بدون رضایت را جرم‌انگاری می‌کند euronews.com. این دستورالعمل کشورهای عضو اتحادیه اروپا را ملزم می‌کند که این رفتار را تا سال ۲۰۲۷ غیرقانونی اعلام کنند (مجازات دقیق به عهده هر کشور است) euronews.com euronews.com. این بدان معناست که در سراسر اروپا، ساخت تصویر پورنو جعلی از کسی بدون رضایت، جرم محسوب خواهد شد و با نحوه برخورد با انتقام‌جویی پورنو واقعی هماهنگ می‌شود.
  • فرانسه: فرانسه در سال ۲۰۲۴ با افزودن ماده‌ای جدید به قانون کیفری خود، به طور جدی وارد عمل شد. اکنون در فرانسه به اشتراک‌گذاری هرگونه تصویر یا صدای تولیدشده توسط هوش مصنوعی از یک فرد بدون رضایت او غیرقانونی است euronews.com. اگر این کار از طریق یک سرویس آنلاین انجام شود، مجازات‌ها افزایش می‌یابد (تا ۲ سال زندان و ۴۵ هزار یورو جریمه) euronews.com. نکته مهم اینکه فرانسه به طور خاص ساخت دیپ‌فیک‌های پورنوگرافیک را به طور کامل ممنوع کرده است، حتی اگر کسی سعی کند آن‌ها را به عنوان جعلی برچسب بزند euronews.com. بنابراین در فرانسه، ساخت یا توزیع دیپ‌فیک جنسی تا ۳ سال زندان و ۷۵ هزار یورو جریمه دارد euronews.com. قانون فرانسه همچنین به نهاد تنظیم‌گر دیجیتال خود، ARCOM، اختیار می‌دهد تا پلتفرم‌ها را مجبور به حذف چنین محتوایی و بهبود سامانه‌های گزارش‌دهی کند euronews.com.
  • بریتانیا: بریتانیا نیز در سال‌های ۲۰۲۳–۲۰۲۴ قوانین را به‌روزرسانی کرد. اصلاحات در قانون جرایم جنسی باعث می‌شود ساخت دیپ‌فیک جنسی بدون رضایت، تا ۲ سال زندان داشته باشد euronews.com euronews.com. به طور جداگانه، قانون ایمنی آنلاین ۲۰۲۳ (یک مقررات گسترده اینترنتی) به طور صریح اشتراک‌گذاری یا تهدید به اشتراک‌گذاری تصاویر جنسی غیررضایتی (از جمله دیپ‌فیک‌ها) را در شبکه‌های اجتماعی غیرقانونی می‌کند و پلتفرم‌ها را ملزم می‌کند تا «به طور فعال حذف کنند» چنین محتوایی را یا از ظاهر شدن آن جلوگیری کنند euronews.com. اگر پلتفرم‌ها موفق نشوند، با جریمه‌هایی تا ۱۰٪ از درآمد جهانی مواجه می‌شوند – که انگیزه بزرگی برای رعایت است euronews.com. با این حال، برخی کارشناسان اشاره می‌کنند که بریتانیا هنوز ساخت دیپ‌فیکی که به اشتراک گذاشته نمی‌شود را جرم‌انگاری نکرده است، که این خلأ قربانیان را آسیب‌پذیر می‌گذارد اگر تصاویر به صورت خصوصی نگه داشته شوند (مشابه سناریوی هنگ‌کنگ) euronews.com. درخواست‌هایی وجود دارد که بریتانیا حتی توسعه و توزیع ابزارهای دیپ‌فیک را نیز جرم‌انگاری کند euronews.com.
  • دانمارک: در ژوئن ۲۰۲۵، پارلمان دانمارک با تصویب قانونی پیشگامانه موافقت کرد تا به افراد حق کپی‌رایت بر چهره خودشان بدهد – به بیان ساده، چهره شما را به “مالکیت فکری” شما تبدیل می‌کند تا با دیپ‌فیک‌ها مقابله شود euronews.com. این قانون ساخت یا اشتراک‌گذاری “تقلیدهای دیجیتال” از ویژگی‌های یک فرد بدون رضایت او را غیرقانونی می‌کند euronews.com. وزیر فرهنگ دانمارک گفت: “شما حق دارید بر بدن خود، صدای خود و ویژگی‌های چهره خود مالکیت داشته باشید”، و این قانون را هم به عنوان محافظتی در برابر اطلاعات نادرست و سوءاستفاده جنسی معرفی کرد euronews.com. اگرچه جزئیات هنوز اعلام نشده، اما این قانون نشان می‌دهد دانمارک ساخت دیپ‌فیک از شما را به عنوان نقض “حقوق شباهت” شما تلقی خواهد کرد، مشابه نقض کپی‌رایت، که می‌تواند روند حذف و پیگیری قانونی را بسیار ساده‌تر کند.
  • کره جنوبی: کره جنوبی یکی از اولین کشورهایی بود که به شدت تحت تأثیر پورن دیپ‌فیک قرار گرفت (با توجه به مشکلاتش با جرایم جنسی دیجیتال در سال‌های اخیر). تا سال ۲۰۲۱، کره جنوبی ساخت یا اشتراک‌گذاری دیپ‌فیک‌های جنسی را غیرقانونی اعلام کرد؛ در اواخر ۲۰۲۴، حتی داشتن یا تماشای چنین محتوایی را نیز جرم‌انگاری کرد. لایحه‌ای که در سپتامبر ۲۰۲۴ تصویب شد (و توسط رئیس‌جمهور یون در ۲۰۲۴/۲۵ امضا شد) خرید، داشتن یا تماشای تصاویر/ویدیوهای دیپ‌فیک جنسی را غیرقانونی کرد و متخلفان تا ۳ سال زندان تهدید می‌شوند cbsnews.com cbsnews.com. ساخت/توزیع قبلاً غیرقانونی بود (بیش از ۵ سال زندان) و اگر قانون جدید امضا می‌شد، این مجازات به ۷ سال افزایش می‌یافت cbsnews.com. این رویکرد سختگیرانه به این دلیل است که این دیپ‌فیک‌ها اغلب در میان جوانان رد و بدل می‌شدند؛ در واقع، در سال ۲۰۲۴ پلیس کره گزارش داد که ۳۸۷ دستگیری مرتبط با محتوای جنسی دیپ‌فیک فقط در نیمه اول سال انجام شده است – ۸۰٪ از دستگیرشدگان نوجوان بودند cbsnews.com. این مشکل در میان نوجوانان (ساخت دیپ‌فیک از همکلاسی‌ها، معلمان و غیره) آن‌قدر شایع شده بود که کره آن را حتی در حد جستجوی چنین موادی یک جرم جدی تلقی می‌کند cbsnews.com cbsnews.com. فعالان در سئول با پلاکاردهایی با مضمون «تکرار جرایم جنسی دیپ‌فیک، دولت هم همدست است» تجمع کردند تا خواستار اقدامات سختگیرانه‌تر شوند cbsnews.com، و دولت با این اقدامات پاسخ داد.
  • چین: هر نوع پورنوگرافی در چین به شدت غیرقانونی است و این شامل پورن تولیدشده توسط هوش مصنوعی نیز می‌شود. علاوه بر این، چین در ژانویه ۲۰۲۳ مقررات پیشگامانه‌ای درباره فناوری «ترکیب عمیق» اجرا کرد که طبق آن هر رسانه تولید یا تغییر یافته توسط هوش مصنوعی که می‌تواند گمراه‌کننده باشد باید دارای برچسب یا واترمارک واضح باشد و استفاده از چنین فناوری‌هایی برای جعل هویت، کلاهبرداری یا به خطر انداختن امنیت ممنوع است oxfordmartin.ox.ac.uk afcea.org. اساساً، چین پیشاپیش دیپ‌فیک‌های بدون برچسب را ممنوع کرده و به مقامات قدرت گسترده‌ای برای مجازات سازندگان آن‌ها داده است. با توجه به ممنوعیت کامل محتوای مستهجن در چین، محتوای NSFW تولیدشده توسط هوش مصنوعی دو برابر ممنوع است – هرچند احتمالاً در محافل زیرزمینی وجود دارد، سانسورچیان چینی ابزارهای قانونی برای حذف و پیگرد فوری آن را دارند.

در سطح جهانی، روند مشخص است: تصاویر جنسی هوش مصنوعی بدون رضایت در حوزه‌های قضایی مختلف جرم‌انگاری می‌شود و پلتفرم‌ها موظف به کنترل آن هستند. تا اواخر ۲۰۲۵، چشم‌انداز حقوقی بسیار کمتر از دو سال قبل، زمانی که فقط چند ایالت آمریکا و کشورهایی مانند کره جنوبی چنین قوانینی داشتند، اجازه‌دهنده پورن دیپ‌فیک است. با این حال، اجرای قانون و آگاهی همچنان چالش‌برانگیز است. بسیاری از قربانیان هنوز نمی‌دانند که اکنون قانون از آن‌ها حمایت می‌کند و پلیس/دادستان‌ها اغلب برای تحقیق درباره مجرمان ناشناس آنلاین آمادگی کافی ندارند. قوانین نیز متفاوت است – برخی حتی تولید خصوصی را مجازات می‌کنند، برخی فقط در صورت توزیع. با این وجود، حرکت به سوی شناسایی سوءاستفاده جنسی تولیدشده توسط هوش مصنوعی به عنوان سوءاستفاده واقعی غیرقابل انکار است. همان‌طور که یک استاد حقوق آمریکایی اشاره کرد، این موج قانون‌گذاری قدرت را به دست قربانیان بازمی‌گرداند و این پیام را می‌دهد که «شما حتی در عصر هوش مصنوعی نیز بر تصویر و بدن خود حق دارید» euronews.com.

باتلاق اخلاقی: رضایت، دیپ‌فیک‌ها و تأثیر اجتماعی

فراتر از حوزه حقوقی، محتوای NSFW تولیدشده توسط هوش مصنوعی سوالات عمیق اخلاقی و اجتماعی را مطرح می‌کند. در مرکز این بحث، مسئله رضایت قرار دارد – آیا محتوای صریح می‌تواند اخلاقی باشد اگر بدون رضایت (یا حتی آگاهی) افراد به تصویر کشیده شده تولید شود؟ اکثر افراد موافق‌اند که دیپ‌فیک‌های بدون رضایت یک خطای اخلاقی آشکار هستند و عملاً نوعی تعرض جنسی محسوب می‌شوند. اما این معضلات عمیق‌ترند: اگر پورنوگرافی تولیدشده توسط هوش مصنوعی با استفاده از تصاویر واقعی افراد با رضایت آن‌ها (مثلاً آموزش بر اساس ویدیوهای پورن تجاری) ساخته شود – آیا این «بدون قربانی» است یا بدون رضایت یا جبران بیشتر، از شباهت آن اجراکنندگان سوءاستفاده می‌کند؟ اگر پورن کاملاً تخیلی توسط هوش مصنوعی ساخته شود – بدون حضور هیچ فرد واقعی – آیا این بی‌ضرر است یا می‌تواند به عادی‌سازی فانتزی‌های خطرناک (مانند بهره‌کشی از کودکان یا سناریوهای تجاوز) منجر شود؟ و سوگیری‌های مدل‌های هوش مصنوعی در محتوای اروتیک چگونه بروز می‌کند؟

رضایت و حریم خصوصی: نگرانی فوری این است که مردم هیچ کنترلی یا رضایتی نسبت به نحوه استفاده هوش مصنوعی از چهره‌شان ندارند. هر کسی که تا به حال عکسی را به صورت آنلاین منتشر کرده (یا حتی کسانی که این کار را نکرده‌اند، اگر آشنایی عکسی از آن‌ها داشته باشد) به طور نظری در معرض خطر تبدیل شدن به چهره یک دیپ‌فیک پورن هستند. زنان، به ویژه آن‌هایی که در معرض دید عموم هستند، اکنون با واقعیتی هولناک زندگی می‌کنند: ممکن است صبح بیدار شوید و ببینید اینترنت «فکر می‌کند» عکس‌های برهنه یا فیلم‌های جنسی از شما دارد، به لطف هوش مصنوعی theguardian.com. این موضوع کرامت و حریم خصوصی اساسی فردی را نقض می‌کند. همان‌طور که قانون دانمارک بیان می‌کند، شما باید حق داشته باشید صاحب چهره و بدن خود باشید – اما فناوری و هنجارهای فعلی این را تضمین نمی‌کنند. اخلاق‌گرایان استدلال می‌کنند که حتی وجود همین دیپ‌فیک‌ها، حتی اگر به طور گسترده پخش نشوند، آسیب‌زا است – این بازنمایی یک عمل جنسی مربوط به شماست که بدون اجازه شما ساخته شده. این موضوع می‌تواند از نظر روانی شبیه به نوعی تعرض جنسی احساس شود. این واقعیت که «اینترنت برای همیشه باقی می‌ماند» به آسیب می‌افزاید: پس از پخش شدن، این تصاویر می‌توانند بارها دوباره ظاهر شوند و قربانیان را وادار به تجربه مجدد آسیب کنند. همه این عوامل، پورن هوش مصنوعی بدون رضایت را به یک تخلف جدی اخلاقی تبدیل می‌کند. جامعه شروع به برخورد با آن در سطح سایر جرایم جنسی از نظر ننگ و پیامدها کرده است، اما همان‌طور که گفته شد، قوانین هنوز در حال تطبیق هستند.

دیپ‌فیک‌ها و حقیقت: جنبه دیگر این است که دیپ‌فیک‌ها واقعیت را مخدوش می‌کنند. با واقعی‌تر شدن تصاویر پورن هوش مصنوعی، بینندگان ممکن است متوجه جعلی بودن آن‌ها نشوند و این موضوع بیشتر به اعتبار افراد آسیب می‌زند. یک ویدیوی جنسی جعلی می‌تواند باعث از دست رفتن شغل کسی، نابودی روابط یا استفاده برای اخاذی («سکستورتشن») شود. حتی اگر بعداً جعلی بودن آن ثابت شود، تحقیر و آسیب به اعتبار را نمی‌توان کاملاً جبران کرد. این موضوع مسئولیت اخلاقی سازندگان چنین دیپ‌فیک‌هایی را افزایش می‌دهد – آن‌ها با زندگی و معیشت واقعی مردم بازی می‌کنند. همچنین یک چالش اجتماعی را برجسته می‌کند: چگونه می‌توانیم اعتماد به رسانه‌ها را حفظ کنیم وقتی دیدن دیگر به معنای باور کردن نیست؟ برخی کارشناسان دیپ‌فیک‌ها را «حمله به حقیقت» می‌نامند که در زمینه پورن برای تحقیر و تنبیه زنان به کار می‌رود theguardian.com.

کودکان و CSAM تولیدشده توسط هوش مصنوعی: شاید موردی که بیشترین اجماع اخلاقی درباره آن وجود دارد، محتوای سوءاستفاده جنسی از کودکان (CSAM) تولیدشده توسط هوش مصنوعی است – یعنی تصاویری از کودکان در سناریوهای جنسی. حتی اگر در تولید این محتوا هیچ کودک واقعی آسیب ندیده باشد، تقریباً همه نهادهای قانون‌گذار و پلتفرم‌ها، پورنوگرافی کودکان تولیدشده توسط هوش مصنوعی را به همان اندازه غیرقانونی و مضر با CSAM واقعی تلقی می‌کنند. منطق اخلاقی آن روشن است: چنین محتوایی کودکان را جنسی‌سازی می‌کند و می‌تواند منجر به جرایم واقعی شود. همچنین اغلب با استفاده از عکس‌های واقعی کودکان تولید می‌شود (مثلاً گرفتن یک عکس بی‌گناه از کودک و «برهنه‌سازی» یا تغییر آن توسط هوش مصنوعی – که نقض فاحش کرامت و حریم خصوصی آن کودک است) centeraipolicy.org. متأسفانه شواهدی وجود دارد که این اتفاق در حال رخ دادن است. یک پژوهشگر دانشگاه استنفورد، دیوید تیل، صدها تصویر شناخته‌شده سوءاستفاده از کودکان را که در یک دیتاست محبوب آموزش هوش مصنوعی برای Stable Diffusion جاسازی شده بود، کشف کرد centeraipolicy.org. این بدان معناست که مدل تا حدی با تصاویر واقعی سوءاستفاده مجرمانه آموزش دیده است که بسیار مشکل‌ساز است. حتی اگر اکنون این تصاویر حذف شوند، همین که اصلاً استفاده شده‌اند نشان می‌دهد که توسعه‌دهندگان هوش مصنوعی ممکن است ناخواسته مدل‌ها را با محتوای سوءاستفاده‌آمیز آموزش داده باشند. بدتر اینکه، بدون تدابیر ایمنی دقیق، یک هوش مصنوعی می‌تواند تصاویر جدیدی تولید کند که شبیه همان ورودی‌های آموزشی غیرقانونی باشد. برخی کاربران در انجمن‌ها تلاش کرده‌اند با هوش مصنوعی عکس کودکان را «برهنه» کنند یا تصاویر غیرقانونی بسازند – روندی که نیروهای انتظامی در تلاش برای مقابله با آن هستند. از نظر اخلاقی، تقریباً اجماع وجود دارد: هوش مصنوعی هرگز نباید برای تولید CSAM استفاده شود. با این حال، اجرای این اصل دشوار است – یا باید مدل‌ها طوری آموزش ببینند که هرگونه درخواست یا تلاش برای تولید چنین محتوایی را صراحتاً رد کنند، یا قوانین هرگونه تلاش در این زمینه را جرم جدی تلقی کند (مانند ایالت تنسی). شرکت‌های فناوری اکنون اغلب فیلترهایی را به صورت سخت‌افزاری قرار می‌دهند تا حتی کلمه «کودک» یا هرگونه اشاره به سن پایین در یک درخواست مسدود شود. اما کاربران متخلف سعی در دور زدن این محدودیت‌ها دارند. اهمیت موضوع بسیار بالاست، زیرا اگر هوش مصنوعی به این شکل سوءاستفاده شود، می‌تواند قربانیان سوءاستفاده را دوباره قربانی کند و به پدوفیل‌ها بهانه‌ای جدید بدهد که «هیچ کودک واقعی آسیب ندیده است». بسیاری از اخلاق‌گرایان در پاسخ به استدلال «جرم بدون قربانی» اشاره می‌کنند که مصرف هرگونه تصویر سوءاستفاده از کودکان، چه واقعی چه تولیدشده توسط هوش مصنوعی، احتمالاً باعث افزایش سوءاستفاده واقعی از طریق عادی‌سازی آن می‌شود centeraipolicy.org reddit.com. بنابراین، این یک خط قرمز اخلاقی است که اکثر افراد بر سر آن توافق دارند: تولید یا استفاده از هوش مصنوعی برای محتوای جنسی کودکان به طور مطلق اشتباه است و باید با تمام ابزارها (فنی و قانونی) از آن جلوگیری شود.

داده‌های آموزشی و محتوای اجباری: یک مسئله اخلاقی کمتر آشکار اما مهم در چگونگی ساخته شدن مدل‌های هوش مصنوعی NSFW وجود دارد. بسیاری از تولیدکننده‌های پورن هوش مصنوعی بر روی مجموعه داده‌های بزرگی که از اینترنت جمع‌آوری شده‌اند – از جمله وب‌سایت‌های پورن – آموزش دیده‌اند. این یعنی تصاویر افراد واقعی (بازیگران پورن، مدل‌های وب‌کم، حتی عکس‌های شخصی لو رفته افراد) بدون رضایت آن‌ها به عنوان داده آموزشی استفاده شده است. شرکت‌های هوش مصنوعی این کار را بی‌سروصدا انجام دادند و تنها بعدها پژوهشگران شروع به کشف ابعاد این موضوع کردند. برای مثال، مشخص شد که یک تولیدکننده عکس برهنه هوش مصنوعی به نام “These Nudes Do Not Exist” بر روی محتوای شرکت “Czech Casting” آموزش دیده است، شرکتی که به دلیل وادار کردن زنان به رابطه جنسی تحت تحقیق است centeraipolicy.org. بنابراین، هوش مصنوعی عملاً بر روی ویدیوهایی از زنانی آموزش دیده که احتمالاً قربانی قاچاق یا تجاوز بوده‌اند – و به طور مؤثر یاد گرفته تا تصاویر بدن آن‌ها یا افراد دیگر را در موقعیت‌های مشابه بازتولید کند. قطعاً آن زنان رضایت ندادند که تصاویرشان برای استفاده بیشتر و تولید بی‌پایان پورن جدید به کار رود. همانطور که یکی از قربانیان این وضعیت درباره حضور تصویرش در مجموعه آموزشی هوش مصنوعی گفت: «احساس ناعادلانه بودن می‌کنم، احساس می‌کنم آزادی‌ام گرفته شده» centeraipolicy.org. حتی در موارد کمتر افراطی، مدل‌ها ممکن است میلیون‌ها عکس روزمره از زنان را از شبکه‌های اجتماعی یا عکاسی مدلینگ دریافت کرده باشند – آن افراد هم موافقت نکرده‌اند که منبع تولید پورن شوند. هر مدل پورن هوش مصنوعی، ارواح افراد واقعی را در داده‌های آموزشی خود حمل می‌کند. بسیاری از آن افراد شاید با این موضوع مشکلی نداشته باشند – مثلاً بازیگران بزرگسال که داوطلبانه پورن بازی کرده‌اند ممکن است حتی از فناوری که کارشان را گسترش می‌دهد استقبال کنند. اما دیگران (مانند افراد خصوصی در تصاویر لو رفته، یا بازیگران پورنی که از این صنعت خارج شده‌اند و می‌خواهند زندگی جدیدی شروع کنند) از اینکه هوش مصنوعی ممکن است برای همیشه چهره‌شان را در محتوای جنسی جدید بازسازی کند، وحشت‌زده خواهند شد. این موضوع سوالات اخلاقی درباره مالکیت فکری و حقوق شباهت ایجاد می‌کند. آیا باید به افرادی که تصاویرشان به ساخت یک ابزار پورن هوش مصنوعی سودآور کمک کرده، غرامت پرداخت شود؟ برخی معتقدند بله – این مدل‌ها «مستقیماً از مردان و زنانی که در داده‌های آموزشی حضور داشتند سود می‌برند» بدون حتی یک تشکر centeraipolicy.org. برخی دیگر معتقدند اگر داده‌ها به طور عمومی در دسترس بوده‌اند، طبق قوانین فعلی مالکیت فکری استفاده از آن‌ها برای آموزش هوش مصنوعی مجاز است. اجماع اخلاقی حداقل به عدم استفاده از محتوای آشکارا غیررضایتی یا سوءاستفاده‌آمیز در آموزش تمایل دارد (مثلاً ویدیوهای انتقامی یا قاچاق باید ممنوع باشند). شرکت‌ها شروع به بررسی مجموعه داده‌ها برای چنین محتوایی کرده‌اند، اما در گذشته این کار را نمی‌کردند که نگران‌کننده است. همانطور که مرکز سیاست‌گذاری هوش مصنوعی بیان کرده، تقریباً «قطعی» است که مدل‌های پورن هوش مصنوعی بر روی برخی تصاویر صمیمی غیررضایتی (NCII) آموزش دیده‌اند centeraipolicy.org. در آینده، درخواست‌هایی برای گزینش سخت‌گیرانه‌تر مجموعه داده‌ها و حتی شاید یک ثبت‌نام “انصراف” وجود دارد تا افراد بتوانند تصاویر خود را از مجموعه‌های آموزشی هوش مصنوعی حذف کنند <a href=”https://www.centeraipolicy.org/work/the-senate-passes-the-defiance-act#:~:text=These%20are%20contentious%20topics.%20%E2%80%9COpt,content%20to%20train%20centeraipolicy.org. این از نظر فنی و لجستیکی پیچیده است، اما بحث پیرامون اخلاق داده‌ها در هوش مصنوعی مولد تنها در حال پررنگ‌تر شدن است.

محتوای تخیلی اما افراطی: این هم یک حوزه دشوار دیگر است – اگر هیچ فرد واقعی‌ای به تصویر کشیده نشده باشد، آیا هیچ محدودیتی برای آنچه پورن هوش مصنوعی باید تولید کند وجود دارد؟ برخی نگرانند که هوش مصنوعی می‌تواند امکان تولید محتوای جنسی فوق‌العاده افراطی یا حاشیه‌ای را فراهم کند که در دنیای واقعی غیرممکن است، و این ممکن است آسیب‌زا باشد. برای مثال، شبیه‌سازی تجاوز، رابطه با حیوانات، پورن «اسناف» (قتل)، یا همانطور که اشاره شد، سناریوهای مربوط به کودکان. مدافعان ممکن است بگویند: «بهتر است هوش مصنوعی این کار را انجام دهد تا کسی در واقعیت»، اما منتقدان می‌ترسند که این کار می‌تواند باعث بی‌حس شدن افراد یا تشویق به عمل کردن شود. حداقل، این موضوع سوالات اخلاقی را درباره اینکه آیا اجازه دادن به هوش مصنوعی برای پاسخ به چنین فانتزی‌هایی از خط قرمز جامعه عبور می‌کند یا نه، مطرح می‌کند. پلتفرم‌هایی مانند Oh می‌گویند که هرگونه «عملیات غیرقانونی» را مسدود می‌کنند – ربات‌های آن‌ها وارد محتوای پدوفیلیا یا سایر موضوعات جنسی مجرمانه نمی‌شوند sifted.eu. این یک اقدام احتیاطی اخلاقی است که شرکت‌های مسئول در تلاش برای انجام آن هستند. اما مدل‌های متن‌باز ذاتاً هیچ اخلاقی ندارند؛ کاربران می‌توانند آن‌ها را برای تولید تقریباً هر چیزی هدایت کنند، اگر مدل به طور صریح محدود نشده باشد. این بدان معناست که بار مسئولیت بر عهده وجدان فردی (و قوانین محلی) است. موضع اخلاقی اکثر جوامع هوش مصنوعی این است که فیلترهای سختی علیه محتوای جنسی غیرقانونی یا خشونت‌آمیز قرار دهند. با این حال، همانطور که یکی از تولیدکنندگان OnlyFans با بدبینی پیش‌بینی کرد، احتمالاً فقط مسئله زمان است تا کسی از هوش مصنوعی برای تولید چیزهایی مانند «سوءاستفاده از کودک با برچسب بازی سنی، یا سناریوهای تجاوز هوش مصنوعی» استفاده کند، و اینکه «باید بیشتر در این مورد صحبت شود» reddit.com. سوال اخلاقی همچنان بی‌پاسخ مانده است: آیا وجود یک تصویر خیالی فوق‌واقع‌گرایانه از یک جرم، خود یک آسیب است؟ بسیاری پاسخ مثبت می‌دهند، به ویژه اگر پای افراد خردسال در میان باشد (که به وضوح مجرمانه است). برای سایر فانتزی‌های افراطی، جامعه هنوز به اجماع نرسیده است، اما این حوزه‌ای فعال در بحث‌های اخلاق دیجیتال است.

جنسیت و بازنمایی: هوش مصنوعی NSFW همچنین تعصبات و کلیشه‌های داده‌های منبع خود را به ارث می‌برد. بسیاری از پورن‌های جریان اصلی به دلیل نمایش‌های جنسیت‌زده یا غیرواقعی از زنان مورد انتقاد قرار گرفته‌اند و هوش مصنوعی می‌تواند این الگوها را تقویت کند. اگر مدل‌ها عمدتاً بر اساس پورنی آموزش ببینند که زنان را شیءانگارانه یا فقط یک نوع بدن خاص را نمایش می‌دهد، خروجی‌ها نیز همین را منعکس خواهند کرد. این می‌تواند استانداردهای زیبایی غیرواقعی یا سناریوهای جنسی غیرواقعی را تقویت کند. علاوه بر این، بیشتر همراهان اروتیک هوش مصنوعی و ربات‌های تصویری به طور پیش‌فرض زن هستند و برای کاربران مرد دگرجنس‌گرا طراحی شده‌اند. برای مثال، فهرست ربات‌های هوش مصنوعی پلتفرم Oh «اکثراً زن» هستند و به صورت آواتارهای نیمه‌برهنه نمایش داده می‌شوند sifted.eu. منتقدان نگران‌اند که این موضوع باعث تقویت نگاه به زنان به عنوان اسباب‌بازی‌های دیجیتال شود و بر دیدگاه کاربران (عمدتاً مرد) نسبت به روابط واقعی تأثیر بگذارد. برخی از بنیان‌گذاران همراهان هوش مصنوعی خود اذعان دارند که آینده صمیمیت می‌تواند «عجیب» یا «دیستوپیایی» شود اگر مردم به جای شریک واقعی، به فانتزی هوش مصنوعی روی بیاورند sifted.eu. گفته شده که این دوست‌دخترهای هوش مصنوعی ممکن است کلیشه‌های آسیب‌زننده درباره همیشه در دسترس بودن، موافق بودن و مطابق میل بودن زنان را تقویت کنند sifted.eu. روانشناسان و فمینیست‌ها نگران‌اند که چنین فناوری‌هایی ممکن است مشکلاتی مانند تنهایی، زن‌ستیزی یا انتظارات تحریف‌شده از رابطه جنسی را تشدید کند. از سوی دیگر، طرفداران می‌گویند این ابزارها می‌توانند راهی امن برای افرادی باشند که در روابط انسانی مشکل دارند یا به افراد کمک کنند بدون برچسب خوردن، تمایلات جنسی خود را کشف کنند. از نظر اخلاقی، این یک شمشیر دو لبه است: آیا ممکن است یک دوست‌دختر هوش مصنوعی کسی را به ارتباط‌گیرنده بهتری تبدیل کند یا به او آرامش دهد؟ ممکن است. آیا ممکن است همچنین باعث شود کسی از ارتباط انسانی واقعی فاصله بگیرد و زنان را صرفاً به عنوان اشیای قابل شخصی‌سازی ببیند؟ ممکن است. جامعه باید هرچه بیشتر با رشد این خدمات با این پرسش‌ها روبه‌رو شود.

در مجموع، اخلاق هوش مصنوعی NSFW حول محور رضایت، آسیب و پیام‌های اجتماعی که درباره جنسیت و انسانیت می‌فرستیم می‌چرخد. قانون طلایی پورن اخلاقی – اینکه همه افراد نمایش‌داده‌شده بزرگسال و با رضایت خود شرکت‌کننده هستند – در پورن هوش مصنوعی کاملاً زیر سؤال می‌رود، جایی که اغلب هیچ‌کس واقعاً «شرکت نکرده» و بنابراین هرگز نمی‌توانسته رضایت بدهد. ما مجبوریم مفهوم رضایت را به شباهت و حتی داده‌های خود گسترش دهیم. همان‌طور که یک تفسیر بیان کرده، این فناوری ما را وادار می‌کند تا «اساس صمیمیت، رضایت و آزادی خلاقیت» را در عصر دیجیتال بازنگری کنیم chicagoreader.com. چشم‌انداز اخلاقی پر از مناطق خاکستری است، اما اجماع رو به رشدی وجود دارد که برخی خطوط قرمز (محتوای کودک، استفاده غیررضایتمندانه از هویت واقعی) باید رعایت شود و احترام به خودمختاری افراد باید راهنمای آنچه قابل قبول است باشد. در عین حال، باید مراقب باشیم که همه تولید محتوای جنسی با هوش مصنوعی را آسیب‌زا ندانیم – برای بزرگسالان رضایتمند که برای خودشان استفاده می‌کنند، ممکن است ابزاری مثبت باشد. چالش این است که اجازه دهیم کاربردهای نوآورانه و رضایتمندانه رشد کند و در عین حال موارد سوءاستفاده را از بین ببریم.

حامیان در برابر منتقدان: بحث پیرامون هوش مصنوعی NSFW

واکنش‌ها به هوش مصنوعی NSFW دو قطبی هستند. برخی آن را به عنوان یک تحول هیجان‌انگیز در سرگرمی بزرگسالان و آزادی شخصی جشن می‌گیرند؛ برخی دیگر آن را یک تهدید اجتماعی می‌دانند. بیایید استدلال‌های کلیدی هر دو طرف را بررسی کنیم:

استدلال‌های حامیان (طرفداران هوش مصنوعی NSFW):

  • آزادی خلاقیت و اکتشاف جنسی: طرفداران معتقدند که هوش مصنوعی می‌تواند یک راه خروج مثبت برای کشف تمایلات جنسی، فانتزی‌ها و گرایش‌ها به صورت خصوصی و بدون قضاوت باشد. کاربرانی که ممکن است در دنیای واقعی برای اجرای برخی فانتزی‌ها احساس خجالت یا ناتوانی کنند، می‌توانند با محتوای تولیدشده توسط هوش مصنوعی یا چت‌بات‌ها این کار را با خیال راحت انجام دهند. این موضوع می‌تواند تابو و شرم پیرامون مسائل جنسی را کاهش دهد. برخی حتی آن را توانمندساز می‌دانند: «بزرگسالان رضایت‌مند می‌توانند فانتزی‌های تصویری خود را در محیطی امن و خصوصی با هوش مصنوعی خلق کنند»، به گفته مدیرعامل یکی از پلتفرم‌های بزرگسالان هوش مصنوعی globenewswire.com. در این دیدگاه، هوش مصنوعی مولد صرفاً یک ابزار است – مشابه هنر اروتیک یا اسباب‌بازی‌های جنسی – که می‌تواند بیان سالم جنسی را تقویت کند.
  • شخصی‌سازی و نوآوری در سرگرمی بزرگسالان: حامیان تأکید می‌کنند که هوش مصنوعی NSFW شخصی‌سازی بی‌نظیری نسبت به پورن سنتی ارائه می‌دهد globenewswire.com. به جای مصرف منفعلانه هر آنچه استودیوها تولید می‌کنند، افراد می‌توانند محتوایی دقیقاً مطابق با سلیقه خود (انواع بدن، سناریوها و غیره) تولید کنند. این مدل کاربرمحور به عنوان نوآوری‌ای دیده می‌شود که پارادایم یکسان‌سازی محتوای بزرگسالان را «مختل» می‌کند globenewswire.com. همچنین می‌تواند به علایق خاصی که تولیدکنندگان جریان اصلی نادیده می‌گیرند (تا زمانی که قانونی باشند) پاسخ دهد. استارتاپ‌های این حوزه اغلب هوش مصنوعی را به عنوان یک جهش کوانتومی در نحوه ارائه محتوای بزرگسالان معرفی می‌کنند – و کنترل را به دست کاربر می‌دهند globenewswire.com. همچنین استدلال می‌کنند که این فناوری به حریم خصوصی احترام می‌گذارد: کاربران لازم نیست با انسان دیگری تعامل داشته باشند یا فانتزی‌های خود را با کسی جز هوش مصنوعی در میان بگذارند.
  • جایگزین ایمن برای امیال مضر: یکی از استدلال‌های موافق بحث‌برانگیزتر این است که پورن هوش مصنوعی ممکن است به عنوان جایگزین بی‌ضرر برای رفتارهای بالقوه مضر عمل کند. برای مثال، برخی نظریه داده‌اند که پدوفیل‌ها با استفاده از پورن کودک تولیدشده با CGI یا هوش مصنوعی ممکن است امیال خود را بدون آسیب به کودکان واقعی ارضا کنند (این استدلال بسیار مورد مناقشه است و اکثر کارشناسان آن را رد می‌کنند، اما مطرح می‌شود). برخی دیگر پیشنهاد می‌کنند کسانی که فانتزی‌های جنسی خشونت‌آمیز دارند می‌توانند به جای جستجوی قربانیان واقعی، از شبیه‌سازی‌های هوش مصنوعی استفاده کنند. اساساً این دیدگاه «بهتر است امیالشان را روی پیکسل‌ها تخلیه کنند تا روی انسان‌ها» است. با این حال، این موضوع همچنان فرضی و از نظر اخلاقی بحث‌برانگیز است – هیچ مدرک روشنی وجود ندارد که هوش مصنوعی جرم واقعی را کاهش می‌دهد؛ حتی ممکن است آن را تشویق کند (همان‌طور که منتقدان پاسخ می‌دهند). با این حال، برخی مدافعان آزادی بیان می‌گویند حتی فانتزی‌های نفرت‌انگیز در قالب هوش مصنوعی، آزمایش‌های فکری هستند که نباید تا زمانی که به شخص واقعی آسیبی نمی‌رسد، جرم‌انگاری شوند. این دیدگاه جریان اصلی نیست، اما در بحث‌ها درباره محتوای افراطی وجود دارد reddit.com.
  • حمایت از جوامع و هویت‌های خاص: هوش مصنوعی می‌تواند برای جوامعی که به طور تاریخی در پورن جریان اصلی نمایندگی کمی داشته‌اند محتوا تولید کند – برای مثال، برخی فانتزی‌های LGBTQ، سناریوهای BDSM با پارامترهای رضایت خاص، یا هنر اروتیک با عناصر فانتزی. برخی اعضای خرده‌فرهنگ‌های فری یا هنتای، مثلاً، از هنر هوش مصنوعی برای خلق محتوایی استفاده می‌کنند که با بازیگران واقعی غیرممکن است. این موضوع به عنوان گسترش دامنه هنر اروتیک دیده می‌شود. علاوه بر این، هوش مصنوعی می‌تواند به افراد دارای معلولیت یا محدودیت‌های دیگر اجازه دهد تا صمیمیت مجازی را به شیوه‌هایی تجربه کنند که در غیر این صورت نمی‌توانستند. کسانی که در تعامل اجتماعی مشکل دارند ممکن است در یک شریک هوش مصنوعی که آن‌ها را قضاوت نمی‌کند، رفاقت پیدا کنند. طرفدارانی مانند بنیان‌گذار استارتاپ “AI OnlyFans” استدلال می‌کنند که این همراهان هوش مصنوعی می‌توانند «خالصاً مثبت» برای جامعه باشند، به ویژه برای افرادی که اشکال دیگری از رفاقت ندارند sifted.eu. به نظر او، اگر کسی تنها باشد یا انواع استثماری پورن را مصرف کند، یک شریک هوش مصنوعی جایگزینی کنترل‌شده و شاید سالم‌تر است sifted.eu.
  • رضایت مدل‌های ساخته‌شده در مقابل مدل‌های واقعی: یکی دیگر از استدلال‌های موافق NSFW AI این است که استفاده از بازیگران تولیدشده توسط هوش مصنوعی (که در واقع وجود خارجی ندارند) در پورن می‌تواند بسیاری از مشکلات صنعت بزرگسالان را از بین ببرد. هیچ خطری برای سوءاستفاده از یک بازیگر واقعی وجود ندارد اگر بازیگر پورن توسط هوش مصنوعی ساخته شده باشد. بدن هیچ‌کس واقعاً در معرض بیماری‌های مقاربتی یا سوءاستفاده در یک صحنه هوش مصنوعی قرار نمی‌گیرد. در تئوری، این می‌تواند در نهایت بخشی از تولید پورن واقعی را جایگزین کند و در نتیجه آسیب به بازیگران انسانی را کاهش دهد در موقعیت‌های پرخطر. (البته، نقطه مقابل این است که آن بازیگران اغلب خودشان انتخاب می‌کنند که آنجا باشند و اگر جایگزین شوند ممکن است درآمدشان را از دست بدهند، پس موضوع پیچیده است.) اما آینده‌پژوهان دنیایی را تصور می‌کنند که در آن پورن هوش مصنوعی کاملاً واقع‌گرایانه می‌تواند تقاضا را بدون نیاز به حضور هیچ فرد واقعی در کارهای بالقوه تحقیرآمیز برآورده کند – اساساً یک زنجیره تأمین پورن اخلاقی‌تر. برخی از تولیدکنندگان بزرگسال حتی داوطلبانه “دوقلوهای دیجیتال” خود را می‌سازند (از طریق صدور مجوز تصویر/صدای خود) تا هوش مصنوعی بتواند بخشی از کار را برایشان انجام دهد – با رضایت و تقسیم سود sifted.eu. اگر این مدل گسترش یابد، می‌تواند به تولیدکنندگان انسانی اجازه دهد در حالی که بخشی از تولید محتوا را به هوش مصنوعی تحت کنترل خود واگذار می‌کنند، درآمد کسب کنند؛ که شاید یک وضعیت برد-برد باشد.آزادی بیان و ارزش هنری: از منظر آزادی‌های مدنی، برخی حتی از NSFW AI به عنوان شکلی از بیان دفاع می‌کنند. هنر اروتیک و پورن مدت‌هاست که به عنوان سخن محافظت‌شده (به جز موارد مستهجن) در بسیاری از کشورها شناخته می‌شود. هوش مصنوعی فقط رسانه بیان را گسترش می‌دهد. اگر یک هنرمند می‌تواند یک تصویر برهنه بکشد یا یک صحنه پورن رضایتمندانه فیلمبرداری کند، چرا نتواند از هوش مصنوعی بخواهد یک اثر هنری برهنه خلق کند؟ آن‌ها استدلال می‌کنند که ممنوعیت کامل محتوای جنسی هوش مصنوعی افراط‌آمیز خواهد بود و ممکن است به سانسور هنر مثبت جنسی یا تلاش‌های خلاقانه مشروع منجر شود. به شرطی که همه افراد دخیل رضایت داشته باشند (که وقتی پای هوش مصنوعی وسط است دشوار است، اما فرض کنیم فرایند رضایتمندانه است)، آن‌ها معتقدند بزرگسالان باید آزادی خلق و مصرف محتوای جنسی مورد انتخاب خود را داشته باشند، چه با کمک هوش مصنوعی چه بدون آن. گروه‌هایی مانند بنیاد مرز الکترونیک نسبت به ممنوعیت‌های گسترده بر فناوری دیپ‌فیک هشدار داده‌اند و اشاره می‌کنند که این فناوری کاربردهای مفیدی دارد و هدف قرار دادن محدود افراد بد بهتر از ممنوعیت خود فناوری است klobuchar.senate.gov. این رویکرد آزادی‌خواهانه در بحث می‌گوید: آسیب واقعی (مانند استفاده غیررضایتمندانه) را مجازات کنید، اما ابزار یا خیال‌پردازی رضایتمندانه را جرم‌انگاری نکنید.استدلال‌های منتقدان (مخالفان NSFW AI):
  • نقض رضایت و سوءاستفاده از تصویر: منتقدان تأکید می‌کنند که هوش مصنوعی NSFW قبلاً باعث سوءاستفاده گسترده از رضایت و شباهت افراد شده است. اپیدمی دیپ‌فیک‌های غیررضایتی خود گویای همه چیز است – زندگی‌ها نابود شده، حریم خصوصی از بین رفته. آن‌ها استدلال می‌کنند که این یک پدیده حاشیه‌ای نیست بلکه تا کنون کاربرد اصلی فناوری دیپ‌فیک بوده است: ۹۶٪ دیپ‌فیک‌ها پورنوگرافیک بوده و عملاً همه بدون رضایت ساخته شده‌اند theguardian.com. آن‌ها می‌گویند این فناوری ذاتاً مستعد چنین سوءاستفاده‌ای است و آن را به ابزاری خطرناک تبدیل می‌کند. حتی زمانی که افراد مستقیماً هدف قرار نمی‌گیرند، نبود هیچ امکانی برای رضایت دادن به حضور در داده‌های آموزشی یا در خیال کسی، نگران‌کننده است. یک فرد می‌تواند خودمختاری جنسی خود را کاملاً از دست بدهد وقتی دیگران تصاویر صریح او را از هیچ خلق می‌کنند. منتقدان می‌گویند این اساساً غیراخلاقی است و باید مانند چشم‌چرانی یا سایر جرایم جنسی محکوم شود. وجود «صدها اپلیکیشن هوش مصنوعی برای برهنه‌سازی» که به راحتی در دسترس هستند klobuchar.senate.gov به این معناست که عکس هر زنی می‌تواند در عرض چند ثانیه پورنو شود، وضعیتی که بسیاری آن را غیرقابل تحمل و ترسناک می‌دانند.
  • آسیب‌های عاطفی و روانی: قربانی شدن در یک پورن فیک ساخته‌شده با هوش مصنوعی می‌تواند باعث پریشانی شدید روانی شود – تحقیر، اضطراب، PTSD، حتی افکار خودکشی. یک مثال تراژیک: یک پسر ۱۷ ساله در آمریکا در سال ۲۰۲۲ پس از آنکه یک اخاذ با استفاده از تصاویر برهنه جعلی او را تهدید کرد، خودکشی کرد klobuchar.senate.gov. فشار روانی بر زنانی که متوجه وجود دیپ‌فیک از خود می‌شوند بسیار زیاد است؛ این وضعیت به عنوان نوعی تجاوز جنسی مجازی توصیف می‌شود. بنابراین منتقدان هوش مصنوعی NSFW را ابزاری می‌دانند که آزار و سوءاستفاده را تسهیل می‌کند و آن را به یک «وضعیت اضطراری» برای افراد آسیب‌پذیر (به ویژه زنان، کودکان، افراد LGBTQ که ممکن است هدف فیک‌های جنسی نفرت‌محور قرار گیرند و غیره) تبدیل می‌کند theguardian.com. آن‌ها استدلال می‌کنند که هیچ منفعت ادعایی این فناوری نمی‌تواند بر این آسیب‌های واقعی که هم‌اکنون رخ می‌دهند، برتری داشته باشد.
  • عادی‌سازی محتوای استثماری: مخالفان نگران هستند که هجوم پورن هوش مصنوعی، به‌ویژه سناریوهای افراطی یا بدون رضایت، می‌تواند باعث عادی‌سازی چنین تصاویری شود و تحریم‌های اجتماعی پیرامون مسائلی مانند حریم خصوصی و رضایت را تضعیف کند. اگر تصاویر برهنه جعلی از افراد مشهور یا همکلاسی‌ها به «خوراک رایج اینترنت» تبدیل شود، مردم ممکن است نسبت به نقض حریم خصوصی دیگران بی‌تفاوت شوند. این موضوع همچنین می‌تواند ذهنیت‌های زن‌ستیزانه را تقویت کند (نگاه به زنان به عنوان اشیای جنسی در دسترس که تصاویرشان می‌تواند به دلخواه استفاده شود). از نظر اخلاقی، این موضوع شبیه به پورن انتقامی یا فیلم‌برداری مخفیانه است – اجازه دادن به گسترش آن این پیام را می‌دهد که بدن زنان متعلق به خودشان نیست. علاوه بر این، منتقدان نگرانند که هوش مصنوعی ممکن است تمایلات منحرف را تشدید کند – مثلاً کسی که پورن تجاوز شبیه‌سازی‌شده با هوش مصنوعی مصرف می‌کند، ممکن است بیشتر مستعد ارتکاب خشونت شود، یا یک پدوفیل با پورن کودک تولیدشده توسط هوش مصنوعی همچنان به سوءاستفاده از کودکان واقعی روی آورد. اگرچه شواهد مورد بحث است، بسیاری از روانشناسان با توجه به اینکه رسانه‌ها می‌توانند رفتار را تقویت کنند، احتیاط را توصیه می‌کنند.
  • تأثیر بر روابط و جامعه: برخی جامعه‌شناسان و فمینیست‌ها ابراز نگرانی می‌کنند که همراهان جنسی هوش مصنوعی و پورن فوق‌العاده شخصی‌سازی‌شده می‌تواند روابط واقعی انسانی را تضعیف کند. اگر بسیاری از افراد به «دوست‌دخترهای» هوش مصنوعی که کاملاً مطیع هستند روی بیاورند، چه اتفاقی برای توانایی آن‌ها در ایجاد رابطه با شریکان واقعی که نیازها و مرزهای مستقل دارند می‌افتد؟ نگرانی از افزایش انزوای اجتماعی و انتظارات تحریف‌شده از رابطه جنسی و عاشقانه وجود دارد. بنیان‌گذار یکی از اپلیکیشن‌های همراه هوش مصنوعی خودش آن را بالقوه «بسیار دیستوپیایی» خوانده و گفته ممکن است «آینده‌ای عجیب برای صمیمیت» ایجاد کند که در آن مردم از یکدیگر جدا شوند sifted.eu. کلیشه‌های تقویت‌شده – اغلب دوست‌دخترهای هوش مصنوعی شخصیت‌های زن مطیع هستند – می‌تواند نگرش‌های جنسیت‌زده را در میان کاربران تثبیت کند. بنابراین، منتقدان استدلال می‌کنند که هوش مصنوعی NSFW ممکن است مسائلی مانند تنهایی، زن‌ستیزی و کالایی‌سازی صمیمیت را تشدید کند.
  • تهدیدی برای هنرمندان، اجراکنندگان و نیروی کار: کسانی که در حوزه‌های خلاقانه و صنعت بزرگسالان فعالیت می‌کنند، هوش مصنوعی NSFW را تهدیدی برای معیشت و حقوق خود می‌دانند. هنرمندان بصری (مانند تصویرگران آثار اروتیک یا مدل‌ها) مشاهده می‌کنند که هوش مصنوعی در حال جمع‌آوری آثارشان بدون اجازه است و سپس تصاویر جدیدی در سبک یا با چهره آن‌ها تولید می‌کند. این موضوع مانند سرقت مالکیت معنوی احساس می‌شود و بازار آثار سفارشی را تضعیف می‌کند. عکاسان نگران‌اند که تولیدکننده‌های تصویر هوش مصنوعی جایگزین استخدام مدل‌ها برای عکاسی شوند. بازیگران پورن و کارگران جنسی نگران‌اند که «کلون‌های» هوش مصنوعی یا مدل‌های کاملاً خیالی هوش مصنوعی مشتریان را جذب کنند – یا بازار را با محتوایی پر کنند که ارزش کار آن‌ها را کاهش می‌دهد. چندین خالق OnlyFans گزارش داده‌اند که درآمدشان کاهش یافته و شکایت طرفداران را دریافت کرده‌اند، احتمالاً به دلیل رقابت با محتوای تولیدشده توسط هوش مصنوعی که ارزان‌تر و همیشه در دسترس است reddit.com. آن‌ها استدلال می‌کنند که این رقابت ناعادلانه است، زیرا هوش مصنوعی عملاً تصاویر و جذابیت آن‌ها را تصاحب کرده بدون تلاش یا لمس انسانی، و این امر قیمت‌ها را تا سطحی غیرقابل دوام برای کارگران واقعی پایین می‌آورد. کارگران جنسی همچنین نگران‌اند که ممکن است تحت فشار قرار گیرند تا برای تولید محتوای بیشتر یا در دسترس بودن ۲۴/۷ از هوش مصنوعی استفاده کنند، که کار آن‌ها را بیش از پیش کالایی می‌کند reddit.com. اتحادیه‌ها و گروه‌های مدافع نگران دنیایی هستند که در آن شرکت‌ها ممکن است یک ستاره پورن هوش مصنوعی (بدون حقوق، مطالبه یا دستمزد) را به یک انسان ترجیح دهند – سناریویی که می‌تواند مشاغل را از بین ببرد و از شباهت اجراکنندگانی که این مدل‌ها را آموزش داده‌اند سوءاستفاده کند. به طور خلاصه، منتقدان هوش مصنوعی NSFW را تضعیف‌کننده خلاقیت و نیروی کار انسانی می‌دانند، چرا که با استفاده از داده‌های انسان‌ها، منبع بی‌پایانی از محتوای رایگان (یا ارزان) تولید می‌کند.
  • سراشیبی لغزنده اخلاق و قانون: از منظر سیاست‌گذاری، منتقدان استدلال می‌کنند که اگر اکنون محدودیت‌های محکمی برای هوش مصنوعی NSFW وضع نشود، آینده‌ای غیرقابل کنترل در پیش خواهد بود. اگر پورن هوش مصنوعی را صرفاً «فانتزی» بپذیریم، چه اتفاقی می‌افتد وقتی با مسائل واقعی مانند رضایت تداخل پیدا کند؟ برای مثال، اگر کسی پورن هوش مصنوعی از شریک سابقش بسازد و ادعا کند که فقط یک فانتزی است، آیا این توجیه‌پذیر است؟ اکثر مردم می‌گویند نه – شریک سابق به وضوح آسیب دیده است. بنابراین منتقدان به سمت اصل احتیاط گرایش دارند: خطوط را زودتر ترسیم کنید. برخی حتی خواستار برخورد با ابزارهای ساخت دیپ‌فیک مانند ابزارهای باز کردن قفل یا هک شده‌اند – نه لزوماً غیرقانونی، اما به شدت کنترل‌شده، و ممنوعیت کامل ابزارهایی که آشکارا برای سوءاستفاده طراحی شده‌اند (مانند اپلیکیشن‌های «برهنه‌ساز» که صرفاً برای برهنه‌کردن غیررضایتی تصاویر وجود دارند). اخلاق‌گرایانی که طرفدار مقررات سختگیرانه هستند، استدلال می‌کنند که پتانسیل سوءاستفاده بسیار بیشتر از موارد استفاده مثبت محدود است. آن‌ها اغلب به صدای قربانیان استناد می‌کنند: همان‌طور که یک اخلاق‌گرای فناوری گفت: «دختری نوجوان که خودش را در پورن تولیدشده با هوش مصنوعی می‌بیند – همان یک تجربه، همان یک زندگی نابودشده، مقررات سختگیرانه برای این فناوری را توجیه می‌کند.» آن‌ها می‌گویند آزادی بیان مهم است، اما نباید به قیمت اختیار و امنیت دیگران تمام شود.
شایان ذکر است که همه افراد در یکی از دو سر طیف قرار ندارند – بسیاری هم به وعده و هم به خطر هوش مصنوعی NSFW اذعان دارند. برای مثال، یک کاربر ممکن است از امکان تولید داستان‌های اروتیک سفارشی از شخصیت‌های خیالی (یک استفاده بی‌ضرر) استقبال کند، در حالی که به شدت استفاده از آن برای جعل یک فرد واقعی را محکوم کند. بنابراین بحث اغلب بر سر این است که خط قرمز کجاست. به نظر می‌رسد اجماع نوظهور در گفتمان عمومی این باشد: محتوای بزرگسالان تولیدشده با هوش مصنوعی تنها در صورت رضایت و شفافیت قابل قبول است و در صورتی که شامل افراد واقعی بدون اجازه یا هرگونه افراد زیر سن قانونی باشد، کاملاً ممنوع است. حتی بسیاری از فناورانی که از محتوای بزرگسالان هوش مصنوعی حمایت می‌کنند، موافق‌اند که دیپ‌فیک‌های بدون رضایت غیرقابل دفاع هستند و باید جرم‌انگاری شوند cbsnews.com. از سوی دیگر، حتی برخی منتقدان نیز اذعان دارند که بزرگسالان با رضایت خود باید بتوانند از این ابزارها برای خود استفاده کنند (برای مثال، یک زوج که هنر هوش مصنوعی از فانتزی مشترک خود می‌سازند، یا یک کارگر جنسی که از هوش مصنوعی برای گسترش کسب‌وکارش استفاده می‌کند، باید انتخاب آن فرد باشد).

تقسیم‌بندی حامیان در برابر منتقدان گاهی بر اساس خوش‌بینی فناورانه در مقابل تردید اجتماعی شکل می‌گیرد. علاقه‌مندان به فناوری، هوش مصنوعی NSFW را مرزی هیجان‌انگیز می‌بینند (با برخی مسائل برای مدیریت)، در حالی که فعالان اجتماعی آن را نوعی جدید از سوءاستفاده دیجیتال می‌دانند که باید محدود شود. هر دو دیدگاه معتبرند – و چالش پیش رو این است که منافع (آزادی خلاقیت، لذت خصوصی، نوآوری صنعتی) را به حداکثر و آسیب‌ها (سوءاستفاده غیررضایتمندانه، اطلاعات نادرست، جابجایی نیروی کار) را به حداقل برسانیم. هر راه‌حلی نیازمند مشارکت فناوران، قانون‌گذاران، اخلاق‌گرایان، صنعت بزرگسالان و بازماندگان سوءاستفاده تصویری است. تا سال ۲۰۲۵، این گفتگو واقعاً آغاز شده است.

(برای جمع‌بندی، در اینجا یک مقایسه سریع از دو دیدگاه آمده است:)

  • حامیان می‌گویند هوش مصنوعی NSFW خلاقیت بزرگسالان را توانمند می‌کند، تحقق فانتزی ایمن را ارائه می‌دهد و حتی می‌تواند به خالقان با رضایت برای کسب درآمد یا افراد تنها برای یافتن همراهی کمک کند – اساساً یک تکامل فناورانه پورن که اگر به‌طور اخلاقی استفاده شود، به کسی آسیب نمی‌زند و آزادی فردی را افزایش می‌دهد globenewswire.com sifted.eu.
  • منتقدان می‌گویند این موضوع باعث موجی از سوءاستفاده جنسی مبتنی بر تصویر شده، رضایت و حریم خصوصی را از بین می‌برد، ممکن است دیدگاه کاربران نسبت به رابطه جنسی و روابط را منحرف کند و تصاویر و کار واقعی افراد را بدون اجازه آن‌ها برای سودجویی مورد بهره‌برداری قرار دهد theguardian.com reddit.com. به نظر آن‌ها، هزینه‌های NSFW AI برای جامعه (به ویژه برای زنان و گروه‌های آسیب‌پذیر) بسیار بیشتر از منافع شخصی است که برخی کاربران دریافت می‌کنند و این موضوع نیازمند محدودیت‌ها و نظارت جدی است.

مقابله: مدیریت محتوا و تدابیر ایمنی هوش مصنوعی برای مطالب NSFW

با توجه به خطرات NSFW AI، رقابتی موازی برای توسعه تدابیر فناورانه و سیاستی برای مدیریت آن در جریان است. این مبارزه در چندین جبهه صورت می‌گیرد: ساخت ابزارهای شناسایی بهتر برای محتوای تولیدشده توسط هوش مصنوعی، پیاده‌سازی فیلترهای مدیریت محتوا و ترویج هنجارها یا واترمارک‌هایی برای تمایز بین واقعی و جعلی. در اینجا نحوه تلاش هوش مصنوعی و پلتفرم‌ها برای مهار جنبه تاریک NSFW AI آمده است:

  • فیلترهای خودکار NSFW: بسیاری از تولیدکننده‌های تصویر هوش مصنوعی شامل کلاسه‌بندهای پورنوگرافی هستند که سعی می‌کنند خروجی‌های صریح را مسدود یا فیلتر کنند. برای مثال، نسخه رسمی Stable Diffusion دارای یک «بررسی‌کننده ایمنی» است که تصاویر برهنه یا جنسی را علامت‌گذاری و تار می‌کند arxiv.org. DALL·E متعلق به OpenAI هرگونه درخواست حتی با اشاره به محتوای جنسی را به‌کلی رد می‌کند. Midjourney فهرست گسترده‌ای از کلمات ممنوعه دارد و از هوش مصنوعی برای تفسیر زمینه درخواست استفاده می‌کند – اگر مشکوک شود که درخواست پورنوگرافیک یا استثماری است، تصویری تولید نمی‌کند arxiv.org. این فیلترها کامل نیستند (کاربران دائماً راه‌هایی برای دور زدن آن‌ها پیدا می‌کنند، مانند استفاده از کنایه یا غلط‌نویسی برای واژه‌های ممنوعه arxiv.org). با این حال، آن‌ها از تولید تصادفی یا ناخواسته تصاویر NSFW توسط کاربران عادی جلوگیری می‌کنند. این فیلترها به عنوان خط دفاعی اول عمل می‌کنند، به‌ویژه در پلتفرم‌های اصلی که نمی‌خواهند محتوای صریح میزبانی کنند. برخی شاخه‌های متن‌باز این فیلترها را حذف می‌کنند، اما در این صورت مسئولیت به عهده کاربر (و هر پلتفرمی که محتوا در آن منتشر می‌شود) خواهد بود.
  • ابزارهای شناسایی دیپ‌فیک: در حوزه پژوهش، تلاش قابل توجهی صرف الگوریتم‌های شناسایی دیپ‌فیک می‌شود. شرکت‌هایی مانند مایکروسافت و استارتاپ‌هایی مانند Sensity هوش مصنوعی‌ای توسعه داده‌اند که ویدیوها/تصاویر را برای نشانه‌های دستکاری (مانند نورپردازی ناسازگار، مصنوعات چهره یا واترمارک‌های دیجیتال) تحلیل می‌کند. در یک ارزیابی، مدل Hive Moderation (یک مجموعه هوش مصنوعی برای مدیریت محتوا که توسط برخی شبکه‌های اجتماعی استفاده می‌شود) بالاترین دقت را در شناسایی شخصیت‌های تولیدشده توسط هوش مصنوعی در مقابل واقعی emerginginvestigators.org داشت. این شناسایی‌کننده‌ها توسط پلتفرم‌ها برای اسکن بارگذاری‌ها استفاده می‌شوند (مثلاً فیسبوک ممکن است یک تصویر را هم برای برهنگی و هم برای اینکه آیا یک جعل شناخته‌شده از کسی است، اسکن کند). توسعه شناسایی‌کننده‌ها یک بازی موش و گربه است: با پیشرفت مدل‌های مولد، شناسایی‌کننده‌ها نیز باید پیشرفت کنند. اتحادیه اروپا شرکت‌ها را به پیاده‌سازی چنین سیستم‌هایی سوق می‌دهد – قوانین شفافیت قانون هوش مصنوعی و دستورالعمل مقابله با خشونت علیه زنان عملاً پلتفرم‌ها را ملزم می‌کند که بتوانند پورن هوش مصنوعی را شناسایی و حذف کنند euronews.com euronews.com. برخی روش‌های شناسایی بر متادیتا یا الگوهای شناخته‌شده از تولیدکننده‌های خاص تکیه دارند (مثلاً برخی ابزارهای هوش مصنوعی واترمارک‌های نامرئی در الگوهای پیکسلی باقی می‌گذارند). صنعت همچنین رویکردی فعال‌تر را مد نظر دارد: واترمارک‌گذاری محتوای هوش مصنوعی در زمان تولید. گوگل، برای مثال، روی روش‌هایی کار می‌کند تا تصاویر تولیدشده توسط هوش مصنوعی را برچسب‌گذاری کند تا هر نسخه‌ای حتی پس از ویرایش به عنوان ساخته‌شده توسط هوش مصنوعی قابل شناسایی باشد. OpenAI واترمارک‌های رمزنگاری‌شده برای متن مدل‌های زبانی پیشنهاد داده است. اگر این روش به طور گسترده پذیرفته شود، می‌تواند به فیلترهای خودکار کمک کند تا پورن هوش مصنوعی را پیش از گسترش شناسایی کنند. با این حال، مدل‌های متن‌باز احتمالاً داوطلبانه خروجی‌های خود را واترمارک نمی‌کنند و مهاجمان می‌توانند سعی در حذف واترمارک‌ها داشته باشند.
  • هشینگ محتوا و پایگاه‌های داده: برای مقابله با پورن انتقامی و دیپ‌فیک‌ها، شرکت‌های فناوری و سازمان‌های غیردولتی پایگاه‌های داده‌ای از تصاویر سوءاستفاده‌آمیز شناخته‌شده ایجاد کرده‌اند (مثلاً با استفاده از هش‌های رمزنگاری‌شده مانند PhotoDNA برای تصاویر واقعی کودک‌آزاری). رویکرد مشابهی برای دیپ‌فیک‌ها نیز در نظر گرفته شده است: اگر قربانی با یک تصویر جعلی مراجعه کند، هش آن می‌تواند به پایگاه داده حذف اضافه شود تا در صورت بارگذاری مجدد، فوراً شناسایی و حذف شود. سیستم آینده بریتانیا تحت قانون ایمنی آنلاین ممکن است شامل چنین شناسایی پیشگیرانه‌ای باشد – که پلتفرم‌ها را ملزم می‌کند تا «از ظاهر شدن [محتوای ممنوعه] در وهله اول جلوگیری کنند» euronews.com. در عمل، این به معنای اسکن تصاویر یا ویدیوهای غیرقانونی شناخته‌شده هنگام بارگذاری است. چالش با جعل‌های هوش مصنوعی این است که عاملان می‌توانند بی‌نهایت گونه تولید کنند، بنابراین هش کردن یکی، بعدی را شناسایی نمی‌کند. اینجاست که شناسایی شباهت مبتنی بر هوش مصنوعی لازم است، که می‌تواند محتوایی را که به جعل‌های شناخته‌شده شباهت زیادی دارد یا با فردی که ثبت کرده نمی‌خواهد هیچ تصویر صریحی از او آنلاین باشد، شناسایی کند.
  • نظارت در سایت‌های پورن: جالب است که سایت‌های بزرگ بزرگسالان مانند Pornhub به دلیل دیپ‌فیک‌ها مجبور به ارتقای سیستم نظارت خود شده‌اند. Pornhub از سال ۲۰۱۸ بارگذاری هرگونه محتوای تولیدشده با هوش مصنوعی که افراد واقعی را بدون رضایت نشان دهد، ممنوع کرده است. آن‌ها برای شناسایی این موارد به گزارش کاربران و بررسی ناظران تکیه می‌کنند، اما با میلیون‌ها بارگذاری، این کار دشوار است. قانون خدمات دیجیتال اتحادیه اروپا مسئولیت‌پذیری سخت‌گیرانه‌تری را به همراه آورده است: در سال ۲۰۲۴، Pornhub (و سایت‌های مشابه مانند Xvideos، Xnxx) به عنوان پلتفرم‌های بزرگ تعیین شدند که باید به طور فعال محتوای غیرقانونی و مضر را کاهش دهند وگرنه جریمه می‌شوند subscriber.politicopro.com. این احتمالاً به معنای سرمایه‌گذاری در فیلترینگ خودکار است. سایت‌های پورن ممکن است شروع به استفاده از شناسایی‌کننده‌های دیپ‌فیک روی هر ویدیوی جدید کنند. آن‌ها اکنون برای بارگذاری‌کنندگان احراز هویت نیز دارند؛ اگرچه این روش بی‌نقص نیست (افراد جعلی می‌توانند خود را احراز هویت کنند و ویدیوی جعلی از شخص دیگری بارگذاری کنند)، اما قابلیت ردیابی را افزایش می‌دهد.
  • سیاست‌های شبکه‌های اجتماعی: شبکه‌های اجتماعی مانند توییتر (X) و ردیت سیاست‌های خود را به‌روزرسانی کرده‌اند تا به طور صریح اشتراک‌گذاری «تصاویر خصوصی تولید یا تغییر یافته با هوش مصنوعی» بدون رضایت فرد را ممنوع کنند. ردیت در سال ۲۰۱۸ پس از موج اول، دیپ‌فیک‌ها را ممنوع کرد. استانداردهای جامعه فیسبوک رسانه‌های مصنوعی را که احتمال فریب به شیوه‌های مضر دارند (که شامل پورن جعلی از یک فرد می‌شود) ممنوع می‌کند. با این حال، اجرای این قوانین همچنان ضعیف است – همان‌طور که اشاره شد، محتوای دیپ‌فیک در سال ۲۰۲۴ در X وایرال شد cbsnews.com و متا مجبور شد پس از فشار عمومی تبلیغات برهنگی هوش مصنوعی را حذف کند cbsnews.com. با این حال، قوانین جدید (قانون Take It Down، مقررات اتحادیه اروپا) اکنون تعهدات قانونی برای آن‌ها ایجاد کرده است. می‌توان انتظار داشت زمان پاسخگویی سریع‌تر – مثلاً طبق قانون آمریکا، پلتفرم‌ها ۴۸ ساعت فرصت دارند تا NCII گزارش‌شده را حذف کنند وگرنه جریمه می‌شوند klobuchar.senate.gov klobuchar.senate.gov. این احتمالاً به این معناست که شرکت‌ها در صورت تردید، جانب حذف محتوا را خواهند گرفت. همچنین ممکن است مکانیزم‌هایی برای گزارش «این یک دیپ‌فیک هوش مصنوعی از من است» اضافه کنند تا کاربران بتوانند سریعاً سوءاستفاده را گزارش دهند.
  • تأیید سن و کنترل‌های دسترسی: یکی دیگر از جنبه‌های مدیریت، جلوگیری از دسترسی افراد زیر سن قانونی به پورن هوش مصنوعی است. سایت‌های پورن سنتی بررسی سن دارند (که به طور ناقص اجرا می‌شود) و برخی حوزه‌های قضایی (مانند فرانسه، یوتا، تگزاس) قوانینی تصویب کرده‌اند که تأیید سختگیرانه سن را برای سایت‌های بزرگسالان الزامی می‌کند versustexas.com. ابزارهای هوش مصنوعی این موضوع را پیچیده‌تر می‌کنند – مدل‌های مولد می‌توانند به صورت خصوصی و بدون هیچ گونه نظارتی استفاده شوند. اما برخی پلتفرم‌های هوش مصنوعی شروع به الزام تأیید هویت برای دسترسی به حالت‌های NSFW کرده‌اند تا مطمئن شوند کاربران بزرگسال هستند. برای مثال، پلتفرم Infatuated.ai بر پروتکل‌های قوی تأیید سن و مسدود کردن هرگونه درخواست مربوط به افراد زیر سن قانونی تأکید کرده است globenewswire.com. Replika (یک اپلیکیشن چت‌بات هوش مصنوعی) یک دوره بدنام داشت که در آن نقش‌آفرینی اروتیک را مجاز کرده بود و بسیاری از افراد زیر سن قانونی از آن استفاده کردند؛ پس از واکنش منفی، آن‌ها محتوای اروتیک را فقط برای کاربران ۱۸ سال به بالا و با تأیید سن از طریق پرداخت یا کارت شناسایی محدود کردند. بنابراین، حداقل در سرویس‌های تجاری، تلاشی برای جدا کردن محتوای بزرگسال هوش مصنوعی از کودکان وجود دارد. این موضوع مهم است چون خود کودکان از ابزارهای دیپ‌فیک برای آزار همسالانشان استفاده کرده‌اند (همانطور که در مدارس دیدیم) cbsnews.com. آموزش جوانان درباره پیامدهای اخلاقی و قانونی نیز بخشی از مدیریت است – برخی مدارس شروع به گنجاندن آگاهی درباره دیپ‌فیک در برنامه‌های سواد دیجیتال کرده‌اند nea.org.
  • همکاری و بهترین رویه‌ها: مبارزه با سوءاستفاده از هوش مصنوعی منجر به همکاری‌هایی بین شرکت‌های فناوری، نیروهای انتظامی و سازمان‌های غیردولتی شده است. ابتکاراتی مانند گروه یکپارچگی رسانه‌ای Partnership on AI یا ائتلاف برای منشأ و اصالت محتوا (C2PA) با هدف تعیین استانداردهایی برای احراز اصالت محتوا شکل گرفته‌اند. شرکت‌ها ممکن است متادیتایی درباره نحوه تولید یک تصویر/ویدیو (دوربین در مقابل نرم‌افزار هوش مصنوعی) اضافه کنند. در همین حال، نیروهای انتظامی در حال آموزش درباره دیپ‌فیک هستند تا گزارش‌های قربانیان را جدی بگیرند و بدانند چگونه شواهد را جمع‌آوری کنند. یوروپل در سال ۲۰۲۳ پورن دیپ‌فیک را به عنوان یک تهدید نوظهور شناسایی کرد و از کشورهای عضو خواست منابعی برای مقابله با آن اختصاص دهند theguardian.com.
  • محدودیت‌ها بر مدل‌های هوش مصنوعی: یکی از خطوط دفاعی مستقیم‌تر، محدود کردن توزیع مدل‌هایی است که قادر به تولید محتوای مضر هستند. برخی مخازن مدل‌های هوش مصنوعی شرایطی دارند: برای مثال، Stability AI تصمیم گرفت به طور رسمی هیچ تصویر آشکارا پورنوگرافیکی را در مجموعه داده آموزشی Stable Diffusion 2.0 خود قرار ندهد، تا حدی برای جلوگیری از اینکه مدل در تولید پورن بیش از حد خوب شود (کاربران شکایت کردند که مدل جدید «محافظه‌کار» شده است). Hugging Face (هاب مدل‌های هوش مصنوعی) گاهی میزبانی مدل‌هایی را که آشکارا برای پورن ساخته شده‌اند رد می‌کند یا یک هشدار بزرگ اضافه می‌کند که کاربران باید موافقت کنند از آن سوءاستفاده نکنند. همچنین یک مورد قابل توجه وجود داشت: در اواخر ۲۰۲۲، سایت جمع‌سپاری Kickstarter یک کمپین برای «Unstable Diffusion» را ممنوع کرد که تلاشی برای جمع‌آوری پول جهت ساخت یک مدل هوش مصنوعی بهینه‌شده برای پورن بود. Kickstarter به سیاستی علیه پروژه‌های هوش مصنوعی پورنوگرافیک استناد کرد و آن را تعطیل کرد arnoldit.com. این اتفاق نشان داد که حتی تأمین مالی و حمایت از هوش مصنوعی NSFW نیز ممکن است با موانعی روبرو شود. فروشگاه‌های اپلیکیشن مانند اپل نیز نسبت به اپ‌های هوش مصنوعی بدون فیلتر خصمانه هستند – اپل برخی از اپ‌های تولید تصویر هوش مصنوعی را که می‌توانستند خروجی NSFW تولید کنند حذف کرد و توسعه‌دهندگان را مجبور به افزودن فیلتر کرد. بنابراین، دسترسی به پیشرفته‌ترین مدل‌های هوش مصنوعی ممکن است تا حدی توسط سیاست‌های شرکتی محدود شود. با این حال، مدل‌های واقعاً متن‌باز به راحتی قابل مهار نیستند – پس از انتشار، آن‌ها در تورنت‌ها و انجمن‌ها پخش می‌شوند. بنابراین این یک اقدام محدود است.

مدیریت محتوا در عصر پورن هوش مصنوعی بدون شک چالش‌برانگیز است. حجم محتوای بالقوه ناقض بسیار زیاد و رو به رشد است. اما فناوری برای مقابله با فناوری در حال پیشرفت است: خود هوش مصنوعی برای مقابله با هوش مصنوعی به کار گرفته می‌شود. برای مثال، گزارش شده که Meta از طبقه‌بندهای یادگیری ماشین برای شناسایی چهره‌های شناخته‌شده در تصاویر برهنه برای شناسایی دیپ‌فیک‌های سلبریتی‌ها و همچنین شناسایی آرتیفکت‌های ترکیب معمول دیپ‌فیک‌ها استفاده می‌کند. استارتاپ‌هایی مانند Reality Defender خدماتی به شرکت‌ها ارائه می‌دهند تا محتوای دیپ‌فیک را به صورت آنی اسکن و پاک‌سازی کنند realitydefender.com. و قدرت قانونی که اکنون توسط قوانین جدید داده شده، به این معناست که پلتفرم‌هایی که در این اقدامات سرمایه‌گذاری نکنند با خطر جریمه‌های سنگین یا دادخواست مواجه‌اند.

یکی از مسیرهای امیدوارکننده، ایده رسانه‌های احراز هویت‌شده است: اگر مثلاً همه تولیدکنندگان قانونی پورن ویدیوهای خود را به صورت رمزنگاری‌شده به عنوان واقعی امضا کنند، هر چیزی که بدون امضا ادعا کند «ویدیوی جنسی فلان شخص» است می‌تواند مشکوک تلقی شود. اجرای جهانی این کار پیچیده است، اما مفهوم منشأ (provenance) در حال بررسی است (نه فقط برای پورن، بلکه برای همه رسانه‌ها، برای مقابله با اطلاعات نادرست).

در نهایت، تعدیل محتوا هرگز بی‌نقص نخواهد بود – هنوز هم بسیاری از موارد از طریق وب وحشی عبور خواهند کرد. پلتفرم‌های رمزگذاری‌شده یا غیرمتمرکز بدترین محتوا را در خود جای خواهند داد. اما حداقل در عرصه‌های جریان اصلی و قانونی، تلاشی هماهنگ برای کاهش آسیب NSFW AI وجود دارد. امید این است که محیطی ایجاد شود که استفاده‌های مشروع (محتوای بزرگسالان با رضایت، هنر فانتزی و غیره) بتوانند وجود داشته باشند اما استفاده‌های مخرب به سرعت شناسایی و حذف شوند. این کار بزرگی است – که قربانیان آن را مانند بازی «whack-a-mole» توصیف کرده‌اند klobuchar.senate.gov – اما جعبه‌ابزار قوانین، آشکارسازهای هوش مصنوعی، سیاست‌های پلتفرم و آموزش کاربران در کنار هم یک دفاع چندلایه ایجاد می‌کنند.

پیامدها و آینده: تأثیر بر سازندگان و صنعت بزرگسالان

همانطور که NSFW AI وضعیت موجود را مختل می‌کند، در حال حاضر بر افراد واقعی در اکوسیستم سرگرمی بزرگسالان – از ستارگان پورن و کارگران جنسی تا هنرمندان اروتیک و استودیوهای تولید محتوا – تأثیر می‌گذارد. برخی در فناوری جدید فرصت می‌بینند، در حالی که دیگران می‌ترسند که منسوخ شوند یا ناخواسته درگیر آن شوند.

اجراکنندگان بزرگسال و کارگران جنسی: شاید مستقیم‌ترین تأثیر بر کسانی باشد که با تولید محتوای بزرگسالان امرار معاش می‌کنند. از یک سو، برخی از سازندگان زیرک در حال پذیرش هوش مصنوعی برای تقویت کار خود هستند. برای مثال، مدل‌های بزرگسال می‌توانند از تولیدکننده‌های عکس هوش مصنوعی برای تولید تصاویر بهبود یافته یا استایل‌شده از خودشان برای فروش استفاده کنند (و دیگر نیازی به عکاسی‌های پرهزینه ندارند) – به شرطی که تصاویر هنوز شبیه خودشان باشد و با قوانین پلتفرم مطابقت داشته باشد reddit.com. چند اینفلوئنسر با ساخت «نسخه‌های هوش مصنوعی» از خودشان خبرساز شده‌اند: مثلاً در سال ۲۰۲۳ یک اینفلوئنسر به نام Caryn Marjorie یک چت‌بات هوش مصنوعی از شخصیت خود راه‌اندازی کرد که طرفداران می‌توانستند برای چت صمیمی با او پول پرداخت کنند. به طور مشابه، مفهوم «دوقلوهای دیجیتال» استارتاپ Oh به این معناست که یک ستاره پورن می‌تواند تصویر خود را مجوز دهد تا یک آواتار هوش مصنوعی بسازد که برای طرفداران چت یا اجرا کند و یک منبع درآمد جدید با حداقل کار اضافی ایجاد کند sifted.eu. این اقدامات نشان می‌دهد که برخی در این صنعت هوش مصنوعی را ابزاری برای مقیاس‌پذیری خود می‌دانند – آن‌ها از نظر تئوری می‌توانند از طریق هوش مصنوعی به طرفداران بیشتری سرگرمی ارائه دهند تا آنچه به صورت حضوری ممکن است.

از سوی دیگر، بسیاری از اجراکنندگان نگران هستند. اگر طرفداران بتوانند محتوای فانتزی خود را به صورت سفارشی توسط هوش مصنوعی دریافت کنند، آیا دیگر به افراد واقعی پولی پرداخت خواهند کرد؟ گزارش‌هایی وجود داشته که پروفایل‌های تولیدشده توسط هوش مصنوعی در OnlyFans ظاهر شده‌اند که از زنان کاملاً ساختگی (اما واقع‌گرایانه) استفاده می‌کنند، گاهی با واترمارک #AI پس از ایجاد شک، محتوایی ارزان‌تر می‌فروشند یا کاربران را در reddit.com اسپم می‌کنند. این نوع رقابت می‌تواند به درآمد خالقان واقعی آسیب بزند. برخی از کارگران جنسی می‌گویند دیدن استانداردی نوظهور که موفقیت را به معنای تولید محتوا به صورت ۲۴ ساعته و ۷ روز هفته مانند یک الگوریتم می‌داند، «دلسردکننده» است – استانداردی که برای انسان غیرممکن اما برای هوش مصنوعی آسان است و بنابراین به انسان‌ها فشار می‌آورد که یا از هوش مصنوعی استفاده کنند یا عقب بمانند reddit.com. همچنین یک جنبه احساسی وجود دارد: همان‌طور که یک خالق باتجربه نوشت، استفاده از هوش مصنوعی برای «تقلب» مؤثر با تولید بدنی بی‌نقص یا خروجی بی‌پایان، باعث می‌شود تلاش واقعی و اصالت خالقان انسانی بی‌ارزش شود reddit.com. او درباره کسانی که با هوش مصنوعی محتوای جعلی تولید می‌کنند گفت: «این یک حرکت ناجوانمردانه است – بی‌احترامی به طرفدارانم… و به زحمتی که برای بدن [و محتوای] خودم کشیده‌ام» reddit.com.

ما هم‌اکنون شاهد برخی واکنش‌ها و سازگاری‌ها هستیم: خالقانی که با هم متحد می‌شوند تا پروفایل‌های جعلی هوش مصنوعی را افشا کنند و پلتفرم‌هایی که سیاست‌های خود را تنظیم می‌کنند تا اطمینان دهند خالقان واقعی توسط هوش مصنوعی جعل هویت نمی‌شوند. OnlyFans، همان‌طور که اشاره شد، استفاده از چهره دیگران را ممنوع کرده و برچسب‌گذاری محتوای هوش مصنوعی را الزامی می‌کند reddit.com. حتی صحبت‌هایی درباره پیگیری قانونی خالقان علیه نمونه‌های جعلی هوش مصنوعی وجود داشته است – مثلاً شایعه‌ای درباره شکایت برای حذف حساب‌های رباتی در OnlyFans reddit.com. علاوه بر این، اجراکنندگان درباره رضایت و حقوق تصویر نگران هستند – مثلاً یک بازیگر بازنشسته پورن ممکن است ببیند صحنه‌های گذشته‌اش برای آموزش هوش مصنوعی استفاده می‌شود که اکنون ویدیوهای صریح جدیدی از «او» بدون رضایت یا پرداختی تولید می‌کند. این مشابه نگرانی بازیگران هالیوود درباره استفاده هوش مصنوعی از چهره‌شان است – با این تفاوت که بازیگران پورن حتی بیشتر در معرض خطر هستند چون تصویرشان به موضوعی بسیار حساس گره خورده است. این صنعت ممکن است نیاز داشته باشد چیزی شبیه موضع اتحادیه بازیگران سینما ایجاد کند، جایی که بازیگران بتوانند درباره نحوه شبیه‌سازی‌شان توسط هوش مصنوعی مذاکره کنند. در واقع، رویکرد دانمارک در اعطای کپی‌رایت چهره به افراد می‌تواند به اجراکنندگان سراسر جهان قدرت دهد تا مالکیت چهره/بدن خود را در این زمینه‌ها مطالبه کنند euronews.com.

استودیوها و تهیه‌کنندگان: استودیوهای پورن سنتی نیز ممکن است دچار اختلال شوند. اگر یک تیم کوچک با ابزارهای هوش مصنوعی بتواند یک ویدیوی بزرگسالان قابل قبول بدون استخدام بازیگر تولید کند، استودیوهای بزرگ مزیت خود را از دست می‌دهند. با این حال، ویدیوی هوش مصنوعی فعلی هنوز به کیفیت استودیوهای حرفه‌ای برای محتوای طولانی نرسیده است – عمدتاً کلیپ‌های کوتاه هستند یا نیاز به ترکیب با فیلم واقعی دارند. برخی استودیوها ممکن است شروع به استفاده از هوش مصنوعی برای افکت‌های ویژه یا پس‌تولید کنند (مثلاً جوان‌سازی بازیگران، بهبود جلوه‌های بصری، یا حتی حذف تتوهای شناسایی برای ناشناس ماندن). استفاده‌ی احتمالی دیگر: تولید انیمیشن‌های بزرگسالان واقع‌گرایانه که قبلاً ساخت آن‌ها به صورت دستی پرهزینه بود. اما استودیوها همچنین با تهدید رفتارهای شبیه به دزدی دریایی مواجه‌اند: افراد سودجو می‌توانند با هوش مصنوعی نسخه‌های تقلبی از محتوای ممتاز یا مدل‌ها بسازند. برای مثال، اگر استودیویی یک ستاره محبوب تحت قرارداد داشته باشد، ممکن است کسی آن ستاره را با دیپ‌فیک وارد صحنه‌های جدید کند و آن‌ها را منتشر کند. این موضوع می‌تواند به سود استودیو و برند ستاره آسیب بزند. استودیوها ممکن است با اجرای قوی‌تر علائم تجاری یا حقوق شخصیت استعدادهای قراردادی خود واکنش نشان دهند. ممکن است شاهد همکاری استودیوهای پورن با شرکت‌های فناوری برای تولید محتوای هوش مصنوعی مجاز از ستاره‌های خود (با تقسیم درآمد) پیش از دزدان دریایی باشیم، به عنوان یک اقدام دفاعی.هنرمندان و نویسندگان اروتیک: فراتر از اجراکنندگان ویدیویی، به کسانی فکر کنید که کمیک، تصویرسازی یا ادبیات اروتیک خلق می‌کنند. هوش مصنوعی هم‌اکنون قادر به تقلید سبک‌های هنری است – به ویژه جامعه هنری هنتای در اواخر ۲۰۲۲ با هجوم آثار اروتیک انیمه تولیدشده توسط هوش مصنوعی مواجه شد که باعث اختلافاتی شد. برخی سفارش‌دهندگان به جای پرداخت به هنرمندان انسانی، از هوش مصنوعی استفاده کردند و دلیل آن را هزینه و راحتی عنوان کردند. هنرمندان در پلتفرم‌هایی مانند DeviantArt (که به خاطر معرفی قابلیت‌های هوش مصنوعی با واکنش منفی روبه‌رو شد) اعتراض کردند. این نگرانی وجود دارد که بازار هنر و داستان سفارشی اروتیک فروبپاشد وقتی هر کسی بتواند کمیک یا داستان اروتیک شخصی‌سازی‌شده را رایگان تولید کند. با این حال، علاقه‌مندان اشاره می‌کنند که هوش مصنوعی هنوز در داستان‌سرایی پیچیده و هنر واقعاً پالایش‌شده مشکل دارد – هنرمندان انسانی سطحی از خلاقیت و احساس را ارائه می‌دهند که هوش مصنوعی ممکن است فاقد آن باشد. نتیجه محتمل، رویکردی ترکیبی است: هنرمندان از هوش مصنوعی برای پیش‌نویس یا رنگ‌آمیزی آثار استفاده می‌کنند و سپس لمس‌های خود را اضافه می‌کنند. اما هنرمندان کمتر شناخته‌شده ممکن است رقابت با خروجی‌های تک‌کلیکی هوش مصنوعی که بسیاری از بینندگان آن را «به اندازه کافی خوب» می‌دانند، برایشان دشوار باشد. این موضوع شاید نیاز به یک ارزش «دست‌ساز اصیل» جدید در هنر اروتیک را ایجاد کند، مشابه اینکه برخی طرفداران حاضرند برای دانستن اینکه یک انسان واقعاً آن را ساخته، هزینه بیشتری بپردازند.موضع صنعت بزرگسالان: جالب است که شرکت‌های بزرگ سرگرمی بزرگسالان تاکنون نسبت به هوش مصنوعی نسبتاً ساکت بوده‌اند. شاید به این دلیل که در حال بررسی استراتژی‌های خود به صورت داخلی هستند یا چون جلب توجه می‌تواند نظارت بیشتری را به دنبال داشته باشد. صنعت بزرگسالان به طور تاریخی در پذیرش فناوری سریع عمل کرده است (اینترنت، وب‌کم، پورن واقعیت مجازی و غیره را زود پذیرفت). هم‌اکنون شاهد فروش محتوای «شبیه‌سازی‌شده با دیپ‌فیک از چهره سلبریتی» در سایت‌های بزرگسالان هستیم (که در برخی کشورها منطقه خاکستری قانونی است) و آزمایش با توصیه‌گرهای مبتنی بر هوش مصنوعی. در دنیای کمینگ، برخی سایت‌های کمینگ با چت‌بات‌های هوش مصنوعی برای حفظ تعامل مشتریان زمانی که مدل‌ها آفلاین هستند، آزمایش کرده‌اند. اما جایگزینی کامل سرگرم‌کنندگان انسانی با هوش مصنوعی هنوز در پلتفرم‌های اصلی رخ نداده است، تا حدی به دلیل عدم بلوغ فناوری و ترجیح کاربران به تعامل واقعی.با این حال، فشار اقتصادی ممکن است باعث سازگاری شود. اگر به طور فرضی، در ۲ تا ۳ سال آینده هوش مصنوعی بتواند بنا به درخواست، یک ویدیوی پورن فول اچ‌دی از هر دو سلبریتی تولید کند، بازار پورن حرفه‌ای با بازیگران ناشناس ممکن است افت کند – چرا باید پول داد یا اشتراک خرید وقتی فانتزی‌های بی‌نهایت و رایگان در دسترس است؟ این صنعت ممکن است به سمت تأکید بر اصالت، تعامل زنده و جامعه حرکت کند – چیزهایی که هوش مصنوعی نمی‌تواند ارائه دهد. ممکن است شاهد بازاریابی پورن با برچسب‌هایی مانند «۱۰۰٪ انسانی، لذت واقعی» به عنوان نقطه فروش باشیم، به طرز طنزآمیزی. از سوی دیگر، این صنعت ممکن است برای کاهش هزینه‌ها از هوش مصنوعی استفاده کند – مثلاً یک بازیگر اجرا کند و سپس با هوش مصنوعی چهره او را تغییر دهند تا چندین ویدیوی «متفاوت» از یک برداشت بسازند (ترجیحاً با رضایت). این سناریو مسائل اخلاقی را مطرح می‌کند (آیا بینندگان می‌دانند که این همان فرد است که تغییر چهره داده؟ آیا بازیگر برای هر ویدیوی متغیر دستمزد می‌گیرد یا فقط یک بار؟).

یک تأثیر مثبت می‌تواند بر ایمنی باشد: اگر هوش مصنوعی بتواند اعمال پرخطر را شبیه‌سازی کند، استودیوها ممکن است از آن برای جلوگیری از به خطر انداختن بازیگران استفاده کنند. برای مثال، به جای اینکه بازیگران یک بدل‌کاری افراطی انجام دهند، می‌توانند چیزی ساده فیلمبرداری کنند و بخش شدید را با هوش مصنوعی تولید کنند. یا همان‌طور که اشاره شد، یک بازیگر می‌تواند با لباس فیلمبرداری کند و هوش مصنوعی نسخه برهنه را تولید کند، که می‌تواند راهی باشد برای اینکه کسی بدون واقعاً برهنه بودن در صحنه، در پورن ظاهر شود (هرچند این ایده خود بحث‌هایی درباره اصالت و رضایت ایجاد می‌کند).

تقسیم‌بندی بازار: به احتمال زیاد بازار محتوای بزرگسالان به سطوح مختلف تقسیم خواهد شد:

  • محتوای انسانی سطح بالا که بر تعامل واقعی تأکید دارد (ویدیوهای شخصی‌سازی‌شده، OnlyFans با تعامل مستقیم سازنده، نمایش‌های زنده – چیزهایی که حضور انسانی اصل ماجراست).
  • محتوای تولیدشده با هوش مصنوعی که می‌تواند بسیار ارزان یا رایگان باشد و سایت‌های اشتراکی یا کانال‌های خصوصی را پر کند. این نوع محتوا ممکن است نیاز مصرف‌کنندگان عادی یا کسانی با فانتزی‌های خاص (سلبریتی و غیره) را برآورده کند. اگر پورن دیپ‌فیک همچنان نیمه‌غیرقانونی بماند، ممکن است بیشتر زیرزمینی یا در انجمن‌های غیرتجاری باقی بماند.
  • محتوای ترکیبی که در آن سازندگان از هوش مصنوعی استفاده می‌کنند اما همچنان درگیر هستند. برای مثال، یک مدل ممکن است مجموعه‌هایی از تصاویر خود را که با هوش مصنوعی تقویت شده‌اند بفروشد – در واقع چهره خودش اما بهبود یافته یا در صحنه‌های خیالی توسط هوش مصنوعی قرار گرفته. تا زمانی که شفاف و با رضایت باشد، طرفداران ممکن است از این تنوع استقبال کنند.
تأثیر روانی و اجتماعی بر سازندگان محتوا: نمی‌توان از فشارهای عاطفی که بر سازندگان وارد می‌شود، چشم‌پوشی کرد؛ چه دیدن چهره خودشان بدون رضایت در محتوای دیگران باشد یا صرفاً فشار رقابت با ماشین‌ها. نظرات کاربران ردیت از میان سازندگان OnlyFans به‌وضوح اضطراب و حتی ناامیدی را نشان می‌داد reddit.com reddit.com. این موضوع مشابه اتفاقاتی است که در سایر حوزه‌های خلاقانه (هنرمندان، بازیگران) درباره هوش مصنوعی رخ می‌دهد – اما در کار بزرگسالان، انگ اجتماعی و نبود حمایت نهادی باعث می‌شود ابراز نگرانی یا درخواست حمایت برای آن‌ها دشوارتر باشد. ممکن است شاهد باشیم گروه‌های حمایت از کارگران جنسی تمرکز خود را به حقوق دیجیتال و هوش مصنوعی گسترش دهند و برای مواردی مانند حق حذف شدن از داده‌های آموزشی یا ممنوعیت دیپ‌فیک بدون رضایت اجراکنندگان مبارزه کنند. اتحادیه‌ها (مانند انجمن بازیگران بزرگسال در آمریکا) ممکن است بندهای مربوط به هوش مصنوعی را در قراردادها مذاکره کنند. برای مثال، یک اجراکننده ممکن است اصرار کند که استودیو از تصاویر او برای آموزش هوش مصنوعی که می‌تواند در آینده جایگزین تصویرش شود، استفاده نکند یا حداقل در صورت استفاده، به او حق‌الزحمه پرداخت کند.در مورد رفتار مصرف‌کننده، شواهد اولیه و روایتی نشان می‌دهد بسیاری از بینندگان پورن هنوز ترجیح می‌دهند بدانند چیزی واقعی است – جذابیت اجراکنندگان انسانی واقعی وجود دارد. برخی کاربران گزارش داده‌اند که پورن هوش مصنوعی گاهی «بی‌روح» یا کمتر رضایت‌بخش به نظر می‌رسد، به‌ویژه پس از فروکش کردن تازگی آن. بنابراین، سازندگان انسانی ممکن است با تأکید بر اصالت و ارتباط شخصی خود که هوش مصنوعی واقعاً نمی‌تواند آن را تقلید کند، مخاطبان خود را حفظ کنند. با این حال، با پیشرفت هوش مصنوعی، این فاصله ممکن است کمتر شود و نسل‌های جوان‌تر که با هوش مصنوعی بزرگ شده‌اند، شاید تفاوتی قائل نشوند.فرصتی برای استعدادهای جدید؟ یک جنبه جالب دیگر این است که هوش مصنوعی می‌تواند موانع ورود به فضای محتوای بزرگسال را به‌صورت کنترل‌شده کاهش دهد. کسی که هرگز حاضر نیست بدن یا چهره واقعی خود را به اشتراک بگذارد، ممکن است یک شخصیت هوش مصنوعی – یک آواتار سکسی خیالی – بسازد و محتوای آن آواتار را بفروشد. در اصل، تبدیل شدن به یک مدل OnlyFans یا camgirl از طریق یک واسطه هوش مصنوعی. برخی کاربران این کار را با موفقیت‌های متفاوت امتحان کرده‌اند. این موضوع راه را برای کسب درآمد از فانتزی‌ها بدون افشای هویت یا بدن واقعی باز می‌کند. با این حال، پلتفرم‌ها در حال حاضر برای جلوگیری از فریب و مسائل مربوط به سن، احراز هویت را الزامی می‌دانند، بنابراین فرد همچنان باید ثبت‌نام کند و احتمالاً اعلام کند که محتوا تولیدشده توسط هوش مصنوعی و مربوط به یک شخصیت خیالی است. اگر این اجازه داده شود، می‌تواند دسته جدیدی از سازندگان محتوا را به وجود آورد: سازندگان بزرگسال مبتنی بر هوش مصنوعی که افراد واقعی و صاحب کسب‌وکار هستند اما محصول آن‌ها یک شخصیت کاملاً مجازی است. آن‌ها با مدل‌های واقعی رقابت خواهند کرد. آیا کاربران حاضرند برای یک مدل «جعلی» پول پرداخت کنند؟ احتمالاً، اگر آن مدل به‌اندازه کافی جذاب و تعاملی باشد، و به‌ویژه اگر در ابتدا متوجه نشوند که جعلی است. می‌توان تصور کرد برخی کاربران حتی ترجیح دهند یک مدل هوش مصنوعی داشته باشند که «همیشه در دسترس است و هیچ‌وقت روز بدی ندارد». این موضوع به دلایل واضحی برای اجراکنندگان انسانی نگران‌کننده است.

تأثیرات قانونی و مقرراتی بر صنعت: با وضع قوانین جدید درباره دیپ‌فیک‌ها، پلتفرم‌های بزرگسالان انگیزه‌های قانونی برای ممنوعیت هرگونه محتوای بدون رضایت دارند. این موضوع ممکن است به طرز طنزآمیزی موقعیت کسب‌وکارهای بزرگسالان تثبیت‌شده و تحت نظارت (که فقط با اجراکنندگان رضایت‌مند کار می‌کنند) را در برابر سایت‌های هوش مصنوعی غیرقانونی تقویت کند. اگر اجرای قانون قوی باشد، کاربرانی که به دنبال پورن دیپ‌فیک هستند ممکن است دسترسی سخت‌تری داشته باشند، که می‌تواند آن‌ها را به منابع غیرقانونی دارک‌وب سوق دهد یا آن عادت را کاهش دهد. در همین حال، تولیدات هوش مصنوعی با رضایت (مانند مدلی که به نسخه هوش مصنوعی خودش رضایت می‌دهد) ممکن است به یک دسته محصول دارای مجوز جدید تبدیل شود. این موضوع نیازمند شفاف‌سازی قانونی است: مثلاً آیا یک مدل می‌تواند کپی‌رایت یا علامت تجاری روی چهره‌اش بگیرد تا بتواند از کسی که بدون اجازه‌اش یک کلون هوش مصنوعی از او می‌سازد شکایت کند؟ برخی کشورها مانند دانمارک و احتمالاً قوانین ایالتی آینده آمریکا به سمت این ایده حرکت می‌کنند euronews.com. این کار به اجراکنندگان کمک می‌کند تا از برند خود محافظت کنند.

جمع‌بندی تأثیرات: صنعت محتوای بزرگسالان در آغاز یک تغییر پارادایم بالقوه قرار دارد. کسانی که خود را تطبیق دهند – با استفاده اخلاقی و شفاف از هوش مصنوعی – می‌توانند رشد کنند یا حداقل دوام بیاورند. کسانی که آن را نادیده بگیرند ممکن است در برابر موج عظیم محتوا و تغییر عادات مصرف‌کننده دچار مشکل شوند. همان‌طور که یک کارآفرین هوش مصنوعی درباره همراهان هوش مصنوعی گفت: «هر نوآوری جدیدی می‌تواند مانند یک تغییر شدید به نظر برسد… این یک تکامل است» sifted.eu. سؤال این است که آیا این تکامل مکمل اکوسیستم فعلی خالقان خواهد بود یا آن را از بین خواهد برد.

نتیجه‌گیری: مرز اروتیک جدید، آکنده از معضلات

ظهور هوش مصنوعی NSFW بی‌تردید یک جعبه پاندورا را گشوده است. تنها در چند سال، شاهد بوده‌ایم که هوش مصنوعی از تولید تصاویر خنده‌دار گربه به تولید عکس‌های برهنه جعلی رسیده که می‌تواند زندگی یک فرد را نابود کند. این فناوری قدرتمند، دو لبه و ماندگار است. از یک سو، به افراد عادی این امکان را می‌دهد که هر تصویر یا سناریوی اروتیک دلخواه خود را خلق کنند و مرز بین مصرف‌کننده و خالق را در سرگرمی بزرگسالان کمرنگ می‌کند. این فناوری نوید لذت شخصی‌سازی‌شده، اکتشاف خلاقانه و شاید مدل‌های تجاری جدید را در صنعتی چند میلیارد دلاری که اغلب از نظر فناوری راکد بوده، می‌دهد. از سوی دیگر، هوش مصنوعی NSFW اشکال جدیدی از سوءاستفاده را دامن زده است – برخی آن را «تجاوز دیجیتال» می‌نامند – با گرفتن کنترل تصاویر و بدن افراد (عمدتاً زنان) در فضای دیجیتال. این فناوری نظام‌های حقوقی ما را به چالش می‌کشد، نظام‌هایی که برای به‌روزرسانی تعاریف جعل هویت، پورنوگرافی و رضایت در عصر هوش مصنوعی تلاش می‌کنند. همچنین جامعه را وادار می‌کند تا با پرسش‌های ناراحت‌کننده‌ای درباره ماهیت تمایلات جنسی، آزادی بیان و ارتباط انسانی زمانی که توسط هوش مصنوعی تقویت یا شبیه‌سازی می‌شود، روبه‌رو شود.

تا اواخر سال ۲۰۲۵، پاندول به سمت تدابیر حفاظتی و پاسخگویی در حرکت است. قوانین عمده در ایالات متحده و اتحادیه اروپا، سرکوب‌ها در آسیا و تغییرات سیاستی پلتفرم‌ها همگی نشان می‌دهند که پورن غیرتوافقی تولیدشده با هوش مصنوعی به طور گسترده‌ای غیرقابل قبول تلقی می‌شود. همزمان، فناوری‌هایی برای شناسایی و جلوگیری از سوءاستفاده‌ها در حال توسعه است، حتی با وجود اینکه خود فناوری تولیدکننده نیز پیشرفت می‌کند. می‌توان انتظار داشت که پویایی موش و گربه ادامه یابد: هر اقدام ایمنی جدید ممکن است با تکنیک‌های دور زدن جدید توسط افراد بد نیت مواجه شود. اما آگاهی جمعی اکنون بسیار بالاتر است – پورن هوش مصنوعی دیگر یک پدیده عجیب و غریب اینترنتی نیست؛ بلکه به موضوعی اصلی در پارلمان‌ها و اتاق‌های خبر تبدیل شده است. این آگاهی عمومی می‌تواند قربانیان را توانمند کند تا صدای خود را بلند کنند و خواستار عدالت شوند و شرکت‌ها را به پذیرش مسئولیت وادار کند.

در آینده، همکاری جهانی کلیدی خواهد بود. این مسائل به مرزها محدود نمی‌شوند – یک دیپ‌فیک ساخته‌شده در یک کشور می‌تواند زندگی کسی را در کشوری دیگر نابود کند. مهم خواهد بود که دولت‌ها بهترین تجربیات را به اشتراک بگذارند (همانطور که نظرسنجی یورونیوز از قوانین اروپایی نشان می‌دهد، بسیاری از کشورها از رویکردهای یکدیگر می‌آموزند euronews.com euronews.com). شاید در سال‌های آینده یک چارچوب یا معاهده بین‌المللی برای مقابله با سوءاستفاده جنسی مبتنی بر تصویر شکل بگیرد و بدترین تخلفات را به عنوان جنایت علیه حقوق بشر تلقی کند. در این میان، گروه‌های جامعه مدنی و مربیان باید به افزایش آگاهی، آموزش سواد رسانه‌ای (تا مردم قبل از باور یا اشتراک‌گذاری محتوای صمیمی «لو رفته» دوبار فکر کنند) و حمایت از قربانیان ادامه دهند.

با وجود تمام تاریکی‌های مرتبط با هوش مصنوعی NSFW، شایان ذکر است که همه چیز ناامیدکننده نیست. در زمینه‌های توافقی، برخی افراد واقعاً از آن خوشبختی کسب می‌کنند – چه زوجی که با سناریوهای نقش‌آفرینی تولیدشده توسط هوش مصنوعی به رابطه خود تنوع می‌دهند، چه یک خالق بزرگسال که با استفاده از یک شخصیت هوش مصنوعی به طور ایمن از خانه درآمد کسب می‌کند، یا صرفاً افرادی که بالاخره فانتزی خاص خود را در یک اثر هنری یا داستان هوش مصنوعی می‌بینند. این کاربردها نباید در بحث‌ها گم شوند؛ آن‌ها تأکید می‌کنند که خود فناوری ذاتاً شرور نیست. این یک ابزار است – ابزاری که نیت‌های انسانی، چه خوب و چه بد، را تقویت می‌کند. وظیفه ما این است که استفاده از آن را به سمت اهداف توافقی و خلاقانه هدایت کنیم و به شدت در برابر اهداف مخرب محافظت کنیم.

هنرمندان، خالقان و سکس‌ورکرها – افرادی که در دنیای محتوای بزرگسال فعالیت می‌کنند – احتمالاً به سازگاری و ایجاد فضاهای جدید در این عرصه ادامه خواهند داد. بسیاری از آن‌ها برای اطمینان از اینکه «اخلاق هوش مصنوعی» شامل صدای آن‌ها نیز باشد، مبارزه می‌کنند و خواستار سازوکارهای رضایت و جبران هستند. آن‌ها در واقع خواسته‌ای ساده دارند: بدون اجازه از ما چیزی نگیرید. جامعه به طور کلی با این اصل در همه حوزه‌های هوش مصنوعی، از هنر تا خبر تا پورن، دست و پنجه نرم می‌کند.

در پایان، NSFW AI در تقاطع فناوری، تمایلات جنسی، قانون و اخلاق قرار دارد. این فناوری ما را به چالش می‌کشد تا مفاهیم رضایت، حریم خصوصی، و حتی خود واقعیت را در عصر دیجیتال بازتعریف کنیم. نیمه دوم دهه ۲۰۲۰ نقطه عطفی در تعیین هنجارها و قوانین حاکم بر این حوزه خواهد بود. آیا به سوی آینده‌ای می‌رویم که پورن هوش مصنوعی فراگیر اما به شدت قانون‌مند باشد و عمدتاً برای اهداف خوب یا خنثی استفاده شود؟ یا شاهد تکه‌تکه شدن این حوزه خواهیم بود، جایی که رسانه‌های اصلی آن را حذف می‌کنند اما در گوشه‌های تاریک، مانند یک تجارت غیرقانونی، رونق می‌گیرد؟ نتیجه به تصمیماتی بستگی دارد که اکنون توسط قانون‌گذاران، شرکت‌های فناوری و کاربران گرفته می‌شود.

یک چیز قطعی است: جن از بطری بیرون آمده است. ما نمی‌توانیم NSFW AI را از نو اختراع‌نشده کنیم. اما می‌توانیم و باید یاد بگیریم که مسئولانه با آن زندگی کنیم. به عنوان کاربر، این یعنی احترام به کرامت دیگران هنگام استفاده از این ابزارها؛ به عنوان شرکت‌ها، ایجاد ایمنی از همان ابتدا؛ به عنوان دولت‌ها، تعیین مرزهای روشن؛ و به عنوان جوامع، عدم تحمل سوءاستفاده‌ها. با هوشیاری و همدلی، امید این است که مرحله «غرب وحشی» پورن هوش مصنوعی به سرزمینی متمدن‌تر تبدیل شود – جایی که بزرگسالان با رضایت بتوانند از اشکال جدید هنر اروتیک و ارتباط لذت ببرند، در حالی که کسانی که قصد سوءاستفاده از این فناوری را دارند، دور نگه داشته می‌شوند. داستان NSFW AI هنوز در حال نگارش است و اواسط ۲۰۲۵ تنها فصل اول آن است. واکنش جامعه اکنون تعیین خواهد کرد که آیا این فناوری در نهایت محتوای صمیمی ما را غنی‌تر می‌کند یا به خطر می‌اندازد.

منابع:

  • اورموس، ویل. «کنگره لایحه‌ای برای مقابله با تصاویر برهنه دیپ‌فیک و انتقام‌جویی تصویب کرد.» واشنگتن پست (از طریق سایت سنای کلوبوچار)، ۲۸ آوریل ۲۰۲۵ klobuchar.senate.gov klobuchar.senate.gov.
  • فاوکس، وایولت. «۸ بهترین تولیدکننده تصویر NSFW با هوش مصنوعی – یافتن لذت در تقاطع کد و رضایت.» شیکاگو ریدر، ۱۳ آوریل ۲۰۲۵ chicagoreader.com chicagoreader.com.
  • مهدوی، اَروا. «پورن دیپ‌فیک غیررضایتی یک وضعیت اضطراری است که زندگی‌ها را نابود می‌کند.» گاردین، ۱ آوریل ۲۰۲۳ theguardian.com theguardian.com.
  • فریس، لیلا. “سایت پورن تولیدشده با هوش مصنوعی Mr. Deepfakes پس از قطع حمایت ارائه‌دهنده خدمات تعطیل شد.” سی‌بی‌اس نیوز، ۵ مه ۲۰۲۵ cbsnews.com cbsnews.com.
  • سی‌بی‌اس نیوز/ای‌اف‌پی. “رسوایی پورن تولیدشده با هوش مصنوعی دانشگاه هنگ‌کنگ را لرزاند؛ پس از آنکه دانشجوی حقوق ظاهراً دیپ‌فیک ۲۰ زن را ساخت.” سی‌بی‌اس نیوز، ۱۵ ژوئیه ۲۰۲۵ cbsnews.com cbsnews.com.
  • لیونز، امت. “کره جنوبی در آستانه جرم‌انگاری داشتن یا تماشای ویدیوهای دیپ‌فیک جنسی.” سی‌بی‌اس نیوز، ۲۷ سپتامبر ۲۰۲۴ cbsnews.com cbsnews.com.
  • وتینگتون، کالب. “قوانین جدید مقابله با دیپ‌فیک و پورن کودک تولیدشده با هوش مصنوعی در تنسی اجرایی می‌شود.” دبلیواس‌ام‌وی نیوز نشویل، ۳۰ ژوئن ۲۰۲۵ wsmv.com wsmv.com.
  • دسمارِه، آنا. “دانمارک با حمایت کپی‌رایت علیه دیپ‌فیک‌ها مقابله می‌کند. چه قوانین دیگری در اروپا وجود دارد؟” یورونیوز، ۳۰ ژوئن ۲۰۲۵ euronews.com euronews.com.
  • نیکول-شوارتز، کای. “با OnlyFans هوش مصنوعی آشنا شوید: چگونه یک استارتاپ میلیون‌ها دلار برای ساخت پلتفرم ‘همراهان اروتیک’ جذب کرد.” سیفتد، ۱۳ مارس ۲۰۲۵ sifted.eu sifted.eu.
  • ویلسون، کلودیا. “سنا قانون DEFIANCE را تصویب کرد.” مرکز سیاست‌گذاری هوش مصنوعی (CAIP)، ۱ اوت ۲۰۲۴ centeraipolicy.org centeraipolicy.org.
  • آرنولد، استیون. “گوگل موضع می‌گیرد — علیه محتوای مشکوک. آیا هوش مصنوعی درست عمل خواهد کرد؟” وبلاگ Beyond Search، ۲۴ مه ۲۰۲۴ arnoldit.com arnoldit.com.
  • هلند، اسکار. “لین چی-لینگ از تایوان درباره تجربه دیپ‌فیک و مبارزه با اطلاعات نادرست هوش مصنوعی.” سی‌ان‌ان، ۵ اکتبر ۲۰۲۳ (برای زمینه درباره دیپ‌فیک افراد مشهور).
  • (اسناد سیاستی، بیانیه‌های مطبوعاتی و گزارش‌های اضافی طبق ارجاعات موجود در متن.)