درون انقلاب هوش مصنوعی NSFW: چگونه پورن تولیدشده با هوش مصنوعی بازی را تغییر میدهد و جنجالبرانگیز شده است

هوش مصنوعی NSFW – استفاده از هوش مصنوعی مولد برای ایجاد محتوای بزرگسالان “نامناسب برای محیط کار” – به پدیدهای داغ و بحثبرانگیز تبدیل شده است. از تصاویر اروتیک تولیدشده توسط هوش مصنوعی و ویدیوهای پورن دیپفیک گرفته تا اغواگران با صدای شبیهسازیشده و چتباتهای “دوستدختر”، یادگیری ماشین در حال بازتعریف چشمانداز محتوای بزرگسالان است. این یک انقلاب فناورانه است که به همان اندازه که امکانات وسوسهانگیز ایجاد میکند، پرسشهای اخلاقی فوری نیز مطرح میسازد. طرفداران، این فناوری را راهی نو برای خیالپردازی و خلاقیت میدانند، در حالی که منتقدان نسبت به آزار، نقض رضایت و آسیبهای اجتماعی هشدار میدهند. در میانه سال ۲۰۲۵، هوش مصنوعی NSFW در یک دوراهی قرار دارد: توسط جوامع خاص و استارتاپها پذیرفته شده، توسط قانونگذاران زیر ذرهبین قرار گرفته و توسط کسانی که در تیررس آن هستند، مورد ترس واقع شده است. در این گزارش جامع، به بررسی چیستی هوش مصنوعی NSFW، محلهای رونق آن، آخرین تحولات (از ممنوعیت پلتفرمها تا قوانین جدید)، معضلات اخلاقی، دیدگاههای موافق و مخالف و تلاش جهانی برای مدیریت و قانونگذاری این بعد بیقانون از هوش مصنوعی میپردازیم. بیایید پرده از دنیای پرهیاهوی پورن تولیدشده توسط هوش مصنوعی برداریم – و ببینیم چرا این موضوع فقط درباره پورن نیست، بلکه درباره حریم خصوصی، قدرت و آینده محتوای جنسی است.
هوش مصنوعی NSFW چیست و چگونه کار میکند؟
هوش مصنوعی NSFW به سامانههای هوش مصنوعی اطلاق میشود که محتوای صریح بزرگسالان – شامل تصاویر، ویدیوها، صدا و متن پورنوگرافیک – را اغلب با واقعگرایی خیرهکننده تولید میکنند. این سامانهها از همان فناوریهای مولد پیشرفتهای بهره میبرند که در پیشرفتهای اخیر هنر و رسانه مبتنی بر هوش مصنوعی به کار رفتهاند، اما برای محتوای درجه X استفاده میشوند. نوآوریهای کلیدی شامل مدلهای یادگیری عمیق است که با مجموعه دادههای عظیمی از تصاویر و ویدیوها آموزش دیدهاند و میتوانند در پاسخ به درخواست کاربر، محتوای جدید تولید کنند. برای مثال، مدلهای انتشار متن به تصویر مانند Stable Diffusion میتوانند تنها با یک توصیف متنی ساده، تصاویر برهنه یا جنسی فوتورئالیستی خلق کنند globenewswire.com. تکنیکهای “دیپفیک” امکان تعویض یا ساخت چهرهها در ویدیوها را فراهم میکنند، بهطوری که به نظر میرسد افراد واقعی (اغلب سلبریتیها یا اشخاص خصوصی) در پورنی که هرگز تولید نکردهاند، حضور دارند. ابزارهای پیشرفته شبیهسازی صدا میتوانند صدای یک فرد را با دقتی شگفتانگیز تقلید کنند و تولید صدای اروتیک یا “صحبتهای جنسی” با صدای هدف را ممکن سازند. همچنین مدلهای زبانی بزرگ میتوانند داستانهای اروتیک داغ تولید کنند یا از طریق چت وارد نقشآفرینی جنسی شوند.
در اصل، سیستمهای NSFW AI از همان الگوریتمهایی که هر نوع هنر یا رسانه هوش مصنوعی را تولید میکنند استفاده میکنند – فقط بر روی دادههای آموزشی پورنوگرافیک یا اروتیک آموزش دیده یا بهینهسازی شدهاند. شبکههای مولد تخاصمی (GANs) از پیشگامان اولیه در خلق تصاویر برهنه بودند، اما مدلهای انتشار و مدلهای مبتنی بر ترنسفورمر به طور قابل توجهی کیفیت را بهبود بخشیدهاند. تولیدکنندههای مدرن تصاویر NSFW میتوانند تصاویر برهنه با کیفیت بالا و متناسب با درخواست کاربر را با کمترین تلاش تولید کنند globenewswire.com. سازندگان ویدیوهای دیپفیک اغلب از نرمافزارهای تخصصی (برخی متنباز) برای جایگذاری یک چهره بر روی چهره دیگر در ویدیوهای بزرگسالان موجود استفاده میکنند و پورنوگرافی مصنوعی تولید میکنند که تشخیص آن از فیلم واقعی دشوار است cbsnews.com. سرویسهای صوتی هوش مصنوعی میتوانند یک نمونه صوتی را گرفته و گفتار جدید (از جمله محتوای صریح) را با همان صدا تولید کنند. و چتباتهای مبتنی بر هوش مصنوعی با استفاده از تولید زبان طبیعی، مکالمات اروتیک شخصیسازیشده یا سکسچت را به صورت درخواستی ارائه میدهند.مرزهای بین واقعیت و خیال در حال محو شدن است. همانطور که یک ناظر اشاره کرده است: «تصاویر، صداها و ویدیوهای بسیار واقعگرایانه تولیدشده توسط NSFW AI همچنان در حال پیشرفت هستند و نحوه خلق، مصرف و درک محتوای بزرگسالان را دگرگون میکنند» chicagoreader.com. اکنون یک کاربر میتواند تنها با یک درخواست ساده، یک صحنه پورنوگرافیک سفارشی – مثلاً تصویری از ملاقات خیالی با یک سلبریتی یا یک کلیپ صوتی از یک دوست سابق که حرفهای صریح میزند – را خلق کند، چیزی که تا چند سال پیش غیرممکن بود. این قدرت تازه، پرسشهای فوری درباره رضایت، حریم خصوصی و تفاوت بین خیالپردازی خلاقانه و سوءاستفاده را مطرح میکند. خود فناوری پایه از نظر اخلاقی بیطرف است – میتواند برای خلق هر چیزی استفاده شود – اما زمانی که به سمت مسائل جنسی انسانی و شباهت افراد واقعی هدایت میشود، پیامدهای آن پیچیده میشود.
اشکال اصلی محتوای بزرگسالان تولیدشده توسط هوش مصنوعی
- تصاویر تولیدشده توسط هوش مصنوعی: مدلهای متن به تصویر (مانند Stable Diffusion) میتوانند تصاویر اروتیک یا پورنوگرافیک صریح را از روی درخواستها تولید کنند. کاربران میتوانند ظاهر، سناریو و غیره را مشخص کنند و تصاویر برهنه یا جنسی منحصربهفردی را به صورت درخواستی دریافت کنند globenewswire.com. بسیاری از این مدلها متنباز یا قابل سفارشیسازی توسط کاربر هستند و امکان تولید محتوایی فراتر از آنچه ابزارهای هوش مصنوعی جریان اصلی اجازه میدهند را فراهم میکنند.
- ویدیوهای پورن دیپفیک: با استفاده از فناوری دیپفیک، سازندگان چهره یک فرد را روی یک ویدیوی بزرگسالانه قرار میدهند و کلیپ پورن جعلی از کسی که هرگز شرکت نکرده ایجاد میکنند. این ویدیوهای دستکاریشده با هوش مصنوعی اغلب افراد مشهور یا افراد عادی را بدون رضایت هدف قرار میدهند cbsnews.com theguardian.com. کیفیت دیپفیکها به حدی بهبود یافته که تا سال ۲۰۲۴–۲۰۲۵ بسیاری از آنها به طرز نگرانکنندهای واقعی به نظر میرسند، که این امر با پردازندههای گرافیکی و الگوریتمهای قدرتمندتر ممکن شده است.
- کپیبرداری صدا و صوت: تولیدکنندههای صدای هوش مصنوعی صدای افراد مشهور یا آشنایان را کپی میکنند تا کلیپهای صوتی صریح تولید کنند (مثلاً شبیهسازی صحبتهای جنسی یک بازیگر معروف یا ساخت کتابهای صوتی اروتیک با هر صدایی). هوش مصنوعی صوتی پیشرفته (مانند ElevenLabs) تولید ناله، دیالوگ یا روایت با صدای دلخواه را بسیار آسان کرده و نگرانیهایی درباره جعل هویت در محتوای صوتی پورن ایجاد کرده است.
- چتباتها و داستانهای اروتیک: مدلهای زبانی هوش مصنوعی برای چت و داستاننویسی NSFW استفاده میشوند. اپلیکیشنهای «دوستدختر هوش مصنوعی» و چتباتهای نقشآفرینی اروتیک از حدود ۲۰۲۳–۲۰۲۵ به شدت محبوب شدند. این رباتها میتوانند با کاربران وارد چت داغ یا سکسچت شوند و متن اروتیک نامحدود تولید کنند. برخی نیز تصاویر و یادداشتهای صوتی را ترکیب میکنند. این یک شکل جدید از محتوای بزرگسالانه است – همراهان تعاملی هوش مصنوعی که به فانتزیهای صمیمی پاسخ میدهند chicagoreader.com sifted.eu.
در حالی که پلتفرمهای اصلی هوش مصنوعی (مانند DALL·E یا Midjourney شرکت OpenAI) خروجی پورنوگرافیک را ممنوع میکنند، جوامع متنباز و فناوری بزرگسالان این فناوریها را برای گسترش مرزهای NSFW پذیرفتهاند. ماهیت متنباز بسیاری از ابزارها «نوآوری و همکاری را تشویق میکند» اما همچنین حذف آسان محافظتها و تولید محتوای صریح بدون نظارت را ممکن میسازد chicagoreader.com chicagoreader.com. همانطور که خواهیم دید، این تنش میان نوآوری و مقررات در پلتفرمهای مختلف در حال رخ دادن است.
پلتفرمها، اپلیکیشنها و جوامعی که نیروی محرکه هوش مصنوعی NSFW هستند
یک اکوسیستم پرجنبوجوش (و گاهی سایهدار) از پلتفرمها و جوامع آنلاین به وجود آمده است تا محتوای بزرگسال تولیدشده با هوش مصنوعی را خلق و به اشتراک بگذارد. از آنجا که شرکتهای بزرگ فناوری اجازه انتشار محتوای صریح را در سرویسهای هوش مصنوعی خود نمیدهند arnoldit.com blog.republiclabs.ai، رونق هوش مصنوعی NSFW توسط توسعهدهندگان مستقل، مدلهای متنباز و استارتاپهای تخصصی هدایت شده است. در اینجا برخی از حوزههای کلیدی که هوش مصنوعی NSFW در آنها زندگی میکند و رشد مییابد آورده شده است:- هابهای مدل متنباز: CivitAI – یک وبسایت جامعهمحور محبوب – میزبان یک کتابخانه عظیم از مدلها و تصاویر هوش مصنوعی ساختهشده توسط کاربران است، از جمله بسیاری که برای محتوای بزرگسال تخصصی شدهاند chicagoreader.com. کاربران میتوانند مدلهای Stable Diffusion تنظیمشده برای هنتای، تصاویر برهنه واقعگرایانه، هنر فتیش و غیره را دانلود کنند و تصاویر تولیدشده خود را به اشتراک بگذارند. باز بودن سایتهایی مانند این، آنها را به مقصد اصلی سازندگان هوش مصنوعی NSFW تبدیل کرده است. با این حال، این موضوع همچنین به معنای حداقل نظارت است؛ محتوا از هنر اروتیک هنری تا مواد پورنوگرافیک افراطی را شامل میشود. سایتهای دیگری مانند Hugging Face نیز مدلهای NSFW را (با هشدار) میزبانی کردهاند و انجمنهایی مانند 4chan یا GitHub نیز مدلهای سانسورنشده “لو رفته” را به اشتراک گذاشتهاند.
- تولیدکنندهها و اپلیکیشنهای تصویر NSFW: اکنون سرویسهای مبتنی بر وب متعددی به تولید تصویر اروتیک با هوش مصنوعی تخصص دارند. برای مثال، پلتفرمهایی مانند Candy.ai، Arting.ai، Vondy، OurDream و دیگران (اغلب مبتنی بر اشتراک) به کاربران اجازه میدهند تصاویر سفارشی بزرگسال با محدودیتهای نسبتاً کم تولید کنند chicagoreader.com chicagoreader.com. برخی رندرهای باکیفیت و طیف وسیعی از سبکها – از فوتورئالیسم تا انیمه – را ارائه میدهند که برای سلیقههای مختلف جذاب است. بسیاری از این سرویسها در سالهای ۲۰۲۴–۲۰۲۵ ظاهر شدند و اغلب آزمایش رایگان یا توکن ارائه میدهند و بر سر اینکه چه کسی میتواند هنر NSFW واقعگرایانه یا خلاقانهتر تولید کند رقابت میکنند. بازاریابی آنها بر شخصیسازی و حریم خصوصی تأکید دارد و به کاربران وعده میدهد که میتوانند دقیقاً همان چیزی را که میخواهند “در محیطی امن و خصوصی، بدون محدودیتهای محتوای از پیش فیلمبرداریشده” خلق کنند globenewswire.com.
- انجمنها و جوامع پورن هوش مصنوعی: پیش از سرکوبهای اخیر، وبسایتهای اختصاصی پورن دیپفیک، مراکز اصلی این فعالیت بودند. بدنامترین آنها Mr. Deepfakes بود که در سال ۲۰۱۸ تأسیس شد و به «بزرگترین و اصلیترین بازار دیپفیک پورن سلبریتی و همچنین اهداف غیرسلبریتی» تبدیل شد cbsnews.com. کاربران این سایت میتوانستند ویدیوهای دیپفیک صریح را بارگذاری و مشاهده کنند و حتی پورن غیرتوافقی سفارشی را با پرداخت هزینه سفارش دهند cbsnews.com. این سایت جامعهای با انجمنهایی برای بحث درباره تکنیکها و تبادل محتوا ایجاد کرده بود. با این حال، همانطور که بعداً توضیح خواهیم داد، Mr. Deepfakes در سال ۲۰۲۵ تعطیل شد پس از آنکه یک ارائهدهنده خدمات حیاتی خود را از دست داد cbsnews.com. در پی چنین سرکوبهایی، جامعه پورن دیپفیک از بین نرفته است – بلکه پراکنده شده و مهاجرت کرده است. کارشناسان اشاره میکنند که تعطیلی یک سایت بزرگ «جامعه کاربران را پراکنده میکند و احتمالاً آنها را به سمت پلتفرمهای کمتر جریان اصلی مانند تلگرام» برای تبادل محتوا سوق میدهد cbsnews.com. در واقع، اپلیکیشنهای رمزگذاریشده و انجمنهای خاص، خانه جدید بسیاری از علاقهمندان NSFW هوش مصنوعی هستند که از پلتفرمهای بزرگتر رانده شدهاند.
- خدمات «دوستدختر» و همراه مبتنی بر هوش مصنوعی: موجی از استارتاپها در حال ترکیب تولید محتوای اروتیک با همراهی تعاملی هستند. یک نمونه قابل توجه Oh (مستقر در لندن) است که خود را به عنوان سازنده «OnlyFans هوش مصنوعی» معرفی میکند – یک پلتفرم همراه اروتیک که کاربران در آن از طریق متن، صدا و تصویر با مدلهای مجازی تولیدشده توسط هوش مصنوعی تعامل دارند sifted.eu sifted.eu. Oh در اوایل سال ۲۰۲۵ مبلغ ۴.۵ میلیون دلار برای ساخت «باتهای نیمهبرهنه خودمختار» جمعآوری کرد که حتی میتوانند به طور فعالانه با پیامهای معاشقهآمیز به کاربران پیام دهند sifted.eu sifted.eu. در سایت آن، کاربران پروفایلهایی از باتهای هوش مصنوعی نیمهبرهنه را میبینند – عمدتاً شخصیتهای زن خیالی، اگرچه برخی «دوقلوهای دیجیتال» از خالقان واقعی محتوای بزرگسال هستند که تصویر خود را مجوز دادهاند (و سهمی از درآمد میگیرند) sifted.eu. کاربران میتوانند با این باتها چت کنند و پیامهای متنی سکسی، تصاویر برهنه تولیدشده توسط هوش مصنوعی و حتی یادداشتهای صوتی تولیدشده با صدای شبیهسازیشده دریافت کنند sifted.eu. تعدادی سرویس مشابه در حدود سالهای ۲۰۲۳ تا ۲۰۲۴ ظاهر شدند: DreamGF, Kupid AI, FantasyGF, Candy.ai و غیره، که نشاندهنده روند همراهان چت بزرگسال مبتنی بر هوش مصنوعی است sifted.eu. جذابیت این خدمات، تعامل اروتیک کاملاً قابل شخصیسازی و ۲۴ ساعته است – در اصل یک دختر یا پسر مجازی وبکم مبتنی بر الگوریتمها.
- سکوهای بزرگسالان تثبیتشده که در حال تطبیق هستند: پلتفرمهای سنتی محتوای بزرگسالان نیز از موج هوش مصنوعی بینصیب نماندهاند. OnlyFans، سرویس محبوب اشتراکگذاری سازندگان، با هجوم محتوای بزرگسالانه تولیدشده توسط هوش مصنوعی دستوپنجه نرم میکند. طبق سیاست، OnlyFans تصاویر تولیدشده با هوش مصنوعی را تنها در صورتی مجاز میداند که خود سازنده تأییدشده در آن حضور داشته باشد و بهوضوح بهعنوان محتوای هوش مصنوعی برچسبگذاری شده باشد reddit.com. استفاده از هوش مصنوعی برای جعل هویت دیگران یا خودکارسازی چت با طرفداران ممنوع است reddit.com. با این حال، گزارشهایی از حسابهایی وجود داشته که بستههایی از تصاویر برهنه آشکارا تولیدشده با هوش مصنوعی (با نشانههایی مانند دستهای عجیب یا «چشمهای بیروح» در هر تصویر) را به مشترکین بیخبر میفروشند reddit.com. برخی از سازندگان انسانی خشمگین هستند و میترسند مدلهای جعلی هوش مصنوعی بتوانند پلتفرم را پر کنند و به درآمدشان آسیب بزنند reddit.com uniladtech.com. یکی از کارگران جنسی اظهار تأسف کرد که هوش مصنوعی «تلاش، خلاقیت و دردسر» واقعی سازندگان را از بین میبرد و آن را «بیاحترامی به طرفدارانم» خواند و نگران بود که این موضوع انتظارات غیرواقعی از رابطه جنسی را بدتر کند reddit.com reddit.com. از سوی دیگر، برخی از سازندگان بزرگسال باهوش در حال استفاده از ابزارهای هوش مصنوعی هستند – با استفاده از تولیدکنندههای تصویر برای بهبود یا افزایش محتوای خود، یا اعطای مجوز چهره خود به شرکتهایی مانند Oh برای درآمد اضافی sifted.eu. صنعت محتوای بزرگسالان به طور کلی (استودیوهای پورن، سایتهای کم، و غیره) با احتیاط در حال آزمایش هوش مصنوعی برای تولید محتوا است، اما همچنین با نگرانی به آن به عنوان یک نیروی مخرب نگاه میکند که میتواند باعث هجوم محتوای صریح تولیدشده توسط کاربران خارج از حوزه حرفهای شود. تحلیلگران صنعت پیشبینی میکنند که محتوای بزرگسالانه مبتنی بر هوش مصنوعی میتواند تا بیش از ۳۰٪ از مصرف پورن آنلاین تا سال ۲۰۲۷ را تشکیل دهد اگر روند فعلی ادامه یابد globenewswire.com، که نشانهای از سرعت رشد این فناوری است.
۲۰۲۵: سیل پورن هوش مصنوعی و شکلگیری واکنش منفی
تا اواسط ۲۰۲۵، NSFW AI به نقطه عطفی رسیده بود. از یک سو، محتوا بیش از هر زمان دیگری گسترده و قانعکننده شده بود؛ از سوی دیگر، نگرانی عمومی و نظارتهای قانونی به اوج جدیدی رسید. تحولات اخیر شامل موارد سوءاستفاده پر سر و صدا، واکنشهای سریع قانونگذاران و حتی خودنظارتی در صنعت فناوری است. در ادامه برخی از اخبار و روندهای مهم سالهای ۲۰۲۴ تا ۲۰۲۵ پیرامون پورن تولیدشده با هوش مصنوعی را مرور میکنیم:
جنجالها و رسواییهای دیپفیک غیررضایتی
شاید هیچ چیز به اندازه افزایش پورنوگرافی دیپفیک غیررضایتمندانه باعث داغ شدن بحث هوش مصنوعی NSFW نشده است – استفاده از هوش مصنوعی برای اینکه به نظر برسد کسی (معمولاً یک زن) برهنه یا در صحنههای جنسی ظاهر شده که هرگز انجام نداده است. این کار با افراد مشهور شروع شد اما به طور فزایندهای افراد عادی را هدف قرار داده است، اغلب به عنوان نوعی آزار یا «پورن انتقامی». تا سال ۲۰۲۳، این پدیده به طرز نگرانکنندهای فراگیر و در دسترس شده بود: گزارشهای تحقیقی نشان دادند که هر کسی میتواند به راحتی وبسایتهای پورن دیپفیک را از طریق گوگل پیدا کند، به یک دیسکورد بپیوندد تا درخواست دیپفیک سفارشی بدهد و حتی با کارت اعتباری پرداخت کند – یک اقتصاد زیرزمینی پررونق با «سازندگانی» که به طور آشکار خدمات خود را تبلیغ میکنند theguardian.com theguardian.com. مطالعات به طور مداوم نشان دادهاند که قربانیان اصلی این روند زنان و دختران هستند. یک گزارش مهم از شرکت Sensity (فعال در حوزه ایمنی هوش مصنوعی) نشان داد که ۹۵ تا ۹۶ درصد دیپفیکهای آنلاین، تصاویر جنسی غیررضایتمندانه هستند که تقریباً همه آنها زنان را نشان میدهند theguardian.com. افراد مشهوری مانند بازیگر تیلور سوئیفت تا شخصیتهای آنلاین، تصاویر برهنه جعلیشان در شبکههای اجتماعی وایرال شده است klobuchar.senate.gov. حتی نگرانکنندهتر اینکه، افراد عادی و کودکان و نوجوانان نیز هدف قرار گرفتهاند: برای مثال، یک دختر ۱۴ ساله متوجه شد که همکلاسیهایش با یک اپلیکیشن، تصاویر پورن جعلی از او ساخته و در اسنپچت به اشتراک گذاشتهاند klobuchar.senate.gov.یک حادثه برجسته در ژانویه ۲۰۲۳ رخ داد، زمانی که یک استریمر بازیهای ویدیویی در توییچ با یک تب مرورگر باز به یک سایت پورن دیپفیک که همکاران زن او را نشان میداد، دیده شد. این استریمر با گریه عذرخواهی کرد، اما یکی از زنان، استریمر توییچ QTCinderella، واکنشی احساسی نشان داد: «این همان چیزی است که احساس نقض شدن به نظر میرسد… دیدن عکسهایی از من به صورت ‘برهنه’ که بدون رضایت من پخش میشود» theguardian.com. او تأکید کرد که چقدر ناعادلانه است که به عنوان یک زن در معرض دید عموم، اکنون باید وقت و پول صرف کند تا تصاویر جنسی جعلی خود را از اینترنت حذف کند theguardian.com theguardian.com. درخواست او – «نباید بخشی از شغل من باشد که اینگونه مورد آزار قرار بگیرم» – بازتاب گستردهای یافت و توجه رسانههای اصلی را به پورن دیپفیک به عنوان شکلی جدی از سوءاستفاده جلب کرد.از آن زمان، چنین مواردی فقط افزایش یافتهاند. در سال ۲۰۲۴، دانشآموزان در چندین کشور هم به عنوان مرتکب و هم قربانی تعویض برهنگی با هوش مصنوعی شناخته شدند. در استرالیا، یک جامعه مدرسهای با تصاویر جعلی صریح از چند دانشآموز دختر که بدون رضایت آنها تولید و به اشتراک گذاشته شده بود، شوکه شد و این موضوع باعث تحقیقات پلیس و خشم عمومی شد theguardian.com. در هنگکنگ در سال ۲۰۲۵، یک دانشجوی حقوق در دانشگاه معتبر هنگکنگ ظاهراً تصاویر پورن هوش مصنوعی از دستکم ۲۰ همکلاسی و معلم زن خود ایجاد کرد و زمانی که مجازات اولیه دانشگاه فقط یک نامه هشدار بود، این موضوع به یک رسوایی تبدیل شد cbsnews.com cbsnews.com. مقامات هنگکنگ اشاره کردند که طبق قانون فعلی، تنها توزیع چنین تصاویری جرم محسوب میشود، نه صرفاً ایجاد آنها، که اگر مرتکب تصاویر جعلی را به طور عمومی به اشتراک نگذاشته باشد، یک خلأ قانونی باقی میماند cbsnews.com. گروههای حقوق زنان این شهر را به عنوان «عقبمانده» در زمینه حمایتها محکوم کردند و کمیسر حریم خصوصی هنگکنگ با استناد به احتمال قصد آسیب، با این حال تحقیقات کیفری را آغاز کرد cbsnews.com cbsnews.com. این پرونده نشان داد که هر کسی میتواند هدف قرار گیرد و قوانین موجود اغلب برای همگام شدن با این پدیده دچار مشکل هستند.
در میان این سوءاستفادهها، قربانیان از آسیبهای شدید عاطفی و حیثیتی سخن میگویند. به تصویر کشیده شدن در یک صحنه جنسی جعلی فوقواقعگرایانه عمیقاً آسیبزا است، حتی اگر از نظر منطقی بدانید که جعلی است. «دیدن صورتم… حس عجیبی داشت. انگار درونشان مرده بود»، این را یک دانشجوی دانشگاه گفت که ویدیوهای تولیدشده با هوش مصنوعی از خودش را در یک سایت پورن پیدا کرد (که توسط یک همکلاسی ناراضی بارگذاری شده بود) centeraipolicy.org. قربانیان احساس ناتوانی میکنند، نه فقط به این دلیل که هرگز با چنین تصاویری موافقت نکردهاند، بلکه چون حذف آنها بسیار دشوار است. همانطور که یک روزنامهنگار نوشت، «پورن دیپفیک غیرتوافقی یک وضعیت اضطراری است که زندگیها را نابود میکند.» این موضوع زنان را مجبور میکند در حالت پارانویا زندگی کنند، مدام نگران باشند چه کسی این تصاویر جعلی را دیده، و انرژیشان را صرف یک «بازی کابوسوار موش و چکش» برای پاک کردن محتوا از وب کنند theguardian.com klobuchar.senate.gov. فعالان این موضوع را به نوعی تروریسم جنسی سایبری تشبیه کردهاند که هدفش ساکت کردن و ترساندن زنان است theguardian.com.
حتی پلتفرمهای اصلی شبکههای اجتماعی نیز ناخواسته در تسهیل گسترش محتوای صریح هوش مصنوعی نقش داشتهاند. اوایل سال ۲۰۲۴، تصاویر دیپفیک صریح از تیلور سوئیفت آنقدر در ایکس (توییتر سابق) پخش شد – و میلیونها بازدید گرفت – که این پلتفرم موقتاً نتایج جستجو برای نام او را مسدود کرد تا جلوی موج را بگیرد cbsnews.com. مشخص شد متا (فیسبوک/اینستاگرام) در سال ۲۰۲۴ صدها تبلیغ برای اپلیکیشنهای «برهنهساز» (ابزارهایی که تصاویر زنان را با هوش مصنوعی بهصورت دیجیتال برهنه میکنند) نمایش داده، با وجود اینکه چنین تبلیغاتی خلاف سیاست است. پس از تحقیقات CBS News، متا بسیاری از این تبلیغات را حذف کرد و پذیرفت که آنها از بررسی عبور کردهاند cbsnews.com. وجود چنین تبلیغاتی نشان میدهد که اپلیکیشنهای «برهنهسازی» هوش مصنوعی چقدر عادی و در دسترس شدهاند، حتی در شبکههای تبلیغاتی معتبر cbsnews.com.
ممنوعیتهای پلتفرمی و خودتنظیمی صنعت
در مواجهه با فشار عمومی، برخی از پلتفرمها و ارائهدهندگان خدمات فناوری در سال گذشته اقداماتی برای مهار محتوای NSFW تولیدشده توسط هوش مصنوعی انجام دادند. یکی از تحولات قابل توجه، تعطیلی Mr. Deepfakes در ماه مه ۲۰۲۵ بود که پیشتر به آن اشاره شد. این سایت اعلام کرد که پس از آنکه «یک ارائهدهنده خدمات حیاتی حمایت خود را قطع کرد»، تعطیل میشود، که عملاً سایت را از دسترس خارج کرد cbsnews.com. اگرچه تأیید نشده است، اما این موضوع نشان میدهد که یک ارائهدهنده زیرساخت یا میزبانی (احتمالاً یک سرویس ابری، ثبتکننده دامنه یا سرویس محافظت در برابر حملات DDoS) تصمیم گرفته است به دلیل ریسکهای قانونی یا اعتباری، همکاری خود را قطع کند. این اتفاق تنها چند روز پس از تصویب یک قانون مهم ضد دیپفیک توسط کنگره آمریکا رخ داد (که در ادامه به آن پرداخته میشود) و بسیاری آن را بخشی از سرکوب گستردهتر دانستند cbsnews.com. هنری اجدر، کارشناس شناختهشده دیپفیک، تعطیلی این سایت را به منزله از هم پاشیدن «گره مرکزی» یک شبکه بزرگ سوءاستفاده جشن گرفت cbsnews.com. او گفت: «این لحظهای برای جشن گرفتن است»، اما هشدار داد که مشکل تصاویر دیپفیک غیررضایتمندانه «از بین نخواهد رفت» – این مشکل پراکنده خواهد شد اما احتمالاً هرگز دوباره چنین جایگاه برجستهای پیدا نخواهد کرد cbsnews.com. در واقع، اجدر اشاره کرد که این جوامع مکانهای جدیدی پیدا خواهند کرد اما «هرگز به بزرگی و برجستگی» داشتن یک سایت اصلی نخواهند بود، که این پیشرفتی «حیاتی» است cbsnews.com.شرکتهای بزرگ فناوری نیز شروع به پرداختن به جنبه ابزارها و تبلیغات کردهاند. در ماه مه ۲۰۲۴، گوگل سیاستهای خود را بهروزرسانی کرد تا تبلیغات برای پلتفرمهایی که پورن دیپفیک تولید میکنند یا آموزشهایی درباره نحوه ساخت آن ارائه میدهند را ممنوع کند arnoldit.com. اقدام گوگل که از پایان ماه مه ۲۰۲۴ اجرایی شد، تلاشی بود برای جلوگیری از ترویج این خدمات از طریق تبلیغات گوگل. (گوگل پیشتر استفاده از پلتفرم Colab خود را برای آموزش مدلهای دیپفیک ممنوع کرده بود و حتی در سال ۲۰۱۸، سایتهایی مانند ردیت و پورنهاب به طور رسمی پورن غیرتوافقی تولیدشده با هوش مصنوعی را ممنوع کرده بودند arnoldit.com.) این اقدام به عنوان آمادهسازی گوگل برای شرایط بدتر مطرح شد: «اگر پورن دیپفیک در سال ۲۰۱۸ ضعیف به نظر میرسید، حالا قطعاً بسیار واقعیتر به نظر خواهد رسید»، گزارشی از ExtremeTech اشاره کرد و نیاز به قوانین سختگیرانهتر تبلیغاتی را توجیه کرد arnoldit.com. شرکتهای شبکههای اجتماعی نیز به طور مشابه در حال بهروزرسانی سیاستهای مدیریت محتوا هستند – برای مثال، پورنهاب و سایتهای بزرگ بزرگسالان در سال ۲۰۱۸ متعهد شدند دیپفیکها را ممنوع کنند (به عنوان پورن غیرتوافقی)، و در اروپا، قوانین جدید در سالهای ۲۰۲۴–۲۵ سایتهای پورن را مجبور میکند تا فعالانه «با محتوای مضر مقابله کنند» وگرنه با جریمه مواجه خواهند شد subscriber.politicopro.com. به عنوان بخشی از تلاش گستردهتر برای ایمنی، مالک پورنهاب حتی به طور موقت خدمات خود را در برخی مناطق (مانند فرانسه و برخی ایالتهای آمریکا) به دلیل نگرانیهای مربوط به رعایت قوانین جدید متوقف کرد subscriber.politicopro.com، که نشان میدهد پلتفرمهای بزرگسالان مجبور شدهاند موضوع ایمنی محتوا را جدی بگیرند یا دسترسی را قطع کنند.شرکتهای اصلی هوش مصنوعی همچنان خود را از کاربردهای NSFW دور نگه میدارند. مدل تصویر DALL·E و سرویس ChatGPT متعلق به OpenAI فیلترهای سختگیرانهای علیه محتوای جنسی دارند. Midjourney (یک تولیدکننده تصویر هوش مصنوعی محبوب) نه تنها درخواستهای پورنوگرافیک را ممنوع کرده، بلکه مدیریت خودکار که زمینه را تشخیص میدهد را پیادهسازی کرده است تا از درخواستهای NSFW پنهانی جلوگیری کند arxiv.org. زمانی که فیلترهای یک مدل با استفاده از واژهپردازی هوشمندانه شکست میخورند، این اتفاقات عمومی میشوند و توسعهدهندگان محدودیتها را سختتر میکنند (یک بازی همیشگی موش و گربه). از سوی دیگر، تازهواردها گاهی نبود سانسور را به عنوان یک مزیت تبلیغ میکنند: برای مثال، مدل جدید Stable Diffusion XL شرکت Stability AI از نظر فنی میتواند تصاویر NSFW تولید کند اگر به صورت محلی و بدون فیلتر ایمنی اجرا شود، و برخی شرکتهای کوچکتر به طور آشکار “محدودیت کمتر بر محتوای NSFW نسبت به رقبا” را تبلیغ میکنند latenode.com. این موضوع شکاف موجود در صنعت هوش مصنوعی را نشان میدهد: بازیگران بزرگ جانب احتیاط و ایمنی برند را میگیرند، در حالی که پروژههای کوچکتر یا متنباز به تقاضا برای هوش مصنوعی مولد بدون سانسور – از جمله پورن – پاسخ میدهند.تحولات عمده حقوقی و مقرراتی (۲۰۲۴–۲۰۲۵)
شاید مهمترین تحولات از سوی قانونگذاران در واکنش به خطرات پورن هوش مصنوعی رخ داده باشد. در سراسر جهان، دولتها شروع به تصویب قوانینی برای مجازات دیپفیکهای غیررضایتی، حمایت از قربانیان و حتی تنظیم خود ابزارهای هوش مصنوعی کردهاند. در اینجا مروری بر اقدامات مهم آمده است:
- ایالات متحده – قانون Take It Down (۲۰۲۵): در آوریل ۲۰۲۵، کنگره آمریکا با اکثریت قاطع قانون دوحزبی «Take It Down» را تصویب کرد، که اولین قانون فدرال است که مستقیماً به تصاویر صمیمی تولیدشده توسط هوش مصنوعی میپردازد klobuchar.senate.gov. این قانون ایجاد یا به اشتراکگذاری تصاویر صمیمی غیررضایتمندانه (واقعی یا تولیدشده توسط هوش مصنوعی) از یک فرد را به عنوان جرم فدرال تعیین میکند. نکته مهم این است که پلتفرمهای آنلاین را ملزم میکند تا این نوع محتوا را ظرف ۴۸ ساعت پس از گزارش قربانی حذف کنند klobuchar.senate.gov. این قانون – که توسط بانوی اول ملانیا ترامپ حمایت شد و سناتورهایی از هر دو حزب آن را تدوین کردند – در ماه مه ۲۰۲۵ توسط رئیسجمهور دونالد ترامپ امضا شد klobuchar.senate.gov. این قانون به عنوان اولین قانون مهم اینترنتی در دوره دوم ترامپ و پاسخی مستقیم به «مشکل رو به رشد [پورن غیررضایتمندانه]» تلقی میشود klobuchar.senate.gov. مدافعان حقوق قربانیان آن را اقدامی دیرهنگام اما ضروری دانستند. سناتور ایمی کلوبوچار گفت: «دیپفیکها فرصتهای وحشتناکی برای سوءاستفاده ایجاد میکنند»، و افزود که اکنون قربانیان میتوانند مطالب را حذف کرده و عاملان را پاسخگو کنند klobuchar.senate.gov. قابل توجه است که شرکتهای بزرگ فناوری مانند متا، گوگل و اسنپ از این قانون حمایت کردند – نشانهای از اجماع بر اینکه باید اقدامی صورت میگرفت klobuchar.senate.gov. این قانون مجازاتهایی از جمله جریمه و تا ۲ سال زندان برای متخلفان دارد cbsnews.com. همچنین به قربانیان اجازه میدهد تا از سازندگان/توزیعکنندگان برای دریافت خسارت شکایت کنند و اقدامات مدنی را تقویت میکند. گروههای مدافع آزادی بیان و حریم خصوصی درباره احتمال سوءاستفاده از این قانون هشدار دادهاند – برای مثال، لیا هولند از Fight for the Future آن را «با نیت خوب اما ضعیف تدوینشده» خواند و ابراز نگرانی کرد که افراد بدخواه ممکن است از درخواستهای حذف برای سانسور محتوای مشروع سوءاستفاده کنند klobuchar.senate.gov. با این حال، قانون Take It Down اکنون اجرایی شده و اولین گام واقعی دولت فدرال آمریکا برای مقابله با بهرهکشی جنسی مبتنی بر هوش مصنوعی در مقیاس وسیع به شمار میرود.
- ایالتهای آمریکا: حتی پیش از اقدام فدرال، چندین ایالت آمریکا قوانین خود را تصویب کردند. کالیفرنیا، تگزاس، ویرجینیا، نیویورک و سایر ایالتها در سالهای ۲۰۱۹ تا ۲۰۲۳ قوانینی را تصویب کردند که ساخت یا توزیع پورن دیپفیک بدون رضایت را غیرقانونی میکند (که اغلب تحت قوانین پورن انتقامی یا جعل هویت جنسی دستهبندی میشود). در سال ۲۰۲۵، ایالتها به اصلاح قوانین ادامه دادند. برای مثال، تنسی «قانون جلوگیری از تصاویر دیپفیک» را معرفی کرد که از اول ژوئیه ۲۰۲۵ اجرایی میشود و باعث ایجاد دعاوی حقوقی و کیفری برای هر کسی میشود که تصویر صمیمی فردی را بدون رضایت او استفاده کند wsmv.com wsmv.com. این اقدام پس از آن صورت گرفت که یک هواشناس تلویزیونی محلی متوجه شد تصاویر برهنه جعلی از او به طور گستردهای در اینترنت پخش شده و او درباره تأثیرات این موضوع بر خود و خانوادهاش شهادت داد wsmv.com. تنسی همچنین قانونی را تصویب کرد که خود ابزارهای پورن کودک با هوش مصنوعی را جرمانگاری میکند – یعنی داشتن، توزیع یا تولید آگاهانه نرمافزاری که برای ساخت محتوای سوءاستفاده جنسی از کودکان با هوش مصنوعی طراحی شده، جرم سنگینی محسوب میشود wsmv.com. این قانون وحشت پورنوگرافی کودک با هوش مصنوعی را به رسمیت میشناسد و تلاش میکند با هدف قرار دادن خود فناوری، از آن پیشگیری کند (داشتن چنین ابزاری در تنسی اکنون جرم درجه E و تولید آن جرم درجه B محسوب میشود) wsmv.com.
- اروپا – اقدامات سراسری اتحادیه اروپا: اتحادیه اروپا رویکردی دوگانه اتخاذ کرده است: مقررات کلی برای هوش مصنوعی و دستورالعملهای کیفری خاص. قانون هوش مصنوعی اتحادیه اروپا که انتظار میرود در سال ۲۰۲۴/۲۰۲۵ نهایی شود، ملزم میکند که محتوای تولیدشده توسط هوش مصنوعی مولد، الزامات شفافیت را رعایت کند. دیپفیکها که به عنوان هوش مصنوعی با «ریسک محدود» طبقهبندی میشوند، به طور کامل ممنوع نخواهند شد اما باید به وضوح برچسبگذاری شوند که توسط هوش مصنوعی تولید شدهاند (مثلاً با واترمارک یا هشدار)، و شرکتها باید جزئیات دادههای آموزشی خود را افشا کنند euronews.com euronews.com. عدم رعایت این مقررات میتواند منجر به جریمههایی تا ۱۵ میلیون یورو یا بیشتر شود euronews.com. علاوه بر این، اتحادیه اروپا یک دستورالعمل مقابله با خشونت علیه زنان را تصویب کرده که به طور صریح ایجاد یا اشتراکگذاری دیپفیکهای جنسی بدون رضایت را جرمانگاری میکند euronews.com. این دستورالعمل کشورهای عضو اتحادیه اروپا را ملزم میکند که این رفتار را تا سال ۲۰۲۷ غیرقانونی اعلام کنند (مجازات دقیق به عهده هر کشور است) euronews.com euronews.com. این بدان معناست که در سراسر اروپا، ساخت تصویر پورنو جعلی از کسی بدون رضایت، جرم محسوب خواهد شد و با نحوه برخورد با انتقامجویی پورنو واقعی هماهنگ میشود.
- فرانسه: فرانسه در سال ۲۰۲۴ با افزودن مادهای جدید به قانون کیفری خود، به طور جدی وارد عمل شد. اکنون در فرانسه به اشتراکگذاری هرگونه تصویر یا صدای تولیدشده توسط هوش مصنوعی از یک فرد بدون رضایت او غیرقانونی است euronews.com. اگر این کار از طریق یک سرویس آنلاین انجام شود، مجازاتها افزایش مییابد (تا ۲ سال زندان و ۴۵ هزار یورو جریمه) euronews.com. نکته مهم اینکه فرانسه به طور خاص ساخت دیپفیکهای پورنوگرافیک را به طور کامل ممنوع کرده است، حتی اگر کسی سعی کند آنها را به عنوان جعلی برچسب بزند euronews.com. بنابراین در فرانسه، ساخت یا توزیع دیپفیک جنسی تا ۳ سال زندان و ۷۵ هزار یورو جریمه دارد euronews.com. قانون فرانسه همچنین به نهاد تنظیمگر دیجیتال خود، ARCOM، اختیار میدهد تا پلتفرمها را مجبور به حذف چنین محتوایی و بهبود سامانههای گزارشدهی کند euronews.com.
- بریتانیا: بریتانیا نیز در سالهای ۲۰۲۳–۲۰۲۴ قوانین را بهروزرسانی کرد. اصلاحات در قانون جرایم جنسی باعث میشود ساخت دیپفیک جنسی بدون رضایت، تا ۲ سال زندان داشته باشد euronews.com euronews.com. به طور جداگانه، قانون ایمنی آنلاین ۲۰۲۳ (یک مقررات گسترده اینترنتی) به طور صریح اشتراکگذاری یا تهدید به اشتراکگذاری تصاویر جنسی غیررضایتی (از جمله دیپفیکها) را در شبکههای اجتماعی غیرقانونی میکند و پلتفرمها را ملزم میکند تا «به طور فعال حذف کنند» چنین محتوایی را یا از ظاهر شدن آن جلوگیری کنند euronews.com. اگر پلتفرمها موفق نشوند، با جریمههایی تا ۱۰٪ از درآمد جهانی مواجه میشوند – که انگیزه بزرگی برای رعایت است euronews.com. با این حال، برخی کارشناسان اشاره میکنند که بریتانیا هنوز ساخت دیپفیکی که به اشتراک گذاشته نمیشود را جرمانگاری نکرده است، که این خلأ قربانیان را آسیبپذیر میگذارد اگر تصاویر به صورت خصوصی نگه داشته شوند (مشابه سناریوی هنگکنگ) euronews.com. درخواستهایی وجود دارد که بریتانیا حتی توسعه و توزیع ابزارهای دیپفیک را نیز جرمانگاری کند euronews.com. دانمارک: در ژوئن ۲۰۲۵، پارلمان دانمارک با تصویب قانونی پیشگامانه موافقت کرد تا به افراد حق کپیرایت بر چهره خودشان بدهد – به بیان ساده، چهره شما را به “مالکیت فکری” شما تبدیل میکند تا با دیپفیکها مقابله شود euronews.com. این قانون ساخت یا اشتراکگذاری “تقلیدهای دیجیتال” از ویژگیهای یک فرد بدون رضایت او را غیرقانونی میکند euronews.com. وزیر فرهنگ دانمارک گفت: “شما حق دارید بر بدن خود، صدای خود و ویژگیهای چهره خود مالکیت داشته باشید”، و این قانون را هم به عنوان محافظتی در برابر اطلاعات نادرست و سوءاستفاده جنسی معرفی کرد euronews.com. اگرچه جزئیات هنوز اعلام نشده، اما این قانون نشان میدهد دانمارک ساخت دیپفیک از شما را به عنوان نقض “حقوق شباهت” شما تلقی خواهد کرد، مشابه نقض کپیرایت، که میتواند روند حذف و پیگیری قانونی را بسیار سادهتر کند.
- کره جنوبی: کره جنوبی یکی از اولین کشورهایی بود که به شدت تحت تأثیر پورن دیپفیک قرار گرفت (با توجه به مشکلاتش با جرایم جنسی دیجیتال در سالهای اخیر). تا سال ۲۰۲۱، کره جنوبی ساخت یا اشتراکگذاری دیپفیکهای جنسی را غیرقانونی اعلام کرد؛ در اواخر ۲۰۲۴، حتی داشتن یا تماشای چنین محتوایی را نیز جرمانگاری کرد. لایحهای که در سپتامبر ۲۰۲۴ تصویب شد (و توسط رئیسجمهور یون در ۲۰۲۴/۲۵ امضا شد) خرید، داشتن یا تماشای تصاویر/ویدیوهای دیپفیک جنسی را غیرقانونی کرد و متخلفان تا ۳ سال زندان تهدید میشوند cbsnews.com cbsnews.com. ساخت/توزیع قبلاً غیرقانونی بود (بیش از ۵ سال زندان) و اگر قانون جدید امضا میشد، این مجازات به ۷ سال افزایش مییافت cbsnews.com. این رویکرد سختگیرانه به این دلیل است که این دیپفیکها اغلب در میان جوانان رد و بدل میشدند؛ در واقع، در سال ۲۰۲۴ پلیس کره گزارش داد که ۳۸۷ دستگیری مرتبط با محتوای جنسی دیپفیک فقط در نیمه اول سال انجام شده است – ۸۰٪ از دستگیرشدگان نوجوان بودند cbsnews.com. این مشکل در میان نوجوانان (ساخت دیپفیک از همکلاسیها، معلمان و غیره) آنقدر شایع شده بود که کره آن را حتی در حد جستجوی چنین موادی یک جرم جدی تلقی میکند cbsnews.com cbsnews.com. فعالان در سئول با پلاکاردهایی با مضمون «تکرار جرایم جنسی دیپفیک، دولت هم همدست است» تجمع کردند تا خواستار اقدامات سختگیرانهتر شوند cbsnews.com، و دولت با این اقدامات پاسخ داد.
- چین: هر نوع پورنوگرافی در چین به شدت غیرقانونی است و این شامل پورن تولیدشده توسط هوش مصنوعی نیز میشود. علاوه بر این، چین در ژانویه ۲۰۲۳ مقررات پیشگامانهای درباره فناوری «ترکیب عمیق» اجرا کرد که طبق آن هر رسانه تولید یا تغییر یافته توسط هوش مصنوعی که میتواند گمراهکننده باشد باید دارای برچسب یا واترمارک واضح باشد و استفاده از چنین فناوریهایی برای جعل هویت، کلاهبرداری یا به خطر انداختن امنیت ممنوع است oxfordmartin.ox.ac.uk afcea.org. اساساً، چین پیشاپیش دیپفیکهای بدون برچسب را ممنوع کرده و به مقامات قدرت گستردهای برای مجازات سازندگان آنها داده است. با توجه به ممنوعیت کامل محتوای مستهجن در چین، محتوای NSFW تولیدشده توسط هوش مصنوعی دو برابر ممنوع است – هرچند احتمالاً در محافل زیرزمینی وجود دارد، سانسورچیان چینی ابزارهای قانونی برای حذف و پیگرد فوری آن را دارند.
در سطح جهانی، روند مشخص است: تصاویر جنسی هوش مصنوعی بدون رضایت در حوزههای قضایی مختلف جرمانگاری میشود و پلتفرمها موظف به کنترل آن هستند. تا اواخر ۲۰۲۵، چشمانداز حقوقی بسیار کمتر از دو سال قبل، زمانی که فقط چند ایالت آمریکا و کشورهایی مانند کره جنوبی چنین قوانینی داشتند، اجازهدهنده پورن دیپفیک است. با این حال، اجرای قانون و آگاهی همچنان چالشبرانگیز است. بسیاری از قربانیان هنوز نمیدانند که اکنون قانون از آنها حمایت میکند و پلیس/دادستانها اغلب برای تحقیق درباره مجرمان ناشناس آنلاین آمادگی کافی ندارند. قوانین نیز متفاوت است – برخی حتی تولید خصوصی را مجازات میکنند، برخی فقط در صورت توزیع. با این وجود، حرکت به سوی شناسایی سوءاستفاده جنسی تولیدشده توسط هوش مصنوعی به عنوان سوءاستفاده واقعی غیرقابل انکار است. همانطور که یک استاد حقوق آمریکایی اشاره کرد، این موج قانونگذاری قدرت را به دست قربانیان بازمیگرداند و این پیام را میدهد که «شما حتی در عصر هوش مصنوعی نیز بر تصویر و بدن خود حق دارید» euronews.com.
باتلاق اخلاقی: رضایت، دیپفیکها و تأثیر اجتماعی
فراتر از حوزه حقوقی، محتوای NSFW تولیدشده توسط هوش مصنوعی سوالات عمیق اخلاقی و اجتماعی را مطرح میکند. در مرکز این بحث، مسئله رضایت قرار دارد – آیا محتوای صریح میتواند اخلاقی باشد اگر بدون رضایت (یا حتی آگاهی) افراد به تصویر کشیده شده تولید شود؟ اکثر افراد موافقاند که دیپفیکهای بدون رضایت یک خطای اخلاقی آشکار هستند و عملاً نوعی تعرض جنسی محسوب میشوند. اما این معضلات عمیقترند: اگر پورنوگرافی تولیدشده توسط هوش مصنوعی با استفاده از تصاویر واقعی افراد با رضایت آنها (مثلاً آموزش بر اساس ویدیوهای پورن تجاری) ساخته شود – آیا این «بدون قربانی» است یا بدون رضایت یا جبران بیشتر، از شباهت آن اجراکنندگان سوءاستفاده میکند؟ اگر پورن کاملاً تخیلی توسط هوش مصنوعی ساخته شود – بدون حضور هیچ فرد واقعی – آیا این بیضرر است یا میتواند به عادیسازی فانتزیهای خطرناک (مانند بهرهکشی از کودکان یا سناریوهای تجاوز) منجر شود؟ و سوگیریهای مدلهای هوش مصنوعی در محتوای اروتیک چگونه بروز میکند؟
رضایت و حریم خصوصی: نگرانی فوری این است که مردم هیچ کنترلی یا رضایتی نسبت به نحوه استفاده هوش مصنوعی از چهرهشان ندارند. هر کسی که تا به حال عکسی را به صورت آنلاین منتشر کرده (یا حتی کسانی که این کار را نکردهاند، اگر آشنایی عکسی از آنها داشته باشد) به طور نظری در معرض خطر تبدیل شدن به چهره یک دیپفیک پورن هستند. زنان، به ویژه آنهایی که در معرض دید عموم هستند، اکنون با واقعیتی هولناک زندگی میکنند: ممکن است صبح بیدار شوید و ببینید اینترنت «فکر میکند» عکسهای برهنه یا فیلمهای جنسی از شما دارد، به لطف هوش مصنوعی theguardian.com. این موضوع کرامت و حریم خصوصی اساسی فردی را نقض میکند. همانطور که قانون دانمارک بیان میکند، شما باید حق داشته باشید صاحب چهره و بدن خود باشید – اما فناوری و هنجارهای فعلی این را تضمین نمیکنند. اخلاقگرایان استدلال میکنند که حتی وجود همین دیپفیکها، حتی اگر به طور گسترده پخش نشوند، آسیبزا است – این بازنمایی یک عمل جنسی مربوط به شماست که بدون اجازه شما ساخته شده. این موضوع میتواند از نظر روانی شبیه به نوعی تعرض جنسی احساس شود. این واقعیت که «اینترنت برای همیشه باقی میماند» به آسیب میافزاید: پس از پخش شدن، این تصاویر میتوانند بارها دوباره ظاهر شوند و قربانیان را وادار به تجربه مجدد آسیب کنند. همه این عوامل، پورن هوش مصنوعی بدون رضایت را به یک تخلف جدی اخلاقی تبدیل میکند. جامعه شروع به برخورد با آن در سطح سایر جرایم جنسی از نظر ننگ و پیامدها کرده است، اما همانطور که گفته شد، قوانین هنوز در حال تطبیق هستند.
دیپفیکها و حقیقت: جنبه دیگر این است که دیپفیکها واقعیت را مخدوش میکنند. با واقعیتر شدن تصاویر پورن هوش مصنوعی، بینندگان ممکن است متوجه جعلی بودن آنها نشوند و این موضوع بیشتر به اعتبار افراد آسیب میزند. یک ویدیوی جنسی جعلی میتواند باعث از دست رفتن شغل کسی، نابودی روابط یا استفاده برای اخاذی («سکستورتشن») شود. حتی اگر بعداً جعلی بودن آن ثابت شود، تحقیر و آسیب به اعتبار را نمیتوان کاملاً جبران کرد. این موضوع مسئولیت اخلاقی سازندگان چنین دیپفیکهایی را افزایش میدهد – آنها با زندگی و معیشت واقعی مردم بازی میکنند. همچنین یک چالش اجتماعی را برجسته میکند: چگونه میتوانیم اعتماد به رسانهها را حفظ کنیم وقتی دیدن دیگر به معنای باور کردن نیست؟ برخی کارشناسان دیپفیکها را «حمله به حقیقت» مینامند که در زمینه پورن برای تحقیر و تنبیه زنان به کار میرود theguardian.com.
کودکان و CSAM تولیدشده توسط هوش مصنوعی: شاید موردی که بیشترین اجماع اخلاقی درباره آن وجود دارد، محتوای سوءاستفاده جنسی از کودکان (CSAM) تولیدشده توسط هوش مصنوعی است – یعنی تصاویری از کودکان در سناریوهای جنسی. حتی اگر در تولید این محتوا هیچ کودک واقعی آسیب ندیده باشد، تقریباً همه نهادهای قانونگذار و پلتفرمها، پورنوگرافی کودکان تولیدشده توسط هوش مصنوعی را به همان اندازه غیرقانونی و مضر با CSAM واقعی تلقی میکنند. منطق اخلاقی آن روشن است: چنین محتوایی کودکان را جنسیسازی میکند و میتواند منجر به جرایم واقعی شود. همچنین اغلب با استفاده از عکسهای واقعی کودکان تولید میشود (مثلاً گرفتن یک عکس بیگناه از کودک و «برهنهسازی» یا تغییر آن توسط هوش مصنوعی – که نقض فاحش کرامت و حریم خصوصی آن کودک است) centeraipolicy.org. متأسفانه شواهدی وجود دارد که این اتفاق در حال رخ دادن است. یک پژوهشگر دانشگاه استنفورد، دیوید تیل، صدها تصویر شناختهشده سوءاستفاده از کودکان را که در یک دیتاست محبوب آموزش هوش مصنوعی برای Stable Diffusion جاسازی شده بود، کشف کرد centeraipolicy.org. این بدان معناست که مدل تا حدی با تصاویر واقعی سوءاستفاده مجرمانه آموزش دیده است که بسیار مشکلساز است. حتی اگر اکنون این تصاویر حذف شوند، همین که اصلاً استفاده شدهاند نشان میدهد که توسعهدهندگان هوش مصنوعی ممکن است ناخواسته مدلها را با محتوای سوءاستفادهآمیز آموزش داده باشند. بدتر اینکه، بدون تدابیر ایمنی دقیق، یک هوش مصنوعی میتواند تصاویر جدیدی تولید کند که شبیه همان ورودیهای آموزشی غیرقانونی باشد. برخی کاربران در انجمنها تلاش کردهاند با هوش مصنوعی عکس کودکان را «برهنه» کنند یا تصاویر غیرقانونی بسازند – روندی که نیروهای انتظامی در تلاش برای مقابله با آن هستند. از نظر اخلاقی، تقریباً اجماع وجود دارد: هوش مصنوعی هرگز نباید برای تولید CSAM استفاده شود. با این حال، اجرای این اصل دشوار است – یا باید مدلها طوری آموزش ببینند که هرگونه درخواست یا تلاش برای تولید چنین محتوایی را صراحتاً رد کنند، یا قوانین هرگونه تلاش در این زمینه را جرم جدی تلقی کند (مانند ایالت تنسی). شرکتهای فناوری اکنون اغلب فیلترهایی را به صورت سختافزاری قرار میدهند تا حتی کلمه «کودک» یا هرگونه اشاره به سن پایین در یک درخواست مسدود شود. اما کاربران متخلف سعی در دور زدن این محدودیتها دارند. اهمیت موضوع بسیار بالاست، زیرا اگر هوش مصنوعی به این شکل سوءاستفاده شود، میتواند قربانیان سوءاستفاده را دوباره قربانی کند و به پدوفیلها بهانهای جدید بدهد که «هیچ کودک واقعی آسیب ندیده است». بسیاری از اخلاقگرایان در پاسخ به استدلال «جرم بدون قربانی» اشاره میکنند که مصرف هرگونه تصویر سوءاستفاده از کودکان، چه واقعی چه تولیدشده توسط هوش مصنوعی، احتمالاً باعث افزایش سوءاستفاده واقعی از طریق عادیسازی آن میشود centeraipolicy.org reddit.com. بنابراین، این یک خط قرمز اخلاقی است که اکثر افراد بر سر آن توافق دارند: تولید یا استفاده از هوش مصنوعی برای محتوای جنسی کودکان به طور مطلق اشتباه است و باید با تمام ابزارها (فنی و قانونی) از آن جلوگیری شود.
دادههای آموزشی و محتوای اجباری: یک مسئله اخلاقی کمتر آشکار اما مهم در چگونگی ساخته شدن مدلهای هوش مصنوعی NSFW وجود دارد. بسیاری از تولیدکنندههای پورن هوش مصنوعی بر روی مجموعه دادههای بزرگی که از اینترنت جمعآوری شدهاند – از جمله وبسایتهای پورن – آموزش دیدهاند. این یعنی تصاویر افراد واقعی (بازیگران پورن، مدلهای وبکم، حتی عکسهای شخصی لو رفته افراد) بدون رضایت آنها به عنوان داده آموزشی استفاده شده است. شرکتهای هوش مصنوعی این کار را بیسروصدا انجام دادند و تنها بعدها پژوهشگران شروع به کشف ابعاد این موضوع کردند. برای مثال، مشخص شد که یک تولیدکننده عکس برهنه هوش مصنوعی به نام “These Nudes Do Not Exist” بر روی محتوای شرکت “Czech Casting” آموزش دیده است، شرکتی که به دلیل وادار کردن زنان به رابطه جنسی تحت تحقیق است centeraipolicy.org. بنابراین، هوش مصنوعی عملاً بر روی ویدیوهایی از زنانی آموزش دیده که احتمالاً قربانی قاچاق یا تجاوز بودهاند – و به طور مؤثر یاد گرفته تا تصاویر بدن آنها یا افراد دیگر را در موقعیتهای مشابه بازتولید کند. قطعاً آن زنان رضایت ندادند که تصاویرشان برای استفاده بیشتر و تولید بیپایان پورن جدید به کار رود. همانطور که یکی از قربانیان این وضعیت درباره حضور تصویرش در مجموعه آموزشی هوش مصنوعی گفت: «احساس ناعادلانه بودن میکنم، احساس میکنم آزادیام گرفته شده» centeraipolicy.org. حتی در موارد کمتر افراطی، مدلها ممکن است میلیونها عکس روزمره از زنان را از شبکههای اجتماعی یا عکاسی مدلینگ دریافت کرده باشند – آن افراد هم موافقت نکردهاند که منبع تولید پورن شوند. هر مدل پورن هوش مصنوعی، ارواح افراد واقعی را در دادههای آموزشی خود حمل میکند. بسیاری از آن افراد شاید با این موضوع مشکلی نداشته باشند – مثلاً بازیگران بزرگسال که داوطلبانه پورن بازی کردهاند ممکن است حتی از فناوری که کارشان را گسترش میدهد استقبال کنند. اما دیگران (مانند افراد خصوصی در تصاویر لو رفته، یا بازیگران پورنی که از این صنعت خارج شدهاند و میخواهند زندگی جدیدی شروع کنند) از اینکه هوش مصنوعی ممکن است برای همیشه چهرهشان را در محتوای جنسی جدید بازسازی کند، وحشتزده خواهند شد. این موضوع سوالات اخلاقی درباره مالکیت فکری و حقوق شباهت ایجاد میکند. آیا باید به افرادی که تصاویرشان به ساخت یک ابزار پورن هوش مصنوعی سودآور کمک کرده، غرامت پرداخت شود؟ برخی معتقدند بله – این مدلها «مستقیماً از مردان و زنانی که در دادههای آموزشی حضور داشتند سود میبرند» بدون حتی یک تشکر centeraipolicy.org. برخی دیگر معتقدند اگر دادهها به طور عمومی در دسترس بودهاند، طبق قوانین فعلی مالکیت فکری استفاده از آنها برای آموزش هوش مصنوعی مجاز است. اجماع اخلاقی حداقل به عدم استفاده از محتوای آشکارا غیررضایتی یا سوءاستفادهآمیز در آموزش تمایل دارد (مثلاً ویدیوهای انتقامی یا قاچاق باید ممنوع باشند). شرکتها شروع به بررسی مجموعه دادهها برای چنین محتوایی کردهاند، اما در گذشته این کار را نمیکردند که نگرانکننده است. همانطور که مرکز سیاستگذاری هوش مصنوعی بیان کرده، تقریباً «قطعی» است که مدلهای پورن هوش مصنوعی بر روی برخی تصاویر صمیمی غیررضایتی (NCII) آموزش دیدهاند centeraipolicy.org. در آینده، درخواستهایی برای گزینش سختگیرانهتر مجموعه دادهها و حتی شاید یک ثبتنام “انصراف” وجود دارد تا افراد بتوانند تصاویر خود را از مجموعههای آموزشی هوش مصنوعی حذف کنند <a href=”https://www.centeraipolicy.org/work/the-senate-passes-the-defiance-act#:~:text=These%20are%20contentious%20topics.%20%E2%80%9COpt,content%20to%20train%20centeraipolicy.org. این از نظر فنی و لجستیکی پیچیده است، اما بحث پیرامون اخلاق دادهها در هوش مصنوعی مولد تنها در حال پررنگتر شدن است.
محتوای تخیلی اما افراطی: این هم یک حوزه دشوار دیگر است – اگر هیچ فرد واقعیای به تصویر کشیده نشده باشد، آیا هیچ محدودیتی برای آنچه پورن هوش مصنوعی باید تولید کند وجود دارد؟ برخی نگرانند که هوش مصنوعی میتواند امکان تولید محتوای جنسی فوقالعاده افراطی یا حاشیهای را فراهم کند که در دنیای واقعی غیرممکن است، و این ممکن است آسیبزا باشد. برای مثال، شبیهسازی تجاوز، رابطه با حیوانات، پورن «اسناف» (قتل)، یا همانطور که اشاره شد، سناریوهای مربوط به کودکان. مدافعان ممکن است بگویند: «بهتر است هوش مصنوعی این کار را انجام دهد تا کسی در واقعیت»، اما منتقدان میترسند که این کار میتواند باعث بیحس شدن افراد یا تشویق به عمل کردن شود. حداقل، این موضوع سوالات اخلاقی را درباره اینکه آیا اجازه دادن به هوش مصنوعی برای پاسخ به چنین فانتزیهایی از خط قرمز جامعه عبور میکند یا نه، مطرح میکند. پلتفرمهایی مانند Oh میگویند که هرگونه «عملیات غیرقانونی» را مسدود میکنند – رباتهای آنها وارد محتوای پدوفیلیا یا سایر موضوعات جنسی مجرمانه نمیشوند sifted.eu. این یک اقدام احتیاطی اخلاقی است که شرکتهای مسئول در تلاش برای انجام آن هستند. اما مدلهای متنباز ذاتاً هیچ اخلاقی ندارند؛ کاربران میتوانند آنها را برای تولید تقریباً هر چیزی هدایت کنند، اگر مدل به طور صریح محدود نشده باشد. این بدان معناست که بار مسئولیت بر عهده وجدان فردی (و قوانین محلی) است. موضع اخلاقی اکثر جوامع هوش مصنوعی این است که فیلترهای سختی علیه محتوای جنسی غیرقانونی یا خشونتآمیز قرار دهند. با این حال، همانطور که یکی از تولیدکنندگان OnlyFans با بدبینی پیشبینی کرد، احتمالاً فقط مسئله زمان است تا کسی از هوش مصنوعی برای تولید چیزهایی مانند «سوءاستفاده از کودک با برچسب بازی سنی، یا سناریوهای تجاوز هوش مصنوعی» استفاده کند، و اینکه «باید بیشتر در این مورد صحبت شود» reddit.com. سوال اخلاقی همچنان بیپاسخ مانده است: آیا وجود یک تصویر خیالی فوقواقعگرایانه از یک جرم، خود یک آسیب است؟ بسیاری پاسخ مثبت میدهند، به ویژه اگر پای افراد خردسال در میان باشد (که به وضوح مجرمانه است). برای سایر فانتزیهای افراطی، جامعه هنوز به اجماع نرسیده است، اما این حوزهای فعال در بحثهای اخلاق دیجیتال است.
جنسیت و بازنمایی: هوش مصنوعی NSFW همچنین تعصبات و کلیشههای دادههای منبع خود را به ارث میبرد. بسیاری از پورنهای جریان اصلی به دلیل نمایشهای جنسیتزده یا غیرواقعی از زنان مورد انتقاد قرار گرفتهاند و هوش مصنوعی میتواند این الگوها را تقویت کند. اگر مدلها عمدتاً بر اساس پورنی آموزش ببینند که زنان را شیءانگارانه یا فقط یک نوع بدن خاص را نمایش میدهد، خروجیها نیز همین را منعکس خواهند کرد. این میتواند استانداردهای زیبایی غیرواقعی یا سناریوهای جنسی غیرواقعی را تقویت کند. علاوه بر این، بیشتر همراهان اروتیک هوش مصنوعی و رباتهای تصویری به طور پیشفرض زن هستند و برای کاربران مرد دگرجنسگرا طراحی شدهاند. برای مثال، فهرست رباتهای هوش مصنوعی پلتفرم Oh «اکثراً زن» هستند و به صورت آواتارهای نیمهبرهنه نمایش داده میشوند sifted.eu. منتقدان نگراناند که این موضوع باعث تقویت نگاه به زنان به عنوان اسباببازیهای دیجیتال شود و بر دیدگاه کاربران (عمدتاً مرد) نسبت به روابط واقعی تأثیر بگذارد. برخی از بنیانگذاران همراهان هوش مصنوعی خود اذعان دارند که آینده صمیمیت میتواند «عجیب» یا «دیستوپیایی» شود اگر مردم به جای شریک واقعی، به فانتزی هوش مصنوعی روی بیاورند sifted.eu. گفته شده که این دوستدخترهای هوش مصنوعی ممکن است کلیشههای آسیبزننده درباره همیشه در دسترس بودن، موافق بودن و مطابق میل بودن زنان را تقویت کنند sifted.eu. روانشناسان و فمینیستها نگراناند که چنین فناوریهایی ممکن است مشکلاتی مانند تنهایی، زنستیزی یا انتظارات تحریفشده از رابطه جنسی را تشدید کند. از سوی دیگر، طرفداران میگویند این ابزارها میتوانند راهی امن برای افرادی باشند که در روابط انسانی مشکل دارند یا به افراد کمک کنند بدون برچسب خوردن، تمایلات جنسی خود را کشف کنند. از نظر اخلاقی، این یک شمشیر دو لبه است: آیا ممکن است یک دوستدختر هوش مصنوعی کسی را به ارتباطگیرنده بهتری تبدیل کند یا به او آرامش دهد؟ ممکن است. آیا ممکن است همچنین باعث شود کسی از ارتباط انسانی واقعی فاصله بگیرد و زنان را صرفاً به عنوان اشیای قابل شخصیسازی ببیند؟ ممکن است. جامعه باید هرچه بیشتر با رشد این خدمات با این پرسشها روبهرو شود.
در مجموع، اخلاق هوش مصنوعی NSFW حول محور رضایت، آسیب و پیامهای اجتماعی که درباره جنسیت و انسانیت میفرستیم میچرخد. قانون طلایی پورن اخلاقی – اینکه همه افراد نمایشدادهشده بزرگسال و با رضایت خود شرکتکننده هستند – در پورن هوش مصنوعی کاملاً زیر سؤال میرود، جایی که اغلب هیچکس واقعاً «شرکت نکرده» و بنابراین هرگز نمیتوانسته رضایت بدهد. ما مجبوریم مفهوم رضایت را به شباهت و حتی دادههای خود گسترش دهیم. همانطور که یک تفسیر بیان کرده، این فناوری ما را وادار میکند تا «اساس صمیمیت، رضایت و آزادی خلاقیت» را در عصر دیجیتال بازنگری کنیم chicagoreader.com. چشمانداز اخلاقی پر از مناطق خاکستری است، اما اجماع رو به رشدی وجود دارد که برخی خطوط قرمز (محتوای کودک، استفاده غیررضایتمندانه از هویت واقعی) باید رعایت شود و احترام به خودمختاری افراد باید راهنمای آنچه قابل قبول است باشد. در عین حال، باید مراقب باشیم که همه تولید محتوای جنسی با هوش مصنوعی را آسیبزا ندانیم – برای بزرگسالان رضایتمند که برای خودشان استفاده میکنند، ممکن است ابزاری مثبت باشد. چالش این است که اجازه دهیم کاربردهای نوآورانه و رضایتمندانه رشد کند و در عین حال موارد سوءاستفاده را از بین ببریم.
حامیان در برابر منتقدان: بحث پیرامون هوش مصنوعی NSFW
واکنشها به هوش مصنوعی NSFW دو قطبی هستند. برخی آن را به عنوان یک تحول هیجانانگیز در سرگرمی بزرگسالان و آزادی شخصی جشن میگیرند؛ برخی دیگر آن را یک تهدید اجتماعی میدانند. بیایید استدلالهای کلیدی هر دو طرف را بررسی کنیم:
استدلالهای حامیان (طرفداران هوش مصنوعی NSFW):
- آزادی خلاقیت و اکتشاف جنسی: طرفداران معتقدند که هوش مصنوعی میتواند یک راه خروج مثبت برای کشف تمایلات جنسی، فانتزیها و گرایشها به صورت خصوصی و بدون قضاوت باشد. کاربرانی که ممکن است در دنیای واقعی برای اجرای برخی فانتزیها احساس خجالت یا ناتوانی کنند، میتوانند با محتوای تولیدشده توسط هوش مصنوعی یا چتباتها این کار را با خیال راحت انجام دهند. این موضوع میتواند تابو و شرم پیرامون مسائل جنسی را کاهش دهد. برخی حتی آن را توانمندساز میدانند: «بزرگسالان رضایتمند میتوانند فانتزیهای تصویری خود را در محیطی امن و خصوصی با هوش مصنوعی خلق کنند»، به گفته مدیرعامل یکی از پلتفرمهای بزرگسالان هوش مصنوعی globenewswire.com. در این دیدگاه، هوش مصنوعی مولد صرفاً یک ابزار است – مشابه هنر اروتیک یا اسباببازیهای جنسی – که میتواند بیان سالم جنسی را تقویت کند.
- شخصیسازی و نوآوری در سرگرمی بزرگسالان: حامیان تأکید میکنند که هوش مصنوعی NSFW شخصیسازی بینظیری نسبت به پورن سنتی ارائه میدهد globenewswire.com. به جای مصرف منفعلانه هر آنچه استودیوها تولید میکنند، افراد میتوانند محتوایی دقیقاً مطابق با سلیقه خود (انواع بدن، سناریوها و غیره) تولید کنند. این مدل کاربرمحور به عنوان نوآوریای دیده میشود که پارادایم یکسانسازی محتوای بزرگسالان را «مختل» میکند globenewswire.com. همچنین میتواند به علایق خاصی که تولیدکنندگان جریان اصلی نادیده میگیرند (تا زمانی که قانونی باشند) پاسخ دهد. استارتاپهای این حوزه اغلب هوش مصنوعی را به عنوان یک جهش کوانتومی در نحوه ارائه محتوای بزرگسالان معرفی میکنند – و کنترل را به دست کاربر میدهند globenewswire.com. همچنین استدلال میکنند که این فناوری به حریم خصوصی احترام میگذارد: کاربران لازم نیست با انسان دیگری تعامل داشته باشند یا فانتزیهای خود را با کسی جز هوش مصنوعی در میان بگذارند.
- جایگزین ایمن برای امیال مضر: یکی از استدلالهای موافق بحثبرانگیزتر این است که پورن هوش مصنوعی ممکن است به عنوان جایگزین بیضرر برای رفتارهای بالقوه مضر عمل کند. برای مثال، برخی نظریه دادهاند که پدوفیلها با استفاده از پورن کودک تولیدشده با CGI یا هوش مصنوعی ممکن است امیال خود را بدون آسیب به کودکان واقعی ارضا کنند (این استدلال بسیار مورد مناقشه است و اکثر کارشناسان آن را رد میکنند، اما مطرح میشود). برخی دیگر پیشنهاد میکنند کسانی که فانتزیهای جنسی خشونتآمیز دارند میتوانند به جای جستجوی قربانیان واقعی، از شبیهسازیهای هوش مصنوعی استفاده کنند. اساساً این دیدگاه «بهتر است امیالشان را روی پیکسلها تخلیه کنند تا روی انسانها» است. با این حال، این موضوع همچنان فرضی و از نظر اخلاقی بحثبرانگیز است – هیچ مدرک روشنی وجود ندارد که هوش مصنوعی جرم واقعی را کاهش میدهد؛ حتی ممکن است آن را تشویق کند (همانطور که منتقدان پاسخ میدهند). با این حال، برخی مدافعان آزادی بیان میگویند حتی فانتزیهای نفرتانگیز در قالب هوش مصنوعی، آزمایشهای فکری هستند که نباید تا زمانی که به شخص واقعی آسیبی نمیرسد، جرمانگاری شوند. این دیدگاه جریان اصلی نیست، اما در بحثها درباره محتوای افراطی وجود دارد reddit.com.
- حمایت از جوامع و هویتهای خاص: هوش مصنوعی میتواند برای جوامعی که به طور تاریخی در پورن جریان اصلی نمایندگی کمی داشتهاند محتوا تولید کند – برای مثال، برخی فانتزیهای LGBTQ، سناریوهای BDSM با پارامترهای رضایت خاص، یا هنر اروتیک با عناصر فانتزی. برخی اعضای خردهفرهنگهای فری یا هنتای، مثلاً، از هنر هوش مصنوعی برای خلق محتوایی استفاده میکنند که با بازیگران واقعی غیرممکن است. این موضوع به عنوان گسترش دامنه هنر اروتیک دیده میشود. علاوه بر این، هوش مصنوعی میتواند به افراد دارای معلولیت یا محدودیتهای دیگر اجازه دهد تا صمیمیت مجازی را به شیوههایی تجربه کنند که در غیر این صورت نمیتوانستند. کسانی که در تعامل اجتماعی مشکل دارند ممکن است در یک شریک هوش مصنوعی که آنها را قضاوت نمیکند، رفاقت پیدا کنند. طرفدارانی مانند بنیانگذار استارتاپ “AI OnlyFans” استدلال میکنند که این همراهان هوش مصنوعی میتوانند «خالصاً مثبت» برای جامعه باشند، به ویژه برای افرادی که اشکال دیگری از رفاقت ندارند sifted.eu. به نظر او، اگر کسی تنها باشد یا انواع استثماری پورن را مصرف کند، یک شریک هوش مصنوعی جایگزینی کنترلشده و شاید سالمتر است sifted.eu. رضایت مدلهای ساختهشده در مقابل مدلهای واقعی: یکی دیگر از استدلالهای موافق NSFW AI این است که استفاده از بازیگران تولیدشده توسط هوش مصنوعی (که در واقع وجود خارجی ندارند) در پورن میتواند بسیاری از مشکلات صنعت بزرگسالان را از بین ببرد. هیچ خطری برای سوءاستفاده از یک بازیگر واقعی وجود ندارد اگر بازیگر پورن توسط هوش مصنوعی ساخته شده باشد. بدن هیچکس واقعاً در معرض بیماریهای مقاربتی یا سوءاستفاده در یک صحنه هوش مصنوعی قرار نمیگیرد. در تئوری، این میتواند در نهایت بخشی از تولید پورن واقعی را جایگزین کند و در نتیجه آسیب به بازیگران انسانی را کاهش دهد در موقعیتهای پرخطر. (البته، نقطه مقابل این است که آن بازیگران اغلب خودشان انتخاب میکنند که آنجا باشند و اگر جایگزین شوند ممکن است درآمدشان را از دست بدهند، پس موضوع پیچیده است.) اما آیندهپژوهان دنیایی را تصور میکنند که در آن پورن هوش مصنوعی کاملاً واقعگرایانه میتواند تقاضا را بدون نیاز به حضور هیچ فرد واقعی در کارهای بالقوه تحقیرآمیز برآورده کند – اساساً یک زنجیره تأمین پورن اخلاقیتر. برخی از تولیدکنندگان بزرگسال حتی داوطلبانه “دوقلوهای دیجیتال” خود را میسازند (از طریق صدور مجوز تصویر/صدای خود) تا هوش مصنوعی بتواند بخشی از کار را برایشان انجام دهد – با رضایت و تقسیم سود sifted.eu. اگر این مدل گسترش یابد، میتواند به تولیدکنندگان انسانی اجازه دهد در حالی که بخشی از تولید محتوا را به هوش مصنوعی تحت کنترل خود واگذار میکنند، درآمد کسب کنند؛ که شاید یک وضعیت برد-برد باشد.آزادی بیان و ارزش هنری: از منظر آزادیهای مدنی، برخی حتی از NSFW AI به عنوان شکلی از بیان دفاع میکنند. هنر اروتیک و پورن مدتهاست که به عنوان سخن محافظتشده (به جز موارد مستهجن) در بسیاری از کشورها شناخته میشود. هوش مصنوعی فقط رسانه بیان را گسترش میدهد. اگر یک هنرمند میتواند یک تصویر برهنه بکشد یا یک صحنه پورن رضایتمندانه فیلمبرداری کند، چرا نتواند از هوش مصنوعی بخواهد یک اثر هنری برهنه خلق کند؟ آنها استدلال میکنند که ممنوعیت کامل محتوای جنسی هوش مصنوعی افراطآمیز خواهد بود و ممکن است به سانسور هنر مثبت جنسی یا تلاشهای خلاقانه مشروع منجر شود. به شرطی که همه افراد دخیل رضایت داشته باشند (که وقتی پای هوش مصنوعی وسط است دشوار است، اما فرض کنیم فرایند رضایتمندانه است)، آنها معتقدند بزرگسالان باید آزادی خلق و مصرف محتوای جنسی مورد انتخاب خود را داشته باشند، چه با کمک هوش مصنوعی چه بدون آن. گروههایی مانند بنیاد مرز الکترونیک نسبت به ممنوعیتهای گسترده بر فناوری دیپفیک هشدار دادهاند و اشاره میکنند که این فناوری کاربردهای مفیدی دارد و هدف قرار دادن محدود افراد بد بهتر از ممنوعیت خود فناوری است klobuchar.senate.gov. این رویکرد آزادیخواهانه در بحث میگوید: آسیب واقعی (مانند استفاده غیررضایتمندانه) را مجازات کنید، اما ابزار یا خیالپردازی رضایتمندانه را جرمانگاری نکنید.استدلالهای منتقدان (مخالفان NSFW AI):
- نقض رضایت و سوءاستفاده از تصویر: منتقدان تأکید میکنند که هوش مصنوعی NSFW قبلاً باعث سوءاستفاده گسترده از رضایت و شباهت افراد شده است. اپیدمی دیپفیکهای غیررضایتی خود گویای همه چیز است – زندگیها نابود شده، حریم خصوصی از بین رفته. آنها استدلال میکنند که این یک پدیده حاشیهای نیست بلکه تا کنون کاربرد اصلی فناوری دیپفیک بوده است: ۹۶٪ دیپفیکها پورنوگرافیک بوده و عملاً همه بدون رضایت ساخته شدهاند theguardian.com. آنها میگویند این فناوری ذاتاً مستعد چنین سوءاستفادهای است و آن را به ابزاری خطرناک تبدیل میکند. حتی زمانی که افراد مستقیماً هدف قرار نمیگیرند، نبود هیچ امکانی برای رضایت دادن به حضور در دادههای آموزشی یا در خیال کسی، نگرانکننده است. یک فرد میتواند خودمختاری جنسی خود را کاملاً از دست بدهد وقتی دیگران تصاویر صریح او را از هیچ خلق میکنند. منتقدان میگویند این اساساً غیراخلاقی است و باید مانند چشمچرانی یا سایر جرایم جنسی محکوم شود. وجود «صدها اپلیکیشن هوش مصنوعی برای برهنهسازی» که به راحتی در دسترس هستند klobuchar.senate.gov به این معناست که عکس هر زنی میتواند در عرض چند ثانیه پورنو شود، وضعیتی که بسیاری آن را غیرقابل تحمل و ترسناک میدانند.
- آسیبهای عاطفی و روانی: قربانی شدن در یک پورن فیک ساختهشده با هوش مصنوعی میتواند باعث پریشانی شدید روانی شود – تحقیر، اضطراب، PTSD، حتی افکار خودکشی. یک مثال تراژیک: یک پسر ۱۷ ساله در آمریکا در سال ۲۰۲۲ پس از آنکه یک اخاذ با استفاده از تصاویر برهنه جعلی او را تهدید کرد، خودکشی کرد klobuchar.senate.gov. فشار روانی بر زنانی که متوجه وجود دیپفیک از خود میشوند بسیار زیاد است؛ این وضعیت به عنوان نوعی تجاوز جنسی مجازی توصیف میشود. بنابراین منتقدان هوش مصنوعی NSFW را ابزاری میدانند که آزار و سوءاستفاده را تسهیل میکند و آن را به یک «وضعیت اضطراری» برای افراد آسیبپذیر (به ویژه زنان، کودکان، افراد LGBTQ که ممکن است هدف فیکهای جنسی نفرتمحور قرار گیرند و غیره) تبدیل میکند theguardian.com. آنها استدلال میکنند که هیچ منفعت ادعایی این فناوری نمیتواند بر این آسیبهای واقعی که هماکنون رخ میدهند، برتری داشته باشد.
- عادیسازی محتوای استثماری: مخالفان نگران هستند که هجوم پورن هوش مصنوعی، بهویژه سناریوهای افراطی یا بدون رضایت، میتواند باعث عادیسازی چنین تصاویری شود و تحریمهای اجتماعی پیرامون مسائلی مانند حریم خصوصی و رضایت را تضعیف کند. اگر تصاویر برهنه جعلی از افراد مشهور یا همکلاسیها به «خوراک رایج اینترنت» تبدیل شود، مردم ممکن است نسبت به نقض حریم خصوصی دیگران بیتفاوت شوند. این موضوع همچنین میتواند ذهنیتهای زنستیزانه را تقویت کند (نگاه به زنان به عنوان اشیای جنسی در دسترس که تصاویرشان میتواند به دلخواه استفاده شود). از نظر اخلاقی، این موضوع شبیه به پورن انتقامی یا فیلمبرداری مخفیانه است – اجازه دادن به گسترش آن این پیام را میدهد که بدن زنان متعلق به خودشان نیست. علاوه بر این، منتقدان نگرانند که هوش مصنوعی ممکن است تمایلات منحرف را تشدید کند – مثلاً کسی که پورن تجاوز شبیهسازیشده با هوش مصنوعی مصرف میکند، ممکن است بیشتر مستعد ارتکاب خشونت شود، یا یک پدوفیل با پورن کودک تولیدشده توسط هوش مصنوعی همچنان به سوءاستفاده از کودکان واقعی روی آورد. اگرچه شواهد مورد بحث است، بسیاری از روانشناسان با توجه به اینکه رسانهها میتوانند رفتار را تقویت کنند، احتیاط را توصیه میکنند.
- تأثیر بر روابط و جامعه: برخی جامعهشناسان و فمینیستها ابراز نگرانی میکنند که همراهان جنسی هوش مصنوعی و پورن فوقالعاده شخصیسازیشده میتواند روابط واقعی انسانی را تضعیف کند. اگر بسیاری از افراد به «دوستدخترهای» هوش مصنوعی که کاملاً مطیع هستند روی بیاورند، چه اتفاقی برای توانایی آنها در ایجاد رابطه با شریکان واقعی که نیازها و مرزهای مستقل دارند میافتد؟ نگرانی از افزایش انزوای اجتماعی و انتظارات تحریفشده از رابطه جنسی و عاشقانه وجود دارد. بنیانگذار یکی از اپلیکیشنهای همراه هوش مصنوعی خودش آن را بالقوه «بسیار دیستوپیایی» خوانده و گفته ممکن است «آیندهای عجیب برای صمیمیت» ایجاد کند که در آن مردم از یکدیگر جدا شوند sifted.eu. کلیشههای تقویتشده – اغلب دوستدخترهای هوش مصنوعی شخصیتهای زن مطیع هستند – میتواند نگرشهای جنسیتزده را در میان کاربران تثبیت کند. بنابراین، منتقدان استدلال میکنند که هوش مصنوعی NSFW ممکن است مسائلی مانند تنهایی، زنستیزی و کالاییسازی صمیمیت را تشدید کند. تهدیدی برای هنرمندان، اجراکنندگان و نیروی کار: کسانی که در حوزههای خلاقانه و صنعت بزرگسالان فعالیت میکنند، هوش مصنوعی NSFW را تهدیدی برای معیشت و حقوق خود میدانند. هنرمندان بصری (مانند تصویرگران آثار اروتیک یا مدلها) مشاهده میکنند که هوش مصنوعی در حال جمعآوری آثارشان بدون اجازه است و سپس تصاویر جدیدی در سبک یا با چهره آنها تولید میکند. این موضوع مانند سرقت مالکیت معنوی احساس میشود و بازار آثار سفارشی را تضعیف میکند. عکاسان نگراناند که تولیدکنندههای تصویر هوش مصنوعی جایگزین استخدام مدلها برای عکاسی شوند. بازیگران پورن و کارگران جنسی نگراناند که «کلونهای» هوش مصنوعی یا مدلهای کاملاً خیالی هوش مصنوعی مشتریان را جذب کنند – یا بازار را با محتوایی پر کنند که ارزش کار آنها را کاهش میدهد. چندین خالق OnlyFans گزارش دادهاند که درآمدشان کاهش یافته و شکایت طرفداران را دریافت کردهاند، احتمالاً به دلیل رقابت با محتوای تولیدشده توسط هوش مصنوعی که ارزانتر و همیشه در دسترس است reddit.com. آنها استدلال میکنند که این رقابت ناعادلانه است، زیرا هوش مصنوعی عملاً تصاویر و جذابیت آنها را تصاحب کرده بدون تلاش یا لمس انسانی، و این امر قیمتها را تا سطحی غیرقابل دوام برای کارگران واقعی پایین میآورد. کارگران جنسی همچنین نگراناند که ممکن است تحت فشار قرار گیرند تا برای تولید محتوای بیشتر یا در دسترس بودن ۲۴/۷ از هوش مصنوعی استفاده کنند، که کار آنها را بیش از پیش کالایی میکند reddit.com. اتحادیهها و گروههای مدافع نگران دنیایی هستند که در آن شرکتها ممکن است یک ستاره پورن هوش مصنوعی (بدون حقوق، مطالبه یا دستمزد) را به یک انسان ترجیح دهند – سناریویی که میتواند مشاغل را از بین ببرد و از شباهت اجراکنندگانی که این مدلها را آموزش دادهاند سوءاستفاده کند. به طور خلاصه، منتقدان هوش مصنوعی NSFW را تضعیفکننده خلاقیت و نیروی کار انسانی میدانند، چرا که با استفاده از دادههای انسانها، منبع بیپایانی از محتوای رایگان (یا ارزان) تولید میکند.
- سراشیبی لغزنده اخلاق و قانون: از منظر سیاستگذاری، منتقدان استدلال میکنند که اگر اکنون محدودیتهای محکمی برای هوش مصنوعی NSFW وضع نشود، آیندهای غیرقابل کنترل در پیش خواهد بود. اگر پورن هوش مصنوعی را صرفاً «فانتزی» بپذیریم، چه اتفاقی میافتد وقتی با مسائل واقعی مانند رضایت تداخل پیدا کند؟ برای مثال، اگر کسی پورن هوش مصنوعی از شریک سابقش بسازد و ادعا کند که فقط یک فانتزی است، آیا این توجیهپذیر است؟ اکثر مردم میگویند نه – شریک سابق به وضوح آسیب دیده است. بنابراین منتقدان به سمت اصل احتیاط گرایش دارند: خطوط را زودتر ترسیم کنید. برخی حتی خواستار برخورد با ابزارهای ساخت دیپفیک مانند ابزارهای باز کردن قفل یا هک شدهاند – نه لزوماً غیرقانونی، اما به شدت کنترلشده، و ممنوعیت کامل ابزارهایی که آشکارا برای سوءاستفاده طراحی شدهاند (مانند اپلیکیشنهای «برهنهساز» که صرفاً برای برهنهکردن غیررضایتی تصاویر وجود دارند). اخلاقگرایانی که طرفدار مقررات سختگیرانه هستند، استدلال میکنند که پتانسیل سوءاستفاده بسیار بیشتر از موارد استفاده مثبت محدود است. آنها اغلب به صدای قربانیان استناد میکنند: همانطور که یک اخلاقگرای فناوری گفت: «دختری نوجوان که خودش را در پورن تولیدشده با هوش مصنوعی میبیند – همان یک تجربه، همان یک زندگی نابودشده، مقررات سختگیرانه برای این فناوری را توجیه میکند.» آنها میگویند آزادی بیان مهم است، اما نباید به قیمت اختیار و امنیت دیگران تمام شود.
تقسیمبندی حامیان در برابر منتقدان گاهی بر اساس خوشبینی فناورانه در مقابل تردید اجتماعی شکل میگیرد. علاقهمندان به فناوری، هوش مصنوعی NSFW را مرزی هیجانانگیز میبینند (با برخی مسائل برای مدیریت)، در حالی که فعالان اجتماعی آن را نوعی جدید از سوءاستفاده دیجیتال میدانند که باید محدود شود. هر دو دیدگاه معتبرند – و چالش پیش رو این است که منافع (آزادی خلاقیت، لذت خصوصی، نوآوری صنعتی) را به حداکثر و آسیبها (سوءاستفاده غیررضایتمندانه، اطلاعات نادرست، جابجایی نیروی کار) را به حداقل برسانیم. هر راهحلی نیازمند مشارکت فناوران، قانونگذاران، اخلاقگرایان، صنعت بزرگسالان و بازماندگان سوءاستفاده تصویری است. تا سال ۲۰۲۵، این گفتگو واقعاً آغاز شده است.
(برای جمعبندی، در اینجا یک مقایسه سریع از دو دیدگاه آمده است:)
- حامیان میگویند هوش مصنوعی NSFW خلاقیت بزرگسالان را توانمند میکند، تحقق فانتزی ایمن را ارائه میدهد و حتی میتواند به خالقان با رضایت برای کسب درآمد یا افراد تنها برای یافتن همراهی کمک کند – اساساً یک تکامل فناورانه پورن که اگر بهطور اخلاقی استفاده شود، به کسی آسیب نمیزند و آزادی فردی را افزایش میدهد globenewswire.com sifted.eu.
- منتقدان میگویند این موضوع باعث موجی از سوءاستفاده جنسی مبتنی بر تصویر شده، رضایت و حریم خصوصی را از بین میبرد، ممکن است دیدگاه کاربران نسبت به رابطه جنسی و روابط را منحرف کند و تصاویر و کار واقعی افراد را بدون اجازه آنها برای سودجویی مورد بهرهبرداری قرار دهد theguardian.com reddit.com. به نظر آنها، هزینههای NSFW AI برای جامعه (به ویژه برای زنان و گروههای آسیبپذیر) بسیار بیشتر از منافع شخصی است که برخی کاربران دریافت میکنند و این موضوع نیازمند محدودیتها و نظارت جدی است.
مقابله: مدیریت محتوا و تدابیر ایمنی هوش مصنوعی برای مطالب NSFW
با توجه به خطرات NSFW AI، رقابتی موازی برای توسعه تدابیر فناورانه و سیاستی برای مدیریت آن در جریان است. این مبارزه در چندین جبهه صورت میگیرد: ساخت ابزارهای شناسایی بهتر برای محتوای تولیدشده توسط هوش مصنوعی، پیادهسازی فیلترهای مدیریت محتوا و ترویج هنجارها یا واترمارکهایی برای تمایز بین واقعی و جعلی. در اینجا نحوه تلاش هوش مصنوعی و پلتفرمها برای مهار جنبه تاریک NSFW AI آمده است:
- فیلترهای خودکار NSFW: بسیاری از تولیدکنندههای تصویر هوش مصنوعی شامل کلاسهبندهای پورنوگرافی هستند که سعی میکنند خروجیهای صریح را مسدود یا فیلتر کنند. برای مثال، نسخه رسمی Stable Diffusion دارای یک «بررسیکننده ایمنی» است که تصاویر برهنه یا جنسی را علامتگذاری و تار میکند arxiv.org. DALL·E متعلق به OpenAI هرگونه درخواست حتی با اشاره به محتوای جنسی را بهکلی رد میکند. Midjourney فهرست گستردهای از کلمات ممنوعه دارد و از هوش مصنوعی برای تفسیر زمینه درخواست استفاده میکند – اگر مشکوک شود که درخواست پورنوگرافیک یا استثماری است، تصویری تولید نمیکند arxiv.org. این فیلترها کامل نیستند (کاربران دائماً راههایی برای دور زدن آنها پیدا میکنند، مانند استفاده از کنایه یا غلطنویسی برای واژههای ممنوعه arxiv.org). با این حال، آنها از تولید تصادفی یا ناخواسته تصاویر NSFW توسط کاربران عادی جلوگیری میکنند. این فیلترها به عنوان خط دفاعی اول عمل میکنند، بهویژه در پلتفرمهای اصلی که نمیخواهند محتوای صریح میزبانی کنند. برخی شاخههای متنباز این فیلترها را حذف میکنند، اما در این صورت مسئولیت به عهده کاربر (و هر پلتفرمی که محتوا در آن منتشر میشود) خواهد بود. ابزارهای شناسایی دیپفیک: در حوزه پژوهش، تلاش قابل توجهی صرف الگوریتمهای شناسایی دیپفیک میشود. شرکتهایی مانند مایکروسافت و استارتاپهایی مانند Sensity هوش مصنوعیای توسعه دادهاند که ویدیوها/تصاویر را برای نشانههای دستکاری (مانند نورپردازی ناسازگار، مصنوعات چهره یا واترمارکهای دیجیتال) تحلیل میکند. در یک ارزیابی، مدل Hive Moderation (یک مجموعه هوش مصنوعی برای مدیریت محتوا که توسط برخی شبکههای اجتماعی استفاده میشود) بالاترین دقت را در شناسایی شخصیتهای تولیدشده توسط هوش مصنوعی در مقابل واقعی emerginginvestigators.org داشت. این شناساییکنندهها توسط پلتفرمها برای اسکن بارگذاریها استفاده میشوند (مثلاً فیسبوک ممکن است یک تصویر را هم برای برهنگی و هم برای اینکه آیا یک جعل شناختهشده از کسی است، اسکن کند). توسعه شناساییکنندهها یک بازی موش و گربه است: با پیشرفت مدلهای مولد، شناساییکنندهها نیز باید پیشرفت کنند. اتحادیه اروپا شرکتها را به پیادهسازی چنین سیستمهایی سوق میدهد – قوانین شفافیت قانون هوش مصنوعی و دستورالعمل مقابله با خشونت علیه زنان عملاً پلتفرمها را ملزم میکند که بتوانند پورن هوش مصنوعی را شناسایی و حذف کنند euronews.com euronews.com. برخی روشهای شناسایی بر متادیتا یا الگوهای شناختهشده از تولیدکنندههای خاص تکیه دارند (مثلاً برخی ابزارهای هوش مصنوعی واترمارکهای نامرئی در الگوهای پیکسلی باقی میگذارند). صنعت همچنین رویکردی فعالتر را مد نظر دارد: واترمارکگذاری محتوای هوش مصنوعی در زمان تولید. گوگل، برای مثال، روی روشهایی کار میکند تا تصاویر تولیدشده توسط هوش مصنوعی را برچسبگذاری کند تا هر نسخهای حتی پس از ویرایش به عنوان ساختهشده توسط هوش مصنوعی قابل شناسایی باشد. OpenAI واترمارکهای رمزنگاریشده برای متن مدلهای زبانی پیشنهاد داده است. اگر این روش به طور گسترده پذیرفته شود، میتواند به فیلترهای خودکار کمک کند تا پورن هوش مصنوعی را پیش از گسترش شناسایی کنند. با این حال، مدلهای متنباز احتمالاً داوطلبانه خروجیهای خود را واترمارک نمیکنند و مهاجمان میتوانند سعی در حذف واترمارکها داشته باشند.
- هشینگ محتوا و پایگاههای داده: برای مقابله با پورن انتقامی و دیپفیکها، شرکتهای فناوری و سازمانهای غیردولتی پایگاههای دادهای از تصاویر سوءاستفادهآمیز شناختهشده ایجاد کردهاند (مثلاً با استفاده از هشهای رمزنگاریشده مانند PhotoDNA برای تصاویر واقعی کودکآزاری). رویکرد مشابهی برای دیپفیکها نیز در نظر گرفته شده است: اگر قربانی با یک تصویر جعلی مراجعه کند، هش آن میتواند به پایگاه داده حذف اضافه شود تا در صورت بارگذاری مجدد، فوراً شناسایی و حذف شود. سیستم آینده بریتانیا تحت قانون ایمنی آنلاین ممکن است شامل چنین شناسایی پیشگیرانهای باشد – که پلتفرمها را ملزم میکند تا «از ظاهر شدن [محتوای ممنوعه] در وهله اول جلوگیری کنند» euronews.com. در عمل، این به معنای اسکن تصاویر یا ویدیوهای غیرقانونی شناختهشده هنگام بارگذاری است. چالش با جعلهای هوش مصنوعی این است که عاملان میتوانند بینهایت گونه تولید کنند، بنابراین هش کردن یکی، بعدی را شناسایی نمیکند. اینجاست که شناسایی شباهت مبتنی بر هوش مصنوعی لازم است، که میتواند محتوایی را که به جعلهای شناختهشده شباهت زیادی دارد یا با فردی که ثبت کرده نمیخواهد هیچ تصویر صریحی از او آنلاین باشد، شناسایی کند.
- نظارت در سایتهای پورن: جالب است که سایتهای بزرگ بزرگسالان مانند Pornhub به دلیل دیپفیکها مجبور به ارتقای سیستم نظارت خود شدهاند. Pornhub از سال ۲۰۱۸ بارگذاری هرگونه محتوای تولیدشده با هوش مصنوعی که افراد واقعی را بدون رضایت نشان دهد، ممنوع کرده است. آنها برای شناسایی این موارد به گزارش کاربران و بررسی ناظران تکیه میکنند، اما با میلیونها بارگذاری، این کار دشوار است. قانون خدمات دیجیتال اتحادیه اروپا مسئولیتپذیری سختگیرانهتری را به همراه آورده است: در سال ۲۰۲۴، Pornhub (و سایتهای مشابه مانند Xvideos، Xnxx) به عنوان پلتفرمهای بزرگ تعیین شدند که باید به طور فعال محتوای غیرقانونی و مضر را کاهش دهند وگرنه جریمه میشوند subscriber.politicopro.com. این احتمالاً به معنای سرمایهگذاری در فیلترینگ خودکار است. سایتهای پورن ممکن است شروع به استفاده از شناساییکنندههای دیپفیک روی هر ویدیوی جدید کنند. آنها اکنون برای بارگذاریکنندگان احراز هویت نیز دارند؛ اگرچه این روش بینقص نیست (افراد جعلی میتوانند خود را احراز هویت کنند و ویدیوی جعلی از شخص دیگری بارگذاری کنند)، اما قابلیت ردیابی را افزایش میدهد.
- سیاستهای شبکههای اجتماعی: شبکههای اجتماعی مانند توییتر (X) و ردیت سیاستهای خود را بهروزرسانی کردهاند تا به طور صریح اشتراکگذاری «تصاویر خصوصی تولید یا تغییر یافته با هوش مصنوعی» بدون رضایت فرد را ممنوع کنند. ردیت در سال ۲۰۱۸ پس از موج اول، دیپفیکها را ممنوع کرد. استانداردهای جامعه فیسبوک رسانههای مصنوعی را که احتمال فریب به شیوههای مضر دارند (که شامل پورن جعلی از یک فرد میشود) ممنوع میکند. با این حال، اجرای این قوانین همچنان ضعیف است – همانطور که اشاره شد، محتوای دیپفیک در سال ۲۰۲۴ در X وایرال شد cbsnews.com و متا مجبور شد پس از فشار عمومی تبلیغات برهنگی هوش مصنوعی را حذف کند cbsnews.com. با این حال، قوانین جدید (قانون Take It Down، مقررات اتحادیه اروپا) اکنون تعهدات قانونی برای آنها ایجاد کرده است. میتوان انتظار داشت زمان پاسخگویی سریعتر – مثلاً طبق قانون آمریکا، پلتفرمها ۴۸ ساعت فرصت دارند تا NCII گزارششده را حذف کنند وگرنه جریمه میشوند klobuchar.senate.gov klobuchar.senate.gov. این احتمالاً به این معناست که شرکتها در صورت تردید، جانب حذف محتوا را خواهند گرفت. همچنین ممکن است مکانیزمهایی برای گزارش «این یک دیپفیک هوش مصنوعی از من است» اضافه کنند تا کاربران بتوانند سریعاً سوءاستفاده را گزارش دهند.
- تأیید سن و کنترلهای دسترسی: یکی دیگر از جنبههای مدیریت، جلوگیری از دسترسی افراد زیر سن قانونی به پورن هوش مصنوعی است. سایتهای پورن سنتی بررسی سن دارند (که به طور ناقص اجرا میشود) و برخی حوزههای قضایی (مانند فرانسه، یوتا، تگزاس) قوانینی تصویب کردهاند که تأیید سختگیرانه سن را برای سایتهای بزرگسالان الزامی میکند versustexas.com. ابزارهای هوش مصنوعی این موضوع را پیچیدهتر میکنند – مدلهای مولد میتوانند به صورت خصوصی و بدون هیچ گونه نظارتی استفاده شوند. اما برخی پلتفرمهای هوش مصنوعی شروع به الزام تأیید هویت برای دسترسی به حالتهای NSFW کردهاند تا مطمئن شوند کاربران بزرگسال هستند. برای مثال، پلتفرم Infatuated.ai بر پروتکلهای قوی تأیید سن و مسدود کردن هرگونه درخواست مربوط به افراد زیر سن قانونی تأکید کرده است globenewswire.com. Replika (یک اپلیکیشن چتبات هوش مصنوعی) یک دوره بدنام داشت که در آن نقشآفرینی اروتیک را مجاز کرده بود و بسیاری از افراد زیر سن قانونی از آن استفاده کردند؛ پس از واکنش منفی، آنها محتوای اروتیک را فقط برای کاربران ۱۸ سال به بالا و با تأیید سن از طریق پرداخت یا کارت شناسایی محدود کردند. بنابراین، حداقل در سرویسهای تجاری، تلاشی برای جدا کردن محتوای بزرگسال هوش مصنوعی از کودکان وجود دارد. این موضوع مهم است چون خود کودکان از ابزارهای دیپفیک برای آزار همسالانشان استفاده کردهاند (همانطور که در مدارس دیدیم) cbsnews.com. آموزش جوانان درباره پیامدهای اخلاقی و قانونی نیز بخشی از مدیریت است – برخی مدارس شروع به گنجاندن آگاهی درباره دیپفیک در برنامههای سواد دیجیتال کردهاند nea.org.
- همکاری و بهترین رویهها: مبارزه با سوءاستفاده از هوش مصنوعی منجر به همکاریهایی بین شرکتهای فناوری، نیروهای انتظامی و سازمانهای غیردولتی شده است. ابتکاراتی مانند گروه یکپارچگی رسانهای Partnership on AI یا ائتلاف برای منشأ و اصالت محتوا (C2PA) با هدف تعیین استانداردهایی برای احراز اصالت محتوا شکل گرفتهاند. شرکتها ممکن است متادیتایی درباره نحوه تولید یک تصویر/ویدیو (دوربین در مقابل نرمافزار هوش مصنوعی) اضافه کنند. در همین حال، نیروهای انتظامی در حال آموزش درباره دیپفیک هستند تا گزارشهای قربانیان را جدی بگیرند و بدانند چگونه شواهد را جمعآوری کنند. یوروپل در سال ۲۰۲۳ پورن دیپفیک را به عنوان یک تهدید نوظهور شناسایی کرد و از کشورهای عضو خواست منابعی برای مقابله با آن اختصاص دهند theguardian.com.
- محدودیتها بر مدلهای هوش مصنوعی: یکی از خطوط دفاعی مستقیمتر، محدود کردن توزیع مدلهایی است که قادر به تولید محتوای مضر هستند. برخی مخازن مدلهای هوش مصنوعی شرایطی دارند: برای مثال، Stability AI تصمیم گرفت به طور رسمی هیچ تصویر آشکارا پورنوگرافیکی را در مجموعه داده آموزشی Stable Diffusion 2.0 خود قرار ندهد، تا حدی برای جلوگیری از اینکه مدل در تولید پورن بیش از حد خوب شود (کاربران شکایت کردند که مدل جدید «محافظهکار» شده است). Hugging Face (هاب مدلهای هوش مصنوعی) گاهی میزبانی مدلهایی را که آشکارا برای پورن ساخته شدهاند رد میکند یا یک هشدار بزرگ اضافه میکند که کاربران باید موافقت کنند از آن سوءاستفاده نکنند. همچنین یک مورد قابل توجه وجود داشت: در اواخر ۲۰۲۲، سایت جمعسپاری Kickstarter یک کمپین برای «Unstable Diffusion» را ممنوع کرد که تلاشی برای جمعآوری پول جهت ساخت یک مدل هوش مصنوعی بهینهشده برای پورن بود. Kickstarter به سیاستی علیه پروژههای هوش مصنوعی پورنوگرافیک استناد کرد و آن را تعطیل کرد arnoldit.com. این اتفاق نشان داد که حتی تأمین مالی و حمایت از هوش مصنوعی NSFW نیز ممکن است با موانعی روبرو شود. فروشگاههای اپلیکیشن مانند اپل نیز نسبت به اپهای هوش مصنوعی بدون فیلتر خصمانه هستند – اپل برخی از اپهای تولید تصویر هوش مصنوعی را که میتوانستند خروجی NSFW تولید کنند حذف کرد و توسعهدهندگان را مجبور به افزودن فیلتر کرد. بنابراین، دسترسی به پیشرفتهترین مدلهای هوش مصنوعی ممکن است تا حدی توسط سیاستهای شرکتی محدود شود. با این حال، مدلهای واقعاً متنباز به راحتی قابل مهار نیستند – پس از انتشار، آنها در تورنتها و انجمنها پخش میشوند. بنابراین این یک اقدام محدود است.
مدیریت محتوا در عصر پورن هوش مصنوعی بدون شک چالشبرانگیز است. حجم محتوای بالقوه ناقض بسیار زیاد و رو به رشد است. اما فناوری برای مقابله با فناوری در حال پیشرفت است: خود هوش مصنوعی برای مقابله با هوش مصنوعی به کار گرفته میشود. برای مثال، گزارش شده که Meta از طبقهبندهای یادگیری ماشین برای شناسایی چهرههای شناختهشده در تصاویر برهنه برای شناسایی دیپفیکهای سلبریتیها و همچنین شناسایی آرتیفکتهای ترکیب معمول دیپفیکها استفاده میکند. استارتاپهایی مانند Reality Defender خدماتی به شرکتها ارائه میدهند تا محتوای دیپفیک را به صورت آنی اسکن و پاکسازی کنند realitydefender.com. و قدرت قانونی که اکنون توسط قوانین جدید داده شده، به این معناست که پلتفرمهایی که در این اقدامات سرمایهگذاری نکنند با خطر جریمههای سنگین یا دادخواست مواجهاند.
یکی از مسیرهای امیدوارکننده، ایده رسانههای احراز هویتشده است: اگر مثلاً همه تولیدکنندگان قانونی پورن ویدیوهای خود را به صورت رمزنگاریشده به عنوان واقعی امضا کنند، هر چیزی که بدون امضا ادعا کند «ویدیوی جنسی فلان شخص» است میتواند مشکوک تلقی شود. اجرای جهانی این کار پیچیده است، اما مفهوم منشأ (provenance) در حال بررسی است (نه فقط برای پورن، بلکه برای همه رسانهها، برای مقابله با اطلاعات نادرست).
در نهایت، تعدیل محتوا هرگز بینقص نخواهد بود – هنوز هم بسیاری از موارد از طریق وب وحشی عبور خواهند کرد. پلتفرمهای رمزگذاریشده یا غیرمتمرکز بدترین محتوا را در خود جای خواهند داد. اما حداقل در عرصههای جریان اصلی و قانونی، تلاشی هماهنگ برای کاهش آسیب NSFW AI وجود دارد. امید این است که محیطی ایجاد شود که استفادههای مشروع (محتوای بزرگسالان با رضایت، هنر فانتزی و غیره) بتوانند وجود داشته باشند اما استفادههای مخرب به سرعت شناسایی و حذف شوند. این کار بزرگی است – که قربانیان آن را مانند بازی «whack-a-mole» توصیف کردهاند klobuchar.senate.gov – اما جعبهابزار قوانین، آشکارسازهای هوش مصنوعی، سیاستهای پلتفرم و آموزش کاربران در کنار هم یک دفاع چندلایه ایجاد میکنند.پیامدها و آینده: تأثیر بر سازندگان و صنعت بزرگسالان
همانطور که NSFW AI وضعیت موجود را مختل میکند، در حال حاضر بر افراد واقعی در اکوسیستم سرگرمی بزرگسالان – از ستارگان پورن و کارگران جنسی تا هنرمندان اروتیک و استودیوهای تولید محتوا – تأثیر میگذارد. برخی در فناوری جدید فرصت میبینند، در حالی که دیگران میترسند که منسوخ شوند یا ناخواسته درگیر آن شوند.
اجراکنندگان بزرگسال و کارگران جنسی: شاید مستقیمترین تأثیر بر کسانی باشد که با تولید محتوای بزرگسالان امرار معاش میکنند. از یک سو، برخی از سازندگان زیرک در حال پذیرش هوش مصنوعی برای تقویت کار خود هستند. برای مثال، مدلهای بزرگسال میتوانند از تولیدکنندههای عکس هوش مصنوعی برای تولید تصاویر بهبود یافته یا استایلشده از خودشان برای فروش استفاده کنند (و دیگر نیازی به عکاسیهای پرهزینه ندارند) – به شرطی که تصاویر هنوز شبیه خودشان باشد و با قوانین پلتفرم مطابقت داشته باشد reddit.com. چند اینفلوئنسر با ساخت «نسخههای هوش مصنوعی» از خودشان خبرساز شدهاند: مثلاً در سال ۲۰۲۳ یک اینفلوئنسر به نام Caryn Marjorie یک چتبات هوش مصنوعی از شخصیت خود راهاندازی کرد که طرفداران میتوانستند برای چت صمیمی با او پول پرداخت کنند. به طور مشابه، مفهوم «دوقلوهای دیجیتال» استارتاپ Oh به این معناست که یک ستاره پورن میتواند تصویر خود را مجوز دهد تا یک آواتار هوش مصنوعی بسازد که برای طرفداران چت یا اجرا کند و یک منبع درآمد جدید با حداقل کار اضافی ایجاد کند sifted.eu. این اقدامات نشان میدهد که برخی در این صنعت هوش مصنوعی را ابزاری برای مقیاسپذیری خود میدانند – آنها از نظر تئوری میتوانند از طریق هوش مصنوعی به طرفداران بیشتری سرگرمی ارائه دهند تا آنچه به صورت حضوری ممکن است.
از سوی دیگر، بسیاری از اجراکنندگان نگران هستند. اگر طرفداران بتوانند محتوای فانتزی خود را به صورت سفارشی توسط هوش مصنوعی دریافت کنند، آیا دیگر به افراد واقعی پولی پرداخت خواهند کرد؟ گزارشهایی وجود داشته که پروفایلهای تولیدشده توسط هوش مصنوعی در OnlyFans ظاهر شدهاند که از زنان کاملاً ساختگی (اما واقعگرایانه) استفاده میکنند، گاهی با واترمارک #AI پس از ایجاد شک، محتوایی ارزانتر میفروشند یا کاربران را در reddit.com اسپم میکنند. این نوع رقابت میتواند به درآمد خالقان واقعی آسیب بزند. برخی از کارگران جنسی میگویند دیدن استانداردی نوظهور که موفقیت را به معنای تولید محتوا به صورت ۲۴ ساعته و ۷ روز هفته مانند یک الگوریتم میداند، «دلسردکننده» است – استانداردی که برای انسان غیرممکن اما برای هوش مصنوعی آسان است و بنابراین به انسانها فشار میآورد که یا از هوش مصنوعی استفاده کنند یا عقب بمانند reddit.com. همچنین یک جنبه احساسی وجود دارد: همانطور که یک خالق باتجربه نوشت، استفاده از هوش مصنوعی برای «تقلب» مؤثر با تولید بدنی بینقص یا خروجی بیپایان، باعث میشود تلاش واقعی و اصالت خالقان انسانی بیارزش شود reddit.com. او درباره کسانی که با هوش مصنوعی محتوای جعلی تولید میکنند گفت: «این یک حرکت ناجوانمردانه است – بیاحترامی به طرفدارانم… و به زحمتی که برای بدن [و محتوای] خودم کشیدهام» reddit.com.ما هماکنون شاهد برخی واکنشها و سازگاریها هستیم: خالقانی که با هم متحد میشوند تا پروفایلهای جعلی هوش مصنوعی را افشا کنند و پلتفرمهایی که سیاستهای خود را تنظیم میکنند تا اطمینان دهند خالقان واقعی توسط هوش مصنوعی جعل هویت نمیشوند. OnlyFans، همانطور که اشاره شد، استفاده از چهره دیگران را ممنوع کرده و برچسبگذاری محتوای هوش مصنوعی را الزامی میکند reddit.com. حتی صحبتهایی درباره پیگیری قانونی خالقان علیه نمونههای جعلی هوش مصنوعی وجود داشته است – مثلاً شایعهای درباره شکایت برای حذف حسابهای رباتی در OnlyFans reddit.com. علاوه بر این، اجراکنندگان درباره رضایت و حقوق تصویر نگران هستند – مثلاً یک بازیگر بازنشسته پورن ممکن است ببیند صحنههای گذشتهاش برای آموزش هوش مصنوعی استفاده میشود که اکنون ویدیوهای صریح جدیدی از «او» بدون رضایت یا پرداختی تولید میکند. این مشابه نگرانی بازیگران هالیوود درباره استفاده هوش مصنوعی از چهرهشان است – با این تفاوت که بازیگران پورن حتی بیشتر در معرض خطر هستند چون تصویرشان به موضوعی بسیار حساس گره خورده است. این صنعت ممکن است نیاز داشته باشد چیزی شبیه موضع اتحادیه بازیگران سینما ایجاد کند، جایی که بازیگران بتوانند درباره نحوه شبیهسازیشان توسط هوش مصنوعی مذاکره کنند. در واقع، رویکرد دانمارک در اعطای کپیرایت چهره به افراد میتواند به اجراکنندگان سراسر جهان قدرت دهد تا مالکیت چهره/بدن خود را در این زمینهها مطالبه کنند euronews.com.
استودیوها و تهیهکنندگان: استودیوهای پورن سنتی نیز ممکن است دچار اختلال شوند. اگر یک تیم کوچک با ابزارهای هوش مصنوعی بتواند یک ویدیوی بزرگسالان قابل قبول بدون استخدام بازیگر تولید کند، استودیوهای بزرگ مزیت خود را از دست میدهند. با این حال، ویدیوی هوش مصنوعی فعلی هنوز به کیفیت استودیوهای حرفهای برای محتوای طولانی نرسیده است – عمدتاً کلیپهای کوتاه هستند یا نیاز به ترکیب با فیلم واقعی دارند. برخی استودیوها ممکن است شروع به استفاده از هوش مصنوعی برای افکتهای ویژه یا پستولید کنند (مثلاً جوانسازی بازیگران، بهبود جلوههای بصری، یا حتی حذف تتوهای شناسایی برای ناشناس ماندن). استفادهی احتمالی دیگر: تولید انیمیشنهای بزرگسالان واقعگرایانه که قبلاً ساخت آنها به صورت دستی پرهزینه بود. اما استودیوها همچنین با تهدید رفتارهای شبیه به دزدی دریایی مواجهاند: افراد سودجو میتوانند با هوش مصنوعی نسخههای تقلبی از محتوای ممتاز یا مدلها بسازند. برای مثال، اگر استودیویی یک ستاره محبوب تحت قرارداد داشته باشد، ممکن است کسی آن ستاره را با دیپفیک وارد صحنههای جدید کند و آنها را منتشر کند. این موضوع میتواند به سود استودیو و برند ستاره آسیب بزند. استودیوها ممکن است با اجرای قویتر علائم تجاری یا حقوق شخصیت استعدادهای قراردادی خود واکنش نشان دهند. ممکن است شاهد همکاری استودیوهای پورن با شرکتهای فناوری برای تولید محتوای هوش مصنوعی مجاز از ستارههای خود (با تقسیم درآمد) پیش از دزدان دریایی باشیم، به عنوان یک اقدام دفاعی.هنرمندان و نویسندگان اروتیک: فراتر از اجراکنندگان ویدیویی، به کسانی فکر کنید که کمیک، تصویرسازی یا ادبیات اروتیک خلق میکنند. هوش مصنوعی هماکنون قادر به تقلید سبکهای هنری است – به ویژه جامعه هنری هنتای در اواخر ۲۰۲۲ با هجوم آثار اروتیک انیمه تولیدشده توسط هوش مصنوعی مواجه شد که باعث اختلافاتی شد. برخی سفارشدهندگان به جای پرداخت به هنرمندان انسانی، از هوش مصنوعی استفاده کردند و دلیل آن را هزینه و راحتی عنوان کردند. هنرمندان در پلتفرمهایی مانند DeviantArt (که به خاطر معرفی قابلیتهای هوش مصنوعی با واکنش منفی روبهرو شد) اعتراض کردند. این نگرانی وجود دارد که بازار هنر و داستان سفارشی اروتیک فروبپاشد وقتی هر کسی بتواند کمیک یا داستان اروتیک شخصیسازیشده را رایگان تولید کند. با این حال، علاقهمندان اشاره میکنند که هوش مصنوعی هنوز در داستانسرایی پیچیده و هنر واقعاً پالایششده مشکل دارد – هنرمندان انسانی سطحی از خلاقیت و احساس را ارائه میدهند که هوش مصنوعی ممکن است فاقد آن باشد. نتیجه محتمل، رویکردی ترکیبی است: هنرمندان از هوش مصنوعی برای پیشنویس یا رنگآمیزی آثار استفاده میکنند و سپس لمسهای خود را اضافه میکنند. اما هنرمندان کمتر شناختهشده ممکن است رقابت با خروجیهای تککلیکی هوش مصنوعی که بسیاری از بینندگان آن را «به اندازه کافی خوب» میدانند، برایشان دشوار باشد. این موضوع شاید نیاز به یک ارزش «دستساز اصیل» جدید در هنر اروتیک را ایجاد کند، مشابه اینکه برخی طرفداران حاضرند برای دانستن اینکه یک انسان واقعاً آن را ساخته، هزینه بیشتری بپردازند.موضع صنعت بزرگسالان: جالب است که شرکتهای بزرگ سرگرمی بزرگسالان تاکنون نسبت به هوش مصنوعی نسبتاً ساکت بودهاند. شاید به این دلیل که در حال بررسی استراتژیهای خود به صورت داخلی هستند یا چون جلب توجه میتواند نظارت بیشتری را به دنبال داشته باشد. صنعت بزرگسالان به طور تاریخی در پذیرش فناوری سریع عمل کرده است (اینترنت، وبکم، پورن واقعیت مجازی و غیره را زود پذیرفت). هماکنون شاهد فروش محتوای «شبیهسازیشده با دیپفیک از چهره سلبریتی» در سایتهای بزرگسالان هستیم (که در برخی کشورها منطقه خاکستری قانونی است) و آزمایش با توصیهگرهای مبتنی بر هوش مصنوعی. در دنیای کمینگ، برخی سایتهای کمینگ با چتباتهای هوش مصنوعی برای حفظ تعامل مشتریان زمانی که مدلها آفلاین هستند، آزمایش کردهاند. اما جایگزینی کامل سرگرمکنندگان انسانی با هوش مصنوعی هنوز در پلتفرمهای اصلی رخ نداده است، تا حدی به دلیل عدم بلوغ فناوری و ترجیح کاربران به تعامل واقعی.با این حال، فشار اقتصادی ممکن است باعث سازگاری شود. اگر به طور فرضی، در ۲ تا ۳ سال آینده هوش مصنوعی بتواند بنا به درخواست، یک ویدیوی پورن فول اچدی از هر دو سلبریتی تولید کند، بازار پورن حرفهای با بازیگران ناشناس ممکن است افت کند – چرا باید پول داد یا اشتراک خرید وقتی فانتزیهای بینهایت و رایگان در دسترس است؟ این صنعت ممکن است به سمت تأکید بر اصالت، تعامل زنده و جامعه حرکت کند – چیزهایی که هوش مصنوعی نمیتواند ارائه دهد. ممکن است شاهد بازاریابی پورن با برچسبهایی مانند «۱۰۰٪ انسانی، لذت واقعی» به عنوان نقطه فروش باشیم، به طرز طنزآمیزی. از سوی دیگر، این صنعت ممکن است برای کاهش هزینهها از هوش مصنوعی استفاده کند – مثلاً یک بازیگر اجرا کند و سپس با هوش مصنوعی چهره او را تغییر دهند تا چندین ویدیوی «متفاوت» از یک برداشت بسازند (ترجیحاً با رضایت). این سناریو مسائل اخلاقی را مطرح میکند (آیا بینندگان میدانند که این همان فرد است که تغییر چهره داده؟ آیا بازیگر برای هر ویدیوی متغیر دستمزد میگیرد یا فقط یک بار؟).یک تأثیر مثبت میتواند بر ایمنی باشد: اگر هوش مصنوعی بتواند اعمال پرخطر را شبیهسازی کند، استودیوها ممکن است از آن برای جلوگیری از به خطر انداختن بازیگران استفاده کنند. برای مثال، به جای اینکه بازیگران یک بدلکاری افراطی انجام دهند، میتوانند چیزی ساده فیلمبرداری کنند و بخش شدید را با هوش مصنوعی تولید کنند. یا همانطور که اشاره شد، یک بازیگر میتواند با لباس فیلمبرداری کند و هوش مصنوعی نسخه برهنه را تولید کند، که میتواند راهی باشد برای اینکه کسی بدون واقعاً برهنه بودن در صحنه، در پورن ظاهر شود (هرچند این ایده خود بحثهایی درباره اصالت و رضایت ایجاد میکند).
تقسیمبندی بازار: به احتمال زیاد بازار محتوای بزرگسالان به سطوح مختلف تقسیم خواهد شد:
- محتوای انسانی سطح بالا که بر تعامل واقعی تأکید دارد (ویدیوهای شخصیسازیشده، OnlyFans با تعامل مستقیم سازنده، نمایشهای زنده – چیزهایی که حضور انسانی اصل ماجراست).
- محتوای تولیدشده با هوش مصنوعی که میتواند بسیار ارزان یا رایگان باشد و سایتهای اشتراکی یا کانالهای خصوصی را پر کند. این نوع محتوا ممکن است نیاز مصرفکنندگان عادی یا کسانی با فانتزیهای خاص (سلبریتی و غیره) را برآورده کند. اگر پورن دیپفیک همچنان نیمهغیرقانونی بماند، ممکن است بیشتر زیرزمینی یا در انجمنهای غیرتجاری باقی بماند.
- محتوای ترکیبی که در آن سازندگان از هوش مصنوعی استفاده میکنند اما همچنان درگیر هستند. برای مثال، یک مدل ممکن است مجموعههایی از تصاویر خود را که با هوش مصنوعی تقویت شدهاند بفروشد – در واقع چهره خودش اما بهبود یافته یا در صحنههای خیالی توسط هوش مصنوعی قرار گرفته. تا زمانی که شفاف و با رضایت باشد، طرفداران ممکن است از این تنوع استقبال کنند.
تأثیرات قانونی و مقرراتی بر صنعت: با وضع قوانین جدید درباره دیپفیکها، پلتفرمهای بزرگسالان انگیزههای قانونی برای ممنوعیت هرگونه محتوای بدون رضایت دارند. این موضوع ممکن است به طرز طنزآمیزی موقعیت کسبوکارهای بزرگسالان تثبیتشده و تحت نظارت (که فقط با اجراکنندگان رضایتمند کار میکنند) را در برابر سایتهای هوش مصنوعی غیرقانونی تقویت کند. اگر اجرای قانون قوی باشد، کاربرانی که به دنبال پورن دیپفیک هستند ممکن است دسترسی سختتری داشته باشند، که میتواند آنها را به منابع غیرقانونی دارکوب سوق دهد یا آن عادت را کاهش دهد. در همین حال، تولیدات هوش مصنوعی با رضایت (مانند مدلی که به نسخه هوش مصنوعی خودش رضایت میدهد) ممکن است به یک دسته محصول دارای مجوز جدید تبدیل شود. این موضوع نیازمند شفافسازی قانونی است: مثلاً آیا یک مدل میتواند کپیرایت یا علامت تجاری روی چهرهاش بگیرد تا بتواند از کسی که بدون اجازهاش یک کلون هوش مصنوعی از او میسازد شکایت کند؟ برخی کشورها مانند دانمارک و احتمالاً قوانین ایالتی آینده آمریکا به سمت این ایده حرکت میکنند euronews.com. این کار به اجراکنندگان کمک میکند تا از برند خود محافظت کنند.
جمعبندی تأثیرات: صنعت محتوای بزرگسالان در آغاز یک تغییر پارادایم بالقوه قرار دارد. کسانی که خود را تطبیق دهند – با استفاده اخلاقی و شفاف از هوش مصنوعی – میتوانند رشد کنند یا حداقل دوام بیاورند. کسانی که آن را نادیده بگیرند ممکن است در برابر موج عظیم محتوا و تغییر عادات مصرفکننده دچار مشکل شوند. همانطور که یک کارآفرین هوش مصنوعی درباره همراهان هوش مصنوعی گفت: «هر نوآوری جدیدی میتواند مانند یک تغییر شدید به نظر برسد… این یک تکامل است» sifted.eu. سؤال این است که آیا این تکامل مکمل اکوسیستم فعلی خالقان خواهد بود یا آن را از بین خواهد برد.
نتیجهگیری: مرز اروتیک جدید، آکنده از معضلات
ظهور هوش مصنوعی NSFW بیتردید یک جعبه پاندورا را گشوده است. تنها در چند سال، شاهد بودهایم که هوش مصنوعی از تولید تصاویر خندهدار گربه به تولید عکسهای برهنه جعلی رسیده که میتواند زندگی یک فرد را نابود کند. این فناوری قدرتمند، دو لبه و ماندگار است. از یک سو، به افراد عادی این امکان را میدهد که هر تصویر یا سناریوی اروتیک دلخواه خود را خلق کنند و مرز بین مصرفکننده و خالق را در سرگرمی بزرگسالان کمرنگ میکند. این فناوری نوید لذت شخصیسازیشده، اکتشاف خلاقانه و شاید مدلهای تجاری جدید را در صنعتی چند میلیارد دلاری که اغلب از نظر فناوری راکد بوده، میدهد. از سوی دیگر، هوش مصنوعی NSFW اشکال جدیدی از سوءاستفاده را دامن زده است – برخی آن را «تجاوز دیجیتال» مینامند – با گرفتن کنترل تصاویر و بدن افراد (عمدتاً زنان) در فضای دیجیتال. این فناوری نظامهای حقوقی ما را به چالش میکشد، نظامهایی که برای بهروزرسانی تعاریف جعل هویت، پورنوگرافی و رضایت در عصر هوش مصنوعی تلاش میکنند. همچنین جامعه را وادار میکند تا با پرسشهای ناراحتکنندهای درباره ماهیت تمایلات جنسی، آزادی بیان و ارتباط انسانی زمانی که توسط هوش مصنوعی تقویت یا شبیهسازی میشود، روبهرو شود.
تا اواخر سال ۲۰۲۵، پاندول به سمت تدابیر حفاظتی و پاسخگویی در حرکت است. قوانین عمده در ایالات متحده و اتحادیه اروپا، سرکوبها در آسیا و تغییرات سیاستی پلتفرمها همگی نشان میدهند که پورن غیرتوافقی تولیدشده با هوش مصنوعی به طور گستردهای غیرقابل قبول تلقی میشود. همزمان، فناوریهایی برای شناسایی و جلوگیری از سوءاستفادهها در حال توسعه است، حتی با وجود اینکه خود فناوری تولیدکننده نیز پیشرفت میکند. میتوان انتظار داشت که پویایی موش و گربه ادامه یابد: هر اقدام ایمنی جدید ممکن است با تکنیکهای دور زدن جدید توسط افراد بد نیت مواجه شود. اما آگاهی جمعی اکنون بسیار بالاتر است – پورن هوش مصنوعی دیگر یک پدیده عجیب و غریب اینترنتی نیست؛ بلکه به موضوعی اصلی در پارلمانها و اتاقهای خبر تبدیل شده است. این آگاهی عمومی میتواند قربانیان را توانمند کند تا صدای خود را بلند کنند و خواستار عدالت شوند و شرکتها را به پذیرش مسئولیت وادار کند.در آینده، همکاری جهانی کلیدی خواهد بود. این مسائل به مرزها محدود نمیشوند – یک دیپفیک ساختهشده در یک کشور میتواند زندگی کسی را در کشوری دیگر نابود کند. مهم خواهد بود که دولتها بهترین تجربیات را به اشتراک بگذارند (همانطور که نظرسنجی یورونیوز از قوانین اروپایی نشان میدهد، بسیاری از کشورها از رویکردهای یکدیگر میآموزند euronews.com euronews.com). شاید در سالهای آینده یک چارچوب یا معاهده بینالمللی برای مقابله با سوءاستفاده جنسی مبتنی بر تصویر شکل بگیرد و بدترین تخلفات را به عنوان جنایت علیه حقوق بشر تلقی کند. در این میان، گروههای جامعه مدنی و مربیان باید به افزایش آگاهی، آموزش سواد رسانهای (تا مردم قبل از باور یا اشتراکگذاری محتوای صمیمی «لو رفته» دوبار فکر کنند) و حمایت از قربانیان ادامه دهند.
با وجود تمام تاریکیهای مرتبط با هوش مصنوعی NSFW، شایان ذکر است که همه چیز ناامیدکننده نیست. در زمینههای توافقی، برخی افراد واقعاً از آن خوشبختی کسب میکنند – چه زوجی که با سناریوهای نقشآفرینی تولیدشده توسط هوش مصنوعی به رابطه خود تنوع میدهند، چه یک خالق بزرگسال که با استفاده از یک شخصیت هوش مصنوعی به طور ایمن از خانه درآمد کسب میکند، یا صرفاً افرادی که بالاخره فانتزی خاص خود را در یک اثر هنری یا داستان هوش مصنوعی میبینند. این کاربردها نباید در بحثها گم شوند؛ آنها تأکید میکنند که خود فناوری ذاتاً شرور نیست. این یک ابزار است – ابزاری که نیتهای انسانی، چه خوب و چه بد، را تقویت میکند. وظیفه ما این است که استفاده از آن را به سمت اهداف توافقی و خلاقانه هدایت کنیم و به شدت در برابر اهداف مخرب محافظت کنیم.
هنرمندان، خالقان و سکسورکرها – افرادی که در دنیای محتوای بزرگسال فعالیت میکنند – احتمالاً به سازگاری و ایجاد فضاهای جدید در این عرصه ادامه خواهند داد. بسیاری از آنها برای اطمینان از اینکه «اخلاق هوش مصنوعی» شامل صدای آنها نیز باشد، مبارزه میکنند و خواستار سازوکارهای رضایت و جبران هستند. آنها در واقع خواستهای ساده دارند: بدون اجازه از ما چیزی نگیرید. جامعه به طور کلی با این اصل در همه حوزههای هوش مصنوعی، از هنر تا خبر تا پورن، دست و پنجه نرم میکند.
در پایان، NSFW AI در تقاطع فناوری، تمایلات جنسی، قانون و اخلاق قرار دارد. این فناوری ما را به چالش میکشد تا مفاهیم رضایت، حریم خصوصی، و حتی خود واقعیت را در عصر دیجیتال بازتعریف کنیم. نیمه دوم دهه ۲۰۲۰ نقطه عطفی در تعیین هنجارها و قوانین حاکم بر این حوزه خواهد بود. آیا به سوی آیندهای میرویم که پورن هوش مصنوعی فراگیر اما به شدت قانونمند باشد و عمدتاً برای اهداف خوب یا خنثی استفاده شود؟ یا شاهد تکهتکه شدن این حوزه خواهیم بود، جایی که رسانههای اصلی آن را حذف میکنند اما در گوشههای تاریک، مانند یک تجارت غیرقانونی، رونق میگیرد؟ نتیجه به تصمیماتی بستگی دارد که اکنون توسط قانونگذاران، شرکتهای فناوری و کاربران گرفته میشود.یک چیز قطعی است: جن از بطری بیرون آمده است. ما نمیتوانیم NSFW AI را از نو اختراعنشده کنیم. اما میتوانیم و باید یاد بگیریم که مسئولانه با آن زندگی کنیم. به عنوان کاربر، این یعنی احترام به کرامت دیگران هنگام استفاده از این ابزارها؛ به عنوان شرکتها، ایجاد ایمنی از همان ابتدا؛ به عنوان دولتها، تعیین مرزهای روشن؛ و به عنوان جوامع، عدم تحمل سوءاستفادهها. با هوشیاری و همدلی، امید این است که مرحله «غرب وحشی» پورن هوش مصنوعی به سرزمینی متمدنتر تبدیل شود – جایی که بزرگسالان با رضایت بتوانند از اشکال جدید هنر اروتیک و ارتباط لذت ببرند، در حالی که کسانی که قصد سوءاستفاده از این فناوری را دارند، دور نگه داشته میشوند. داستان NSFW AI هنوز در حال نگارش است و اواسط ۲۰۲۵ تنها فصل اول آن است. واکنش جامعه اکنون تعیین خواهد کرد که آیا این فناوری در نهایت محتوای صمیمی ما را غنیتر میکند یا به خطر میاندازد.
منابع:
- اورموس، ویل. «کنگره لایحهای برای مقابله با تصاویر برهنه دیپفیک و انتقامجویی تصویب کرد.» واشنگتن پست (از طریق سایت سنای کلوبوچار)، ۲۸ آوریل ۲۰۲۵ klobuchar.senate.gov klobuchar.senate.gov.
- فاوکس، وایولت. «۸ بهترین تولیدکننده تصویر NSFW با هوش مصنوعی – یافتن لذت در تقاطع کد و رضایت.» شیکاگو ریدر، ۱۳ آوریل ۲۰۲۵ chicagoreader.com chicagoreader.com.
- مهدوی، اَروا. «پورن دیپفیک غیررضایتی یک وضعیت اضطراری است که زندگیها را نابود میکند.» گاردین، ۱ آوریل ۲۰۲۳ theguardian.com theguardian.com.
- فریس، لیلا. “سایت پورن تولیدشده با هوش مصنوعی Mr. Deepfakes پس از قطع حمایت ارائهدهنده خدمات تعطیل شد.” سیبیاس نیوز، ۵ مه ۲۰۲۵ cbsnews.com cbsnews.com.
- سیبیاس نیوز/ایافپی. “رسوایی پورن تولیدشده با هوش مصنوعی دانشگاه هنگکنگ را لرزاند؛ پس از آنکه دانشجوی حقوق ظاهراً دیپفیک ۲۰ زن را ساخت.” سیبیاس نیوز، ۱۵ ژوئیه ۲۰۲۵ cbsnews.com cbsnews.com.
- لیونز، امت. “کره جنوبی در آستانه جرمانگاری داشتن یا تماشای ویدیوهای دیپفیک جنسی.” سیبیاس نیوز، ۲۷ سپتامبر ۲۰۲۴ cbsnews.com cbsnews.com.
- وتینگتون، کالب. “قوانین جدید مقابله با دیپفیک و پورن کودک تولیدشده با هوش مصنوعی در تنسی اجرایی میشود.” دبلیواساموی نیوز نشویل، ۳۰ ژوئن ۲۰۲۵ wsmv.com wsmv.com.
- دسمارِه، آنا. “دانمارک با حمایت کپیرایت علیه دیپفیکها مقابله میکند. چه قوانین دیگری در اروپا وجود دارد؟” یورونیوز، ۳۰ ژوئن ۲۰۲۵ euronews.com euronews.com.
- نیکول-شوارتز، کای. “با OnlyFans هوش مصنوعی آشنا شوید: چگونه یک استارتاپ میلیونها دلار برای ساخت پلتفرم ‘همراهان اروتیک’ جذب کرد.” سیفتد، ۱۳ مارس ۲۰۲۵ sifted.eu sifted.eu.
- ویلسون، کلودیا. “سنا قانون DEFIANCE را تصویب کرد.” مرکز سیاستگذاری هوش مصنوعی (CAIP)، ۱ اوت ۲۰۲۴ centeraipolicy.org centeraipolicy.org.
- آرنولد، استیون. “گوگل موضع میگیرد — علیه محتوای مشکوک. آیا هوش مصنوعی درست عمل خواهد کرد؟” وبلاگ Beyond Search، ۲۴ مه ۲۰۲۴ arnoldit.com arnoldit.com.
- هلند، اسکار. “لین چی-لینگ از تایوان درباره تجربه دیپفیک و مبارزه با اطلاعات نادرست هوش مصنوعی.” سیانان، ۵ اکتبر ۲۰۲۳ (برای زمینه درباره دیپفیک افراد مشهور).
- (اسناد سیاستی، بیانیههای مطبوعاتی و گزارشهای اضافی طبق ارجاعات موجود در متن.)