حالت «تند» هوش مصنوعی ایلان ماسک جنجال دیپفیک غیراخلاقی بهپا کرد – چرا زنان هدف بحران جدید پورن هوش مصنوعی هستند

شرکت جدید هوش مصنوعی ایلان ماسک به دلیل تولید دیپفیکهای برهنه بدون رضایت از افراد مشهور – و انجام این کار به شکلی نگرانکننده و جنسیتزده – مورد انتقاد قرار گرفته است. یک تحقیق اخیر از گیزمودو نشان میدهد که ابزار Grok Imagine ماسک، با حالت “Spicy“، به راحتی ویدیوهای NSFW از زنان مشهور (مانند تیلور سوئیفت یا ملانیا ترامپ) تولید میکند اما از انجام همین کار برای مردان خودداری میکند gizmodo.com gizmodo.com. این گزارش به یافتههای گیزمودو درباره ویژگی بحثبرانگیز Grok میپردازد، رشد سریع محتوای پورنوگرافیک تولیدشده توسط هوش مصنوعی و دیپفیکها را بررسی میکند و به پیامدهای اخلاقی، قانونی و اجتماعی میپردازد. همچنین به بررسی تحولات اخیر تا آگوست ۲۰۲۵ میپردازیم – از خشم عمومی و هشدارهای کارشناسان تا قوانین جدیدی که با هدف مهار “انتقامپورن” هوش مصنوعی وضع شدهاند. هدف: درک این که چگونه “حالت Spicy” به آخرین نقطه بحران محتوای NSFW هوش مصنوعی تبدیل شد و چه میتوان در این باره انجام داد.
حالت “Spicy” در Grok – دیپفیکهای NSFW و یک سوگیری ذاتی
Grok Imagine تولیدکننده تصویر و ویدیوی xAI است (در دسترس مشترکین پولی در پلتفرم X ماسک) و به طور قابل توجهی به کاربران اجازه میدهد محتوای بزرگسالان را از طریق حالت “Spicy” ایجاد کنند gizmodo.com. در حالی که ابزارهای هوش مصنوعی جریان اصلی مانند Veo گوگل و Sora اوپنایآی تصاویر صریح یا تصاویر افراد مشهور را ممنوع میکنند، حالت Spicy در Grok به طور فعال آن را تشویق میکند avclub.com avclub.com. آزمایشهای The Verge نشان داد که هوش مصنوعی “بدون تردید در اولین تلاش ویدیوهای کاملاً بدون سانسور از تاپلس تیلور سویفت تولید کرد” – حتی بدون اینکه درخواست برهنگی شده باشد theverge.com. به طور مشابه، Deadline دریافت که تولید تصویری از اسکارلت جوهانسون در حال نشان دادن لباس زیرش توسط Grok بسیار آسان است avclub.com. در تضاد کامل، تلاشها برای تولید تصاویر برهنگی مردانه بینتیجه بود. همانطور که Gizmodo گزارش میدهد، “فقط تصاویری که زنان را نشان میداد واقعاً برای محیط کار مناسب نبودند. ویدیوهای مردان از آن نوع بودند که واقعاً توجه کسی را جلب نمیکرد.” gizmodo.com. در عمل، حالت Spicy در Grok ممکن است در نهایت فقط مردی را بدون پیراهن نشان دهد، در حالی که زنان به صورت تاپلس یا کاملاً برهنه نمایش داده میشوند.
این استاندارد دوگانه آشکار زنگ خطرها را به صدا درآورده است. گروک با فشردن یک دکمه، کلیپی به سبک پورن نرم از یک شخصیت زن عمومی تولید میکند gizmodo.com، اما همان فیلتر «تند» ظاهراً در مورد مردان فقط تا حد برهنگی بالاتنه متوقف میشود gizmodo.com. مت نوواک از گیزمودو حتی سعی کرد یک مرد معمولی و غیرمشهور را در مقابل یک زن معمولی امتحان کند: آواتار مرد به طور دست و پا شکستهای شلوارش را میکشید اما پوشیده میماند، در حالی که آواتار زن بلافاصله سینههایش را برهنه کرد gizmodo.com. چنین نتایجی نشان میدهد که سوگیری جنسیتی در تعدیل محتوای هوش مصنوعی وجود دارد (چه عمدی و چه به عنوان محصول جانبی آموزش آن). سابقه خود ماسک در اظهارنظرهای زنستیزانه – از تقویت ادعاهایی مبنی بر اینکه زنان «ضعیف» هستند gizmodo.com تا شوخی درباره باردار کردن تیلور سوئیفت – به این ظن دامن میزند که این سوگیری بیشتر یک ویژگی است تا یک اشکال gizmodo.com.قابلیتها و محدودیتها: شایان ذکر است که دیپفیکهای Grok اغلب کیفیت پایینی دارند. شباهتهای افراد مشهور که این سیستم تولید میکند، معمولاً غیرقابلقبول یا دارای اشکالات تصویری هستند gizmodo.com gizmodo.com. (برای مثال، تصاویری که قرار بود شبیه بازیگر سیدنی سوئینی یا سیاستمدار J.D. Vance باشند، هیچ شباهتی به چهره واقعی آنها نداشتند gizmodo.com.) خطاهای عجیب در تداوم تصویر – مانند مردی با دو پای شلوار نامتناسب در یک ویدیو – رایج هستند gizmodo.com. Grok همچنین به طور خودکار موسیقی یا صدای پسزمینه عمومی برای هر کلیپ تولید میکند که به حس عجیب و غیرواقعی بودن آن میافزاید gizmodo.com. این نقصهای فنی ممکن است در حال حاضر یک نقطه قوت نجاتبخش برای xAI باشند، چرا که جعلهای برهنه واقعگرایانه از افراد مشهور تقریباً قطعاً باعث شکایتهای حقوقی و صدور احکام قضایی میشدند gizmodo.com. همانطور که گیزمودو به شوخی گفت، بهترین دفاع ماسک در برابر اقدامات قانونی ممکن است این باشد که «این تصاویر حتی نزدیک هم نیستند» به چهره واقعی افراد مشهور gizmodo.com. اما این فناوری به سرعت در حال پیشرفت است و حتی این دیپفیکهای ناقص هم به اندازه کافی قابل شناسایی هستند که نگرانکننده باشند avclub.com.
پاسخ عمومی: راهاندازی «حالت تند» بلافاصله موجی از خشم را در شبکههای اجتماعی و رسانهها برانگیخت. تنها چند روز پس از راهاندازی Grok Imagine، X (توییتر) با تصاویر تولیدشده توسط هوش مصنوعی از زنان برهنه پر شد و کاربران با اشتیاق نکاتی را برای حداکثر کردن برهنگی در درخواستهای خود به اشتراک میگذاشتند gizmodo.com. این موضوع باعث انتقادات گسترده شد که ماسک عملاً راه را برای آزار و بهرهکشی جنسی مبتنی بر هوش مصنوعی باز کرده است. به گفته A.V. Club، «بخش زیادی از محتوای Grok Imagine که ماسک به اشتراک گذاشته یا بازنشر کرده، کلیپهایی از زنان بلوند با ظاهر کلیشهای یا زنانی با لباسهای فانتزی و باز است»، و اشاره میکند که به نظر میرسد ماسک قصد دارد وارد قلمرو Pornhub شود avclub.com avclub.com. وبلاگنویسان و مفسران فناوری با تمسخر پیشنهاد دادهاند که ماسک «عملاً برای یک شکایت از سوی تیلور سویفت التماس میکند» به خاطر تصاویر برهنه تولیدشده خودکار توسط Grok avclub.com. در واقع، برخی مفسران از اهداف سرشناس مانند سویفت خواستهاند تا ماسک را به دادگاه بکشانند و «دنیا را برای زنان و دختران دیگر امنتر کنند» avclub.com. تاکنون هیچ نشانهای از اقدام قانونی عمومی از سوی سویفت یا دیگران وجود ندارد – اما درخواستها برای پاسخگویی رو به افزایش است.حتی خارج از جنجال Grok، در سال ۲۰۲۴ شاهد یک اعتراض عمومی گسترده نسبت به پورن تولیدشده توسط هوش مصنوعی در X بودیم. در یک مورد، تصاویر پورنوگرافی دیپفیک از تیلور سویفت به طور گستردهای در این پلتفرم پخش شد، به طوری که یکی از عکسهای جعلی ۴۷ میلیون بازدید قبل از حذف شدن داشت theguardian.com. طرفداران به صورت گسترده برای گزارش این تصاویر بسیج شدند و حتی کاخ سفید نیز وارد عمل شد و این وضعیت را «نگرانکننده» خواند theguardian.com. مورد سویفت فقط به خاطر توجهی که جلب کرد استثناست؛ بیشمار زن (مشهور یا غیرمشهور) شاهد بودهاند که چهرهشان به محتوای صریح تبدیل شده که پلتفرمها در حذف سریع آن ناکام ماندهاند theguardian.com theguardian.com. خشم عمومی پیرامون این اتفاقات – و اکنون پیرامون حالت NSFW داخلی Grok – نشاندهنده اجماع رو به رشدی است که ابزارهای هوش مصنوعی که دیپفیک جنسی را ممکن میکنند از خطوط اخلاقی عبور کردهاند.افزایش سریع محتوای NSFW و دیپفیک تولیدشده توسط هوش مصنوعی
ماجرای Grok جدیدترین فصل در یک روند نگرانکننده است: پورن تولیدشده توسط هوش مصنوعی («پورن دیپفیک») در سالهای اخیر به شدت افزایش یافته است. این پدیده اولین بار در سال ۲۰۱۷ بدنام شد، زمانی که علاقهمندان در ردیت شروع به استفاده از الگوریتمهای اولیه یادگیری عمیق برای جایگزین کردن چهره سلبریتیها روی بدن بازیگران پورن کردند. تا سال ۲۰۱۸، ویدیوهای موسوم به «دیپفیک» از گل گدوت، اما واتسون، اسکارلت جوهانسون و دیگران در سایتهای بزرگسالان فراگیر شد – و این موضوع باعث شد پلتفرمهایی مانند ردیت، توییتر و پورنهاب چنین محتوای غیررضایتمندانهای را ممنوع کنند theguardian.com theverge.com.
با وجود آن ممنوعیتهای اولیه، صنعت پورن دیپفیک به زیرزمینی شدن روی آورد و به رشد خود ادامه داد. تا اواخر سال ۲۰۱۹، یک گزارش مهم از شرکت امنیت سایبری Deeptrace نشان داد که ۹۶٪ از تمام ویدیوهای دیپفیک در گردش آنلاین، پورنوگرافیک و شامل تعویض چهره بدون رضایت بودند که تقریباً به طور انحصاری زنان را هدف قرار میدادند regmedia.co.uk. چهار وبسایت برتر پورن دیپفیک مورد مطالعه، بیش از ۱۳۴ میلیون بازدید برای ویدیوهایی که «صدها سلبریتی زن در سراسر جهان» را هدف قرار داده بودند، ثبت کرده بودند regmedia.co.uk. این عدم توازن آشکار بود: قربانیان عمدتاً زنان بودند و مصرفکنندگان عمدتاً به زنان به عنوان اشیای جنسی علاقهمند بودند. دانیل سیترون، استاد حقوق، اشاره کرد: «۹۹٪ ویدیوهای سکس دیپفیک شامل زنان، معمولاً سلبریتیهای زن است»، و تأکید کرد که این ساختهها «شما را به شیء جنسی تبدیل میکند به شکلی که خودتان انتخاب نکردهاید» nymag.com. سیترون افزود: «تا زمانی که خودتان پورنوگرافی را انتخاب کنید، مشکلی ندارد» – وحشت دیپفیکها این است که این زنان هرگز انتخاب نکردهاند که چهرهشان در صحنههای صریح استفاده شود nymag.com.در ابتدا، دیپفیکهای سلبریتی غالب بودند، اما اکنون افراد عادی به طور فزایندهای هدف قرار میگیرند. در ژانویه ۲۰۲۳، جامعه استریم توییچ با یک رسوایی مواجه شد، زمانی که استریمر محبوب، برندون «اتریوک» ایوینگ، به طور تصادفی نشان داد که در حال مشاهده یک وبسایت پورن دیپفیک بوده که ویدیوهای صریح از استریمرهای زن میفروخت – چهره آنها را روی بدن بازیگران پورن قرار میداد polygon.com. زنان (برخی از آنها دوستان شخصی اتریوک بودند) ویران شدند و موجی از آزار و اذیت را تجربه کردند پس از آنکه دیپفیکها فاش شد polygon.com. یکی از قربانیان، استریمر QTCinderella، بیانیهای اشکآلود در محکومیت این نقض حریم خصوصی داد و بعداً به سازماندهی تلاشهای حقوقی برای حذف چنین محتوایی کمک کرد polygon.com polygon.com. رسوایی «دیپفیک توییچ» نشان داد که لازم نیست ستاره هالیوود باشید تا این اتفاق برایتان بیفتد – هر فردی که تصاویرش آنلاین باشد، بالقوه در معرض این است که توسط هوش مصنوعی «برهنهسازی» شود، بدون رضایت خودش.
افزایش ابزارهای هوش مصنوعی کاربرپسند تنها این روند را تسریع کرده است. در سال ۲۰۱۹، اپلیکیشنی به نام DeepNude برای مدت کوتاهی به خاطر استفاده از هوش مصنوعی برای «برهنه کردن» عکسهای زنان با یک کلیک و تولید تصاویر برهنه جعلی onezero.medium.com وایرال شد. اگرچه سازنده DeepNude در پی واکنش منفی عمومی آن را تعطیل کرد، اما دیگر کار از کار گذشته بود. تا سالهای ۲۰۲۳ تا ۲۰۲۵، تولیدکنندههای تصویر متنباز (مانند مشتقات Stable Diffusion) و سرویسهای دیپفیک اختصاصی باعث شدهاند که هر کسی با چند عکس و کمترین دانش فنی بتواند تصاویر برهنه یا جنسی از دیگران بسازد. برخی انجمنها به طور آشکار تصاویر برهنه تولیدشده با هوش مصنوعی از زنان را که از شبکههای اجتماعی جمعآوری شدهاند، مبادله میکنند. همانطور که یکی از قربانیان استریمر توییچ پس از کشف تصاویر پورنوگرافیک جعلی از خودش با تأسف گفت، «این هیچ ربطی به من ندارد. اما اینجا با چهره من است.» theguardian.com حس نقض حریم خصوصی و ناتوانی در میان کسانی که «قربانی دیجیتالی» شدهاند، کاملاً مشهود است.
به طور خلاصه، هوش مصنوعی توانایی ساخت تصاویر پورنوگرافیک جعلی را دموکراتیزه کرده است و این قابلیت به طور نامتناسبی علیه زنان به کار گرفته شده است. فقط سلبریتیها هدف نیستند – این شامل هر کسی میشود، از روزنامهنگاران و فعالان (که ممکن است برای ارعاب یا بیاعتبارسازی هدف قرار گیرند) تا شریکهای سابق و افراد عادی (که توسط افراد کینهجو یا برای اخاذی هدف قرار میگیرند). ظهور قابلیتهایی مانند حالت Spicy در Grok – که یک مهر رسمی و کاربرپسند بر چیزی که قبلاً یک عمل زیرزمینی بود زد – نشان میدهد که هوش مصنوعی مولد محتوای NSFW واقعاً وارد جریان اصلی شده است و تمام بار اخلاقی خود را با خود آورده است.
پیامدهای اخلاقی، قانونی و اجتماعی پورن تولیدشده با هوش مصنوعی
خشم اخلاقی نسبت به پورن دیپفیک گسترده است. در اصل، ساختن یا به اشتراکگذاری محتوای جنسی از کسی بدون رضایت او، نقض عمیق حریم خصوصی، کرامت و خودمختاری است. همانطور که سیترون و سایر اخلاقگرایان استدلال میکنند، این فقط سوءاستفاده تصویری نیست – بلکه نوعی بهرهکشی جنسی است. قربانیان احساس «درماندگی، تحقیر و وحشت» را توصیف میکنند وقتی میدانند غریبهها (یا آزاردهندگان) در حال تماشای ویدیوهای جعلی از آنها در اعمال جنسی هستند که هرگز انجام ندادهاند. این میتواند معادل شکلی مجازی از تجاوز جنسی باشد و آسیب روانی ماندگاری به جا بگذارد. جای تعجب نیست که زنان و دختران بیشترین آسیب را میبینند: «دیپفیکهای صمیمی غیررضایتی» «تهدیدی فعلی، شدید و رو به رشد هستند که به طور نامتناسبی زنان را تحت تأثیر قرار میدهند»، پژوهشگران نتیجهگیری میکنند sciencedirect.com.
در بسیاری از این محتواها، یک جریان زنستیزانه نیز وجود دارد. کارشناسان اشاره میکنند که پورن دیپفیک اغلب به عنوان ابزاری برای تحقیر زنانی که در موقعیتهای قدرت هستند یا درخواستهای کسی را رد میکنند، استفاده میشود. «پورن تولیدشده توسط هوش مصنوعی، که با زنستیزی تغذیه میشود، اینترنت را فراگرفته است»، روزنامه گاردین در بحبوحه جنجال دیپفیک تیلور سویفت گزارش داد theguardian.com. خودِ عمل برهنه کردن یک زن توسط هوش مصنوعی میتواند تلاشی برای «سر جای خود نشاندن» او تلقی شود. «این مردان هستند که به یک زن قدرتمند میگویند به جعبهات برگرد»، همانطور که یک ناظر فضای حادثه سویفت را توصیف کرد. چه ترولهای ناشناس باشند که تصاویر برهنه یک سیاستمدار زن را تولید میکنند، چه یک طرفدار وسواسی که ویدیوهای جنسی جعلی از یک ستاره پاپ میسازد، پیام مشابه است – نوعی شیانگاری و ارعاب دیجیتال.فراتر از آسیب فردی، پیامدهای اجتماعی آن نگرانکننده است. اگر هر کسی بتواند در پورن قرار داده شود، دیگر نمیتوان به رسانههای تصویری اعتماد کرد. دیپفیکها تهدیدی برای آسیب به شهرت و اخاذی در مقیاس وسیع هستند. زنان شناختهشده ممکن است برای جلوگیری از هدف قرار گرفتن، خودسانسوری کنند یا از حضور آنلاین عقبنشینی کنند. همچنین اثر سرکوبگرانهای بر آزادی بیان وجود دارد: تصور کنید یک روزنامهنگار منتقد یک رژیم، هدف یک ویدیوی جنسی جعلی واقعگرایانه قرار گیرد که برای بیآبرو کردن او پخش میشود. در مجموع، عادیسازی «پورن سفارشی» با حضور افراد بدون رضایت، پرسشهایی درباره رضایت، سوءاستفاده جنسی و کالاییسازی چهره انسان ایجاد میکند. حتی در سرگرمی بزرگسالان با رضایت طرفین، برخی نگراناند که بازیگران تولیدشده توسط هوش مصنوعی جایگزین مدلهای واقعی شوند – اما وقتی این بازیگران هوش مصنوعی از چهرههای واقعی افراد که از فیسبوک یا اینستاگرام دزدیده شدهاند استفاده میکنند، مرز رضایت به وضوح زیر پا گذاشته میشود.
آزادی بیان در مقابل حریم خصوصی: تنشی میان کسانی که خواهان غیرقانونی کردن همه دیپفیکهای پورنوگرافیک هستند و طرفداران آزادی بیان که نگران افراط هستند، وجود دارد. آیا ممکن است یک دیپفیک سلبریتی به عنوان تقلید یا هنر مشروع تلقی شود؟ در تئوری، بله – طنز و تقلید بیان محافظتشده هستند، حتی با استفاده از شباهت چهره افراد عمومی. برخی مدافعان فناوری هوش مصنوعی اشاره میکنند که تصاویر تغییرشکلیافته از چهره افراد مشهور مدتهاست بخشی از فرهنگ عامه بودهاند (مثلاً جلدهای فتوشاپشده مجلات) و استدلال میکنند که جرمانگاری شتابزده میتواند خلاقیت را سرکوب کند. با این حال، حتی بیشتر پژوهشگران آزادی بیان نیز در تصاویر جنسی غیررضایتمندانه خط قرمز میکشند. آسیب به فرد آنقدر شدید و شخصی است که بهطور منطقی میتواند بر هر منفعت عمومی غلبه کند. کارشناسان حقوقی اشاره میکنند که قوانین افترا یا آزار و اذیت ممکن است برخی موارد را پوشش دهند، اما نه همه را. اجماع رو به رشدی وجود دارد که حفاظتهای قانونی جدیدی لازم است تا به طور خاص به پورن دیپفیک بپردازد، بدون اینکه بیان مشروع را تضعیف کند apnews.com apnews.com. تدوین دقیق این قوانین – برای مجازات سوءاستفادههای آشکار و در عین حال گرفتار نکردن طنز یا اروتیکای رضایتمندانه – چالشی است که سیاستگذاران اکنون با آن روبهرو هستند apnews.com apnews.com.
تحولات کنونی (تا اوت ۲۰۲۵): از واکنش به فناوری تا قوانین جدید
بحث دور حالت «Spicy» در Grok در زمانی مطرح شده که دولتها و پلتفرمها در سراسر جهان سرانجام در حال مقابله با اپیدمی تصاویر صمیمی تولیدشده با هوش مصنوعی هستند. در اینجا برخی از آخرین تحولات آمده است:
- خشم و کنشگری ملی: اتفاقات ویروسی مربوط به تیلور سوئیفت و دیگران افکار عمومی را برانگیخته است. حتی کاخ سفید آمریکا نیز درباره دیپفیکهای سوئیفت اظهار نظر کرد، همانطور که اشاره شد، و آنها را «نگرانکننده» خواند theguardian.com. گروههای مدافع مانند مرکز ملی مقابله با بهرهکشی جنسی به شدت موضع گرفتهاند و xAI ماسک را به خاطر «ترویج بهرهکشی جنسی با امکانپذیر کردن ساخت ویدیوهای برهنگی توسط هوش مصنوعی» محکوم کرده و خواستار حذف این قابلیتها شدهاند time.com. «xAI باید به دنبال راههایی برای جلوگیری از سوءاستفاده و بهرهکشی جنسی باشد»، هیلی مکنامارا از NCOSE در بیانیهای گفت که بازتابدهنده فشار گستردهتر جامعه مدنی است time.com.
- نظرسنجیها حمایت گسترده مردم از ممنوعیتها را نشان میدهند: نظرسنجیهای اخیر نشان میدهد مردم قاطعانه طرفدار مقررات سختگیرانهتر هستند. نظرسنجی ژانویه ۲۰۲۵ مؤسسه سیاستگذاری هوش مصنوعی نشان داد ۸۴٪ آمریکاییها از غیرقانونی شدن صریح پورن دیپفیک بدون رضایت حمایت میکنند و به همین ترتیب میخواهند شرکتهای هوش مصنوعی «مدلهای [هوش مصنوعی] را برای جلوگیری از استفاده در ساخت پورن دیپفیک محدود کنند.» time.com. همچنین نظرسنجی پیو در سال ۲۰۱۹ نشان داد حدود سهچهارم بزرگسالان آمریکایی طرفدار محدودیت بر ویدیو/تصاویر دیجیتالی دستکاریشده هستند time.com. به طور خلاصه، رأیدهندگان در سراسر طیف سیاسی خواهان اقدام علیه این نوع سوءاستفاده هستند.
- قوانین و لوایح جدید: قانونگذاران به این درخواست پاسخ دادهاند. در ایالات متحده، قانون Take It Down در ماه مه ۲۰۲۵ به امضا رسید که نخستین قانون فدرال با هدف مقابله با پورنوگرافی دیپفیک است time.com. این قانون دوحزبی انتشار یا تهدید به انتشار آگاهانه تصاویر خصوصی بدون رضایت – از جمله دیپفیکهای ساختهشده با هوش مصنوعی – را غیرقانونی میکند و پلتفرمها را ملزم میسازد تا ظرف ۴۸ ساعت پس از اطلاع قربانی، این محتوا را حذف کنند apnews.com apnews.com. مجازاتها شدید است و این قانون به قربانیان قدرت میدهد تا محتوای مورد نظر را به سرعت حذف کنند apnews.com apnews.com. «ما باید به قربانیان سوءاستفاده آنلاین حمایتهای قانونی لازم را بدهیم، بهویژه اکنون که دیپفیکها فرصتهای وحشتناک جدیدی برای سوءاستفاده ایجاد کردهاند»، سناتور ایمی کلوبوچار، یکی از حامیان این قانون، گفت و این قانون را «یک پیروزی بزرگ برای قربانیان سوءاستفاده آنلاین» خواند. apnews.com apnews.com حتی پیش از قانون فدرال، بیش از ۱۵ ایالت آمریکا ساخت یا توزیع دیپفیکهای صریح را ممنوع کرده بودند (اغلب با بهروزرسانی قوانین «انتقامجویی جنسی»). اکنون یک استاندارد فدرال یکپارچه در حال شکلگیری است. کشورهای دیگر نیز همزمان در حال اقدام هستند. دولت بریتانیا، برای مثال، اشتراکگذاری پورنوگرافی دیپفیک را در قانون ایمنی آنلاین خود (که از اوایل ۲۰۲۴ اجرایی شد) جرمانگاری کرده و در حال پیشبرد قانونی برای جرمانگاری حتی ساخت دیپفیکهای جنسی بدون رضایت است hsfkramer.com hsfkramer.com. در ژانویه ۲۰۲۵، بریتانیا بار دیگر پیشنهادی برای غیرقانونی کردن ساخت تصاویر برهنه دیپفیک ارائه داد و آن را «یک تحول تاریخی برای حفاظت از زنان و دختران» توصیف کرد. <a href=”https://www.hsfkramer.com/notes/tmt/2024-05/criminalising-deepfakes-the-uks-new-offences-following-the-online-safety-act#:~:text=Further%20update%3A%20On%207%20January,Act%2020hsfkramer.com hsfkramer.com استرالیا در سال ۲۰۲۴ قانونی را تصویب کرد که هم تولید و هم توزیع محتوای جنسی دیپفیک را ممنوع میکند، و کره جنوبی حتی تا آنجا پیش رفته که پیشنهاد داده است حتی داشتن یا مشاهده چنین پورن دیپفیکی (نه فقط تولید آن) جرمانگاری شود hsfkramer.com. روند جهانی روشن است: تصاویر جنسی هوش مصنوعی بدون رضایت به عنوان جرم تلقی میشوند. قانونگذاران اذعان دارند که این تصاویر «میتوانند زندگیها و اعتبار افراد را نابود کنند»، همانطور که کلوبوچار بیان کرد apnews.com، و در حال اقدام هستند – هرچند نهادهای ناظر آزادی بیان مانند EFF هشدار میدهند که قوانین ضعیف میتواند بیش از حد سانسور کند یا مورد سوءاستفاده قرار گیرد apnews.com apnews.com.
- سیاستهای پلتفرمهای فناوری: پلتفرمهای بزرگ فناوری شروع به بهروزرسانی سیاستهای خود (حداقل روی کاغذ) برای مقابله با محتوای جنسی تولیدشده توسط هوش مصنوعی کردهاند. فیسبوک، اینستاگرام، ردیت و توییتر سنتی همگی به طور رسمی تصاویر صمیمی غیررضایتمندانه، از جمله دیپفیکها را ممنوع کردهاند theguardian.com theverge.com. پورنهاب و سایر سایتهای بزرگسال نیز از سال ۲۰۱۸ انتشار محتوای تولیدشده با هوش مصنوعی که افراد واقعی را بدون رضایت نشان میدهد، ممنوع کردند theguardian.com theverge.com. در عمل، اجرای این قوانین همچنان ناقص است – یک کاربر مصمم هنوز هم میتواند دیپفیکهای غیرقانونی را در بسیاری از پلتفرمها پیدا یا به اشتراک بگذارد. با این حال، نشانههایی از پیشرفت وجود دارد: برای مثال، پس از حادثه سوئیفت، ایکس (توییتر) در نهایت با مسدود کردن جستجو برای نام او برای جلوگیری از گسترش این محتوا واکنش نشان داد theguardian.com theguardian.com. ردیت نه تنها پورن دیپفیک را ممنوع کرده، بلکه کل جوامعی را که چنین محتوایی را مبادله میکردند، تعطیل کرده است. یوتیوب و تیکتاک نیز سیاستهایی دارند که تصاویر صریح دستکاریشده با هوش مصنوعی را ممنوع میکند. چالش اصلی، مقیاس و شناسایی است – که در این زمینه فناوریهای جدید به کار گرفته میشوند.
- شناسایی و تدابیر حفاظتی: یک صنعت نوظهور از راهکارهای فناورانه در حال رشد است که هدف آن شناسایی و حذف پورن دیپفیک میباشد. شرکتهای هوش مصنوعی مانند Sensity (که قبلاً Deeptrace نام داشت) و استارتاپهایی مانند Ceartas در حال توسعه الگوریتمهای شناسایی هستند که اینترنت را برای یافتن چهره یک فرد در محتوای پورن اسکن کرده و تطابقها را علامتگذاری میکنند polygon.com polygon.com. در واقع، پس از رسوایی Twitch، Atrioc با Ceartas همکاری کرد تا به استریمرهای قربانی کمک کند: این شرکت از هوش مصنوعی خود برای یافتن محتوای دیپفیک از آن زنان و ثبت درخواست حذف DMCA استفاده کرد polygon.com polygon.com. OnlyFans، پلتفرمی که منافع مستقیمی در حفاظت از سازندگان محتوا دارد، نیز از چنین ابزارهایی برای کنترل محتوای جعلی مدلهای خود بهره گرفته است polygon.com. همچنین تلاشهایی برای قرار دادن واترمارک یا متادیتا در تصاویر تولیدشده با هوش مصنوعی جهت شناسایی جعلیات وجود دارد و همچنین پیشنهادهایی برای الزام احراز هویت رمزنگاریشده تصاویر واقعی (تا تصاویر بدون برچسب جعلی فرض شوند) مطرح شده است. افزون بر این، قانون هوش مصنوعی اتحادیه اروپا (مصوب ۲۰۲۴) مقرراتی دارد که توسعهدهندگان ابزارهای دیپفیک باید اطمینان حاصل کنند که خروجیها بهوضوح بهعنوان تولیدشده توسط هوش مصنوعی برچسبگذاری شوند bioid.com. چندین ایالت آمریکا (و اتحادیه اروپا) در حال بررسی الزاماتی هستند که هر محتوای تغییر یافته با هوش مصنوعی هنگام انتشار با افشاسازی همراه باشد cjel.law.columbia.edu bioid.com. اگرچه چنین برچسبهایی جلوی بازیگران مخرب را از حذف آنها نمیگیرد، اما تلاشی برای ایجاد هنجارهای شفافیت پیرامون رسانههای مصنوعی به شمار میرود.
- پلتفرمها در مقابل X ماسک: شایان ذکر است که رویکرد ماسک با X و xAI چقدر غیرمعمول است. در حالی که اکثر پلتفرمها در حال سختگیرانهتر کردن محدودیتها هستند، ماسک عملاً آنها را سهلتر کرده و به دنبال جذب کاربرانی است که خواهان قابلیتهای هوش مصنوعی «جنجالی» هستند. X نه تنها خروجیهای Grok را ممنوع نکرده است؛ بلکه خانه Grok است. این تفاوت باعث شده X با بسیاری از کارشناسان در تضاد قرار گیرد. در آگوست ۲۰۲۴، گروهی از قانونگذاران دموکرات به طور خاص به Grok ماسک در نامهای به نهادهای نظارتی اشاره کردند و هشدار دادند که سیاستهای سهلگیرانه درباره دیپفیکها (از جمله نمونههای صریح از چهرههایی مانند کامالا هریس یا تیلور سوئیفت) میتواند در انتخابات و فراتر از آن ویرانی به بار آورد time.com. به نظر میرسد ماسک شرط بسته که پاسخ به تقاضا برای اروتیکای تولیدشده با هوش مصنوعی (و حتی همراهان چت هوش مصنوعی که لاس میزنند یا لباس در میآورند، همانطور که قابلیتهای جدید xAI نشان میدهد time.com) درآمد و کاربران بیشتری جذب کند. اما واکنش منفی – حقوقی، اجتماعی و احتمالاً مالی (از طریق نگرانی تبلیغدهندگان) – ممکن است در بلندمدت داستان متفاوتی رقم بزند.
پیشنهادهای سیاستی و مسیر پیش رو: آیا میتوانیم پورن دیپفیک را مهار کنیم؟
اجماع میان سیاستگذاران و اخلاقگرایان این است که اقدام چندجانبه برای مقابله با محتوای NSFW تولیدشده با هوش مصنوعی لازم است. پیشنهادها و ایدههای کلیدی عبارتند از:
- قوانین و اجرای قویتر: همانطور که اشاره شد، قوانینی مانند قانون Take It Down شروع خوبی هستند. کارشناسان اصلاحات بیشتری را پیشنهاد میکنند، مانند اینکه عمل ساخت تصویر جنسی جعلی از کسی بدون رضایت، جرم تلقی شود، نه فقط توزیع آن. (بریتانیا در این مسیر حرکت میکند hsfkramer.com hsfkramer.com.) مجازاتهای قانونی روشن برای مرتکبان – و برای کسانی که آگاهانه میزبان یا منتفع از چنین محتوایی هستند – میتواند بازدارنده باشد. مهم است که هر قانونگذاری باید با دقت تنظیم شود تا به طور ناخواسته هنر اروتیکای توافقی یا طنز سیاسی مشروع را جرمانگاری نکند apnews.com apnews.com. راهکارهای مدنی نیز حیاتی هستند: قربانیان باید راههای آسانی برای شکایت و دریافت دستور دادگاه برای حذف محتوا داشته باشند. بسیاری از فعالان خواهان استثناهایی در بخش ۲۳۰ (قانون آمریکا که پلتفرمها را از مسئولیت محتوای کاربران محافظت میکند) هستند تا وبسایتها در صورت عدم پاسخ به درخواست حذف پورن دیپفیک مسئول شناخته شوند. این امر پلتفرمها را به هوشیاری بیشتر وادار میکند.
- ریلهای محافظتی فناوری: در بخش توسعه، پیشنهادها بر این است که سازندگان مدلهای هوش مصنوعی باید محافظتهای پیشگیرانه را در سیستم خود تعبیه کنند. برای مثال، شرکتها میتوانند فیلترهای محتوایی را آموزش دهند تا زمانی که درخواست کاربر شامل نام یا شباهت یک فرد واقعی است، آن را شناسایی کرده و هرگونه خروجی صریح مربوط به آن فرد را مسدود کنند. (برخی از تولیدکنندگان تصویر هوش مصنوعی هماکنون درخواستهایی که به افراد خصوصی اشاره دارد یا برهنگی افراد مشهور را تولید میکند، رد میکنند – Grok شرکت xAI در این زمینه استثناست و این کار را انجام نمیدهد avclub.com.) ایده دیگر، الزام به تأیید رضایت برای تولیدات صریح است: مثلاً یک سرویس هوش مصنوعی فقط زمانی تصویر برهنه تولید کند که کاربر ثابت کند سوژه خود او یا یک مدل رضایتدهنده است. البته، افراد سوءاستفادهگر میتوانند به سادگی از مدلهای متنباز بدون این فیلترها استفاده کنند، اما اگر پلتفرمهای اصلی ریلهای محافظتی سختگیرانه را اتخاذ کنند، میتواند از گسترش جریان اصلی جلوگیری کند. تأیید سن نیز یک نگرانی است – تنها بررسی Grok یک درخواست تاریخ تولد بود که به راحتی قابل دور زدن است gizmodo.com – بنابراین درخواستهایی برای ایجاد محدودیتهای سنی قویتر وجود دارد تا اطمینان حاصل شود که افراد زیر سن قانونی (که اغلب هدف آزار و اذیت از طریق تصاویر برهنه جعلی قرار میگیرند) نتوانند از این ابزارها استفاده کنند یا توسط آنها به تصویر کشیده شوند.
- پژوهش و شناسایی: دولتها در حال تأمین مالی پژوهشهایی برای شناسایی دیپفیکها هستند و شرکتها نیز بر روی استانداردهایی برای احراز اصالت رسانه همکاری میکنند. هدف این است که شناسایی و حذف سریع پورن جعلی هنگام انتشار آن آسانتر شود. با این حال، شناسایی همیشه یک بازی موش و گربه خواهد بود زیرا جعلهای هوش مصنوعی پیچیدهتر میشوند. برخی کارشناسان معتقدند تمرکز باید بر پیشگیری از آسیب (از طریق مجازاتهای قانونی و آموزش) باشد تا امید به یک «شناساییکننده جعلی» فنی که همه چیز را تشخیص دهد. با این حال، پیشرفتهای هوش مصنوعی در جهت خیر – مانند هشینگ بهتر تصاویر برای ردیابی جعلیهای شناختهشده یا ابزارهایی برای افراد تا بفهمند آیا تصویرشان سوءاستفاده شده است یا نه – نقش مهمی در کاهش آسیب ایفا خواهد کرد.
- پاسخگویی پلتفرمها: گروههای مدافع خواستار آن هستند که شبکههای اجتماعی و پلتفرمهای محتوای بزرگسال باید به طور فعالانه محتوای پورن هوش مصنوعی را کنترل کنند. این میتواند به معنای سرمایهگذاری در تیمهای مدیریت محتوا با مهارت در شناسایی دیپفیکها، همکاری با نیروهای انتظامی برای اجرای دستورات حذف و ممنوعیت کاربران متخلفی باشد که محتوای غیررضایتمندانه تولید یا به اشتراک میگذارند. برخی همچنین خواستار ایجاد سیستمهای انصراف یا ثبتنام هستند، به طوری که افراد بتوانند شباهت خود (یا فرزندانشان) را ثبت کنند و پلتفرمها موظف باشند اطمینان حاصل کنند هیچ محتوای هوش مصنوعی که آنها را به تصویر میکشد مجاز نباشد – هرچند از نظر اداری اجرای این کار دشوار خواهد بود. در حداقل حالت، پروتکلهای واکنش سریع – مانند الزام به حذف ظرف ۴۸ ساعت طبق قانون ایالات متحده apnews.com – باید به یک رویه استاندارد در همه پلتفرمهای جهانی تبدیل شود.
- آموزش و هنجارها: در نهایت، بخشی از راهحل در تغییر هنجارهای اجتماعی نهفته است. همانطور که جامعه به طور گسترده “پورن انتقامی” را محکوم کرد و آن را به عنوان سوءاستفاده شناخت، امید این است که پورن دیپفیک نیز به طور جهانی انگ زده شود. اگر افراد عادی آسیب را درک کنند و از به اشتراکگذاری یا مصرف چنین محتوایی خودداری کنند، تقاضا کاهش مییابد. اخلاقگرایان فناوری بر اهمیت سواد رسانهای تأکید میکنند – آموزش به مردم که دیدن همیشه به معنای باور کردن نیست و اینکه یک عکس تحریکآمیز از سلبریتی X ممکن است جعلی باشد. توانمندسازی نسلهای جوانتر برای حرکت انتقادی در دنیای رسانههای تغییر یافته با هوش مصنوعی حیاتی خواهد بود. همچنین کمپینهایی برای آگاهسازی افرادی که قصد ساخت این جعلیات را دارند که این کار شوخی نیست – بلکه نقض جدی با پیامدهای احتمالی کیفری است، ضروری خواهد بود.
نتیجهگیری
ظهور “حالت اسپایسی” گروک بنزین بر آتش بحران هوش مصنوعی و دیپفیکهای جنسی صریح ریخته است. ابزار هوش مصنوعی ایلان ماسک، با آسان و حتی “رسمی” کردن تولید تصاویر برهنه شبیه سلبریتیها، واکنش سریع و شدیدی را برانگیخته – و توجهها را به بحران گستردهتر پورن دیپفیک جلب کرده است. از راهروهای کنگره تا بخش نظرات فرومهای فناوری، توافق فزایندهای وجود دارد که باید کاری انجام شود تا افراد (به ویژه زنان) از کاربردهای تاریکتر این فناوری محافظت شوند.
همانطور که دیدیم، محتوای NSFW تولیدشده با هوش مصنوعی یک پدیده منفرد و عجیب نیست – بلکه یک چالش اجتماعی رو به رشد است. این موضوع آزادی خلاقیت و نوآوری فناورانه را در برابر حریم خصوصی، رضایت و امنیت قرار میدهد. جن از بطری بیرون آمده، اما با سیاستگذاری هوشمندانه، توسعه مسئولانه فناوری و تغییر فرهنگی، میتوانیم امیدوار باشیم که آسیب را مهار کنیم. ماهها و سالهای آینده احتمالاً شاهد شکایتهای بیشتر، قوانین جدیدتر و محافظتهای بهتر هوش مصنوعی خواهد بود. گروک ماسک یا تحت فشار سازگار خواهد شد یا به داستان عبرتآموزی از یک پروژه هوش مصنوعی تبدیل میشود که مرزهای اخلاقی را نادیده گرفت و تاوانش را داد.
در حال حاضر، پیام کارشناسان و عموم مردم یکسان است: پورن دیپفیک خط قرمزی است که هوش مصنوعی نباید از آن عبور کند. و اگر شرکتهایی مانند xAI خودشان این خط را نکشند، قانونگذاران و جامعه روز به روز آمادهتر میشوند تا این کار را برایشان انجام دهند. همانطور که یکی از مدافعان اخلاق فناوری گفت: “تبدیل تصویر شما به پورن بدون رضایت، ویرانگر است – وقت آن رسیده که با آن به عنوان یک سوءاستفاده جدی برخورد کنیم، نه یک اجتنابناپذیری فناوری.” بحث دیگر بر سر اینکه آیا اقدامی لازم است یا نه نیست، بلکه درباره این است که چقدر سریع و مؤثر میتوانیم بهرهکشی جنسی مبتنی بر هوش مصنوعی را مهار کنیم، پیش از آنکه زندگیهای بیشتری با نوآوری “اسپایسی” بعدی دگرگون شود.
منابع:
- نوواک، مت. “حالت ‘اسپایسی’ گروک دیپفیکهای NSFW سلبریتیهای زن (اما نه مردان) را میسازد.” گیزمودو، ۶ اوت ۲۰۲۵ gizmodo.com gizmodo.com.
- ودر بد، جس. “ تنظیم ویدیوی «تند» Grok فوراً برای من دیپفیکهای برهنه تیلور سویفت ساخت.” The Verge، ۵ اوت ۲۰۲۵ theverge.com.
- کار، مری کیت. “ ایلان ماسک عملاً برای یک شکایت حقوقی از تیلور سویفت با دیپفیکهای برهنه Grok AI التماس میکند.” AV Club، ۷ اوت ۲۰۲۵ avclub.com avclub.com.
- سانر، امینه. “ درون رسوایی دیپفیک تیلور سویفت: «این مردها هستند که به یک زن قدرتمند میگویند به جایش برگردد».” The Guardian، ۳۱ ژانویه ۲۰۲۴ theguardian.com theguardian.com.
- کلارک، نیکول. “ استریمر که باعث رسوایی پورن دیپفیک توییچ شد، بازگشت.” Polygon، ۱۶ مارس ۲۰۲۳ polygon.com polygon.com.
- پاترینی، جورجیو. “ وضعیت دیپفیکها.” گزارش Deeptrace Labs، اکتبر ۲۰۱۹ regmedia.co.uk.
- سیترون، دانیل. مصاحبه در NYMag Intelligencer، اکتبر ۲۰۱۹ nymag.com.
- اورتوتای، باربارا. “ رئیسجمهور ترامپ قانون Take It Down را امضا کرد، رسیدگی به دیپفیکهای غیرتوافقی. این چیست؟” AP News، اوت ۲۰۲۵ apnews.com apnews.com.
- بورگا، سولسایر. “ایلان ماسک به زودی به کاربران اجازه میدهد ویدیوهای هوش مصنوعی بسازند، از جمله ویدیوهای با محتوای صریح.” تایم، اوت 2025 time.com time.com.
- موسسه حقوقی هربرت اسمیت فریهیلز. “جرمانگاری دیپفیکها – جرایم جدید بریتانیا…“، 21 مه 2024 hsfkramer.com hsfkramer.com.