LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

حالت «تند» هوش مصنوعی ایلان ماسک جنجال دیپ‌فیک غیراخلاقی به‌پا کرد – چرا زنان هدف بحران جدید پورن هوش مصنوعی هستند

حالت «تند» هوش مصنوعی ایلان ماسک جنجال دیپ‌فیک غیراخلاقی به‌پا کرد – چرا زنان هدف بحران جدید پورن هوش مصنوعی هستند

Grok 4: Inside Elon Musk’s Most Powerful (and Controversial) AI Chatbot Yet

شرکت جدید هوش مصنوعی ایلان ماسک به دلیل تولید دیپ‌فیک‌های برهنه بدون رضایت از افراد مشهور – و انجام این کار به شکلی نگران‌کننده و جنسیت‌زده – مورد انتقاد قرار گرفته است. یک تحقیق اخیر از گیزمودو نشان می‌دهد که ابزار Grok Imagine ماسک، با حالت “Spicy“، به راحتی ویدیوهای NSFW از زنان مشهور (مانند تیلور سوئیفت یا ملانیا ترامپ) تولید می‌کند اما از انجام همین کار برای مردان خودداری می‌کند gizmodo.com gizmodo.com. این گزارش به یافته‌های گیزمودو درباره ویژگی بحث‌برانگیز Grok می‌پردازد، رشد سریع محتوای پورنوگرافیک تولیدشده توسط هوش مصنوعی و دیپ‌فیک‌ها را بررسی می‌کند و به پیامدهای اخلاقی، قانونی و اجتماعی می‌پردازد. همچنین به بررسی تحولات اخیر تا آگوست ۲۰۲۵ می‌پردازیم – از خشم عمومی و هشدارهای کارشناسان تا قوانین جدیدی که با هدف مهار “انتقام‌پورن” هوش مصنوعی وضع شده‌اند. هدف: درک این که چگونه “حالت Spicy” به آخرین نقطه بحران محتوای NSFW هوش مصنوعی تبدیل شد و چه می‌توان در این باره انجام داد.

حالت “Spicy” در Grok – دیپ‌فیک‌های NSFW و یک سوگیری ذاتی

Grok Imagine تولیدکننده تصویر و ویدیوی xAI است (در دسترس مشترکین پولی در پلتفرم X ماسک) و به طور قابل توجهی به کاربران اجازه می‌دهد محتوای بزرگسالان را از طریق حالت “Spicy” ایجاد کنند gizmodo.com. در حالی که ابزارهای هوش مصنوعی جریان اصلی مانند Veo گوگل و Sora اوپن‌ای‌آی تصاویر صریح یا تصاویر افراد مشهور را ممنوع می‌کنند، حالت Spicy در Grok به طور فعال آن را تشویق می‌کند avclub.com avclub.com. آزمایش‌های The Verge نشان داد که هوش مصنوعی “بدون تردید در اولین تلاش ویدیوهای کاملاً بدون سانسور از تاپلس تیلور سویفت تولید کرد” – حتی بدون اینکه درخواست برهنگی شده باشد theverge.com. به طور مشابه، Deadline دریافت که تولید تصویری از اسکارلت جوهانسون در حال نشان دادن لباس زیرش توسط Grok بسیار آسان است avclub.com. در تضاد کامل، تلاش‌ها برای تولید تصاویر برهنگی مردانه بی‌نتیجه بود. همانطور که Gizmodo گزارش می‌دهد، “فقط تصاویری که زنان را نشان می‌داد واقعاً برای محیط کار مناسب نبودند. ویدیوهای مردان از آن نوع بودند که واقعاً توجه کسی را جلب نمی‌کرد.” gizmodo.com. در عمل، حالت Spicy در Grok ممکن است در نهایت فقط مردی را بدون پیراهن نشان دهد، در حالی که زنان به صورت تاپلس یا کاملاً برهنه نمایش داده می‌شوند.

این استاندارد دوگانه آشکار زنگ خطرها را به صدا درآورده است. گروک با فشردن یک دکمه، کلیپی به سبک پورن نرم از یک شخصیت زن عمومی تولید می‌کند gizmodo.com، اما همان فیلتر «تند» ظاهراً در مورد مردان فقط تا حد برهنگی بالاتنه متوقف می‌شود gizmodo.com. مت نوواک از گیزمودو حتی سعی کرد یک مرد معمولی و غیرمشهور را در مقابل یک زن معمولی امتحان کند: آواتار مرد به طور دست و پا شکسته‌ای شلوارش را می‌کشید اما پوشیده می‌ماند، در حالی که آواتار زن بلافاصله سینه‌هایش را برهنه کرد gizmodo.com. چنین نتایجی نشان می‌دهد که سوگیری جنسیتی در تعدیل محتوای هوش مصنوعی وجود دارد (چه عمدی و چه به عنوان محصول جانبی آموزش آن). سابقه خود ماسک در اظهارنظرهای زن‌ستیزانه – از تقویت ادعاهایی مبنی بر اینکه زنان «ضعیف» هستند gizmodo.com تا شوخی درباره باردار کردن تیلور سوئیفت – به این ظن دامن می‌زند که این سوگیری بیشتر یک ویژگی است تا یک اشکال gizmodo.com.

قابلیت‌ها و محدودیت‌ها: شایان ذکر است که دیپ‌فیک‌های Grok اغلب کیفیت پایینی دارند. شباهت‌های افراد مشهور که این سیستم تولید می‌کند، معمولاً غیرقابل‌قبول یا دارای اشکالات تصویری هستند gizmodo.com gizmodo.com. (برای مثال، تصاویری که قرار بود شبیه بازیگر سیدنی سوئینی یا سیاستمدار J.D. Vance باشند، هیچ شباهتی به چهره واقعی آن‌ها نداشتند gizmodo.com.) خطاهای عجیب در تداوم تصویر – مانند مردی با دو پای شلوار نامتناسب در یک ویدیو – رایج هستند gizmodo.com. Grok همچنین به طور خودکار موسیقی یا صدای پس‌زمینه عمومی برای هر کلیپ تولید می‌کند که به حس عجیب و غیرواقعی بودن آن می‌افزاید gizmodo.com. این نقص‌های فنی ممکن است در حال حاضر یک نقطه قوت نجات‌بخش برای xAI باشند، چرا که جعل‌های برهنه واقع‌گرایانه از افراد مشهور تقریباً قطعاً باعث شکایت‌های حقوقی و صدور احکام قضایی می‌شدند gizmodo.com. همان‌طور که گیزمودو به شوخی گفت، بهترین دفاع ماسک در برابر اقدامات قانونی ممکن است این باشد که «این تصاویر حتی نزدیک هم نیستند» به چهره واقعی افراد مشهور gizmodo.com. اما این فناوری به سرعت در حال پیشرفت است و حتی این دیپ‌فیک‌های ناقص هم به اندازه کافی قابل شناسایی هستند که نگران‌کننده باشند avclub.com.

پاسخ عمومی: راه‌اندازی «حالت تند» بلافاصله موجی از خشم را در شبکه‌های اجتماعی و رسانه‌ها برانگیخت. تنها چند روز پس از راه‌اندازی Grok Imagine، X (توییتر) با تصاویر تولیدشده توسط هوش مصنوعی از زنان برهنه پر شد و کاربران با اشتیاق نکاتی را برای حداکثر کردن برهنگی در درخواست‌های خود به اشتراک می‌گذاشتند gizmodo.com. این موضوع باعث انتقادات گسترده شد که ماسک عملاً راه را برای آزار و بهره‌کشی جنسی مبتنی بر هوش مصنوعی باز کرده است. به گفته A.V. Club، «بخش زیادی از محتوای Grok Imagine که ماسک به اشتراک گذاشته یا بازنشر کرده، کلیپ‌هایی از زنان بلوند با ظاهر کلیشه‌ای یا زنانی با لباس‌های فانتزی و باز است»، و اشاره می‌کند که به نظر می‌رسد ماسک قصد دارد وارد قلمرو Pornhub شود avclub.com avclub.com. وبلاگ‌نویسان و مفسران فناوری با تمسخر پیشنهاد داده‌اند که ماسک «عملاً برای یک شکایت از سوی تیلور سویفت التماس می‌کند» به خاطر تصاویر برهنه تولیدشده خودکار توسط Grok avclub.com. در واقع، برخی مفسران از اهداف سرشناس مانند سویفت خواسته‌اند تا ماسک را به دادگاه بکشانند و «دنیا را برای زنان و دختران دیگر امن‌تر کنند» avclub.com. تاکنون هیچ نشانه‌ای از اقدام قانونی عمومی از سوی سویفت یا دیگران وجود ندارد – اما درخواست‌ها برای پاسخگویی رو به افزایش است.حتی خارج از جنجال Grok، در سال ۲۰۲۴ شاهد یک اعتراض عمومی گسترده نسبت به پورن تولیدشده توسط هوش مصنوعی در X بودیم. در یک مورد، تصاویر پورنوگرافی دیپ‌فیک از تیلور سویفت به طور گسترده‌ای در این پلتفرم پخش شد، به طوری که یکی از عکس‌های جعلی ۴۷ میلیون بازدید قبل از حذف شدن داشت theguardian.com. طرفداران به صورت گسترده برای گزارش این تصاویر بسیج شدند و حتی کاخ سفید نیز وارد عمل شد و این وضعیت را «نگران‌کننده» خواند theguardian.com. مورد سویفت فقط به خاطر توجهی که جلب کرد استثناست؛ بی‌شمار زن (مشهور یا غیرمشهور) شاهد بوده‌اند که چهره‌شان به محتوای صریح تبدیل شده که پلتفرم‌ها در حذف سریع آن ناکام مانده‌اند theguardian.com theguardian.com. خشم عمومی پیرامون این اتفاقات – و اکنون پیرامون حالت NSFW داخلی Grok – نشان‌دهنده اجماع رو به رشدی است که ابزارهای هوش مصنوعی که دیپ‌فیک جنسی را ممکن می‌کنند از خطوط اخلاقی عبور کرده‌اند.

افزایش سریع محتوای NSFW و دیپ‌فیک تولیدشده توسط هوش مصنوعی

ماجرای Grok جدیدترین فصل در یک روند نگران‌کننده است: پورن تولیدشده توسط هوش مصنوعی («پورن دیپ‌فیک») در سال‌های اخیر به شدت افزایش یافته است. این پدیده اولین بار در سال ۲۰۱۷ بدنام شد، زمانی که علاقه‌مندان در ردیت شروع به استفاده از الگوریتم‌های اولیه یادگیری عمیق برای جایگزین کردن چهره سلبریتی‌ها روی بدن بازیگران پورن کردند. تا سال ۲۰۱۸، ویدیوهای موسوم به «دیپ‌فیک» از گل گدوت، اما واتسون، اسکارلت جوهانسون و دیگران در سایت‌های بزرگسالان فراگیر شد – و این موضوع باعث شد پلتفرم‌هایی مانند ردیت، توییتر و پورن‌هاب چنین محتوای غیررضایتمندانه‌ای را ممنوع کنند theguardian.com theverge.com.

با وجود آن ممنوعیت‌های اولیه، صنعت پورن دیپ‌فیک به زیرزمینی شدن روی آورد و به رشد خود ادامه داد. تا اواخر سال ۲۰۱۹، یک گزارش مهم از شرکت امنیت سایبری Deeptrace نشان داد که ۹۶٪ از تمام ویدیوهای دیپ‌فیک در گردش آنلاین، پورنوگرافیک و شامل تعویض چهره بدون رضایت بودند که تقریباً به طور انحصاری زنان را هدف قرار می‌دادند regmedia.co.uk. چهار وب‌سایت برتر پورن دیپ‌فیک مورد مطالعه، بیش از ۱۳۴ میلیون بازدید برای ویدیوهایی که «صدها سلبریتی زن در سراسر جهان» را هدف قرار داده بودند، ثبت کرده بودند regmedia.co.uk. این عدم توازن آشکار بود: قربانیان عمدتاً زنان بودند و مصرف‌کنندگان عمدتاً به زنان به عنوان اشیای جنسی علاقه‌مند بودند. دانیل سیترون، استاد حقوق، اشاره کرد: «۹۹٪ ویدیوهای سکس دیپ‌فیک شامل زنان، معمولاً سلبریتی‌های زن است»، و تأکید کرد که این ساخته‌ها «شما را به شیء جنسی تبدیل می‌کند به شکلی که خودتان انتخاب نکرده‌اید» nymag.com. سیترون افزود: «تا زمانی که خودتان پورنوگرافی را انتخاب کنید، مشکلی ندارد» – وحشت دیپ‌فیک‌ها این است که این زنان هرگز انتخاب نکرده‌اند که چهره‌شان در صحنه‌های صریح استفاده شود nymag.com.

در ابتدا، دیپ‌فیک‌های سلبریتی غالب بودند، اما اکنون افراد عادی به طور فزاینده‌ای هدف قرار می‌گیرند. در ژانویه ۲۰۲۳، جامعه استریم توییچ با یک رسوایی مواجه شد، زمانی که استریمر محبوب، برندون «اتریوک» ایوینگ، به طور تصادفی نشان داد که در حال مشاهده یک وب‌سایت پورن دیپ‌فیک بوده که ویدیوهای صریح از استریمرهای زن می‌فروخت – چهره آن‌ها را روی بدن بازیگران پورن قرار می‌داد polygon.com. زنان (برخی از آن‌ها دوستان شخصی اتریوک بودند) ویران شدند و موجی از آزار و اذیت را تجربه کردند پس از آنکه دیپ‌فیک‌ها فاش شد polygon.com. یکی از قربانیان، استریمر QTCinderella، بیانیه‌ای اشک‌آلود در محکومیت این نقض حریم خصوصی داد و بعداً به سازماندهی تلاش‌های حقوقی برای حذف چنین محتوایی کمک کرد polygon.com polygon.com. رسوایی «دیپ‌فیک توییچ» نشان داد که لازم نیست ستاره هالیوود باشید تا این اتفاق برایتان بیفتد – هر فردی که تصاویرش آنلاین باشد، بالقوه در معرض این است که توسط هوش مصنوعی «برهنه‌سازی» شود، بدون رضایت خودش.

افزایش ابزارهای هوش مصنوعی کاربرپسند تنها این روند را تسریع کرده است. در سال ۲۰۱۹، اپلیکیشنی به نام DeepNude برای مدت کوتاهی به خاطر استفاده از هوش مصنوعی برای «برهنه کردن» عکس‌های زنان با یک کلیک و تولید تصاویر برهنه جعلی onezero.medium.com وایرال شد. اگرچه سازنده DeepNude در پی واکنش منفی عمومی آن را تعطیل کرد، اما دیگر کار از کار گذشته بود. تا سال‌های ۲۰۲۳ تا ۲۰۲۵، تولیدکننده‌های تصویر متن‌باز (مانند مشتقات Stable Diffusion) و سرویس‌های دیپ‌فیک اختصاصی باعث شده‌اند که هر کسی با چند عکس و کمترین دانش فنی بتواند تصاویر برهنه یا جنسی از دیگران بسازد. برخی انجمن‌ها به طور آشکار تصاویر برهنه تولیدشده با هوش مصنوعی از زنان را که از شبکه‌های اجتماعی جمع‌آوری شده‌اند، مبادله می‌کنند. همان‌طور که یکی از قربانیان استریمر توییچ پس از کشف تصاویر پورنوگرافیک جعلی از خودش با تأسف گفت، «این هیچ ربطی به من ندارد. اما اینجا با چهره من است.» theguardian.com حس نقض حریم خصوصی و ناتوانی در میان کسانی که «قربانی دیجیتالی» شده‌اند، کاملاً مشهود است.

به طور خلاصه، هوش مصنوعی توانایی ساخت تصاویر پورنوگرافیک جعلی را دموکراتیزه کرده است و این قابلیت به طور نامتناسبی علیه زنان به کار گرفته شده است. فقط سلبریتی‌ها هدف نیستند – این شامل هر کسی می‌شود، از روزنامه‌نگاران و فعالان (که ممکن است برای ارعاب یا بی‌اعتبارسازی هدف قرار گیرند) تا شریک‌های سابق و افراد عادی (که توسط افراد کینه‌جو یا برای اخاذی هدف قرار می‌گیرند). ظهور قابلیت‌هایی مانند حالت Spicy در Grok – که یک مهر رسمی و کاربرپسند بر چیزی که قبلاً یک عمل زیرزمینی بود زد – نشان می‌دهد که هوش مصنوعی مولد محتوای NSFW واقعاً وارد جریان اصلی شده است و تمام بار اخلاقی خود را با خود آورده است.

پیامدهای اخلاقی، قانونی و اجتماعی پورن تولیدشده با هوش مصنوعی

خشم اخلاقی نسبت به پورن دیپ‌فیک گسترده است. در اصل، ساختن یا به اشتراک‌گذاری محتوای جنسی از کسی بدون رضایت او، نقض عمیق حریم خصوصی، کرامت و خودمختاری است. همان‌طور که سیترون و سایر اخلاق‌گرایان استدلال می‌کنند، این فقط سوءاستفاده تصویری نیست – بلکه نوعی بهره‌کشی جنسی است. قربانیان احساس «درماندگی، تحقیر و وحشت» را توصیف می‌کنند وقتی می‌دانند غریبه‌ها (یا آزاردهندگان) در حال تماشای ویدیوهای جعلی از آن‌ها در اعمال جنسی هستند که هرگز انجام نداده‌اند. این می‌تواند معادل شکلی مجازی از تجاوز جنسی باشد و آسیب روانی ماندگاری به جا بگذارد. جای تعجب نیست که زنان و دختران بیشترین آسیب را می‌بینند: «دیپ‌فیک‌های صمیمی غیررضایتی» «تهدیدی فعلی، شدید و رو به رشد هستند که به طور نامتناسبی زنان را تحت تأثیر قرار می‌دهند»، پژوهشگران نتیجه‌گیری می‌کنند sciencedirect.com.

در بسیاری از این محتواها، یک جریان زن‌ستیزانه نیز وجود دارد. کارشناسان اشاره می‌کنند که پورن دیپ‌فیک اغلب به عنوان ابزاری برای تحقیر زنانی که در موقعیت‌های قدرت هستند یا درخواست‌های کسی را رد می‌کنند، استفاده می‌شود. «پورن تولیدشده توسط هوش مصنوعی، که با زن‌ستیزی تغذیه می‌شود، اینترنت را فراگرفته است»، روزنامه گاردین در بحبوحه جنجال دیپ‌فیک تیلور سویفت گزارش داد theguardian.com. خودِ عمل برهنه کردن یک زن توسط هوش مصنوعی می‌تواند تلاشی برای «سر جای خود نشاندن» او تلقی شود. «این مردان هستند که به یک زن قدرتمند می‌گویند به جعبه‌ات برگرد»، همان‌طور که یک ناظر فضای حادثه سویفت را توصیف کرد. چه ترول‌های ناشناس باشند که تصاویر برهنه یک سیاستمدار زن را تولید می‌کنند، چه یک طرفدار وسواسی که ویدیوهای جنسی جعلی از یک ستاره پاپ می‌سازد، پیام مشابه است – نوعی شی‌انگاری و ارعاب دیجیتال.

فراتر از آسیب فردی، پیامدهای اجتماعی آن نگران‌کننده است. اگر هر کسی بتواند در پورن قرار داده شود، دیگر نمی‌توان به رسانه‌های تصویری اعتماد کرد. دیپ‌فیک‌ها تهدیدی برای آسیب به شهرت و اخاذی در مقیاس وسیع هستند. زنان شناخته‌شده ممکن است برای جلوگیری از هدف قرار گرفتن، خودسانسوری کنند یا از حضور آنلاین عقب‌نشینی کنند. همچنین اثر سرکوبگرانه‌ای بر آزادی بیان وجود دارد: تصور کنید یک روزنامه‌نگار منتقد یک رژیم، هدف یک ویدیوی جنسی جعلی واقع‌گرایانه قرار گیرد که برای بی‌آبرو کردن او پخش می‌شود. در مجموع، عادی‌سازی «پورن سفارشی» با حضور افراد بدون رضایت، پرسش‌هایی درباره رضایت، سوءاستفاده جنسی و کالایی‌سازی چهره انسان ایجاد می‌کند. حتی در سرگرمی بزرگسالان با رضایت طرفین، برخی نگران‌اند که بازیگران تولیدشده توسط هوش مصنوعی جایگزین مدل‌های واقعی شوند – اما وقتی این بازیگران هوش مصنوعی از چهره‌های واقعی افراد که از فیسبوک یا اینستاگرام دزدیده شده‌اند استفاده می‌کنند، مرز رضایت به وضوح زیر پا گذاشته می‌شود.

آزادی بیان در مقابل حریم خصوصی: تنشی میان کسانی که خواهان غیرقانونی کردن همه دیپ‌فیک‌های پورنوگرافیک هستند و طرفداران آزادی بیان که نگران افراط هستند، وجود دارد. آیا ممکن است یک دیپ‌فیک سلبریتی به عنوان تقلید یا هنر مشروع تلقی شود؟ در تئوری، بله – طنز و تقلید بیان محافظت‌شده هستند، حتی با استفاده از شباهت چهره افراد عمومی. برخی مدافعان فناوری هوش مصنوعی اشاره می‌کنند که تصاویر تغییرشکل‌یافته از چهره افراد مشهور مدت‌هاست بخشی از فرهنگ عامه بوده‌اند (مثلاً جلدهای فتوشاپ‌شده مجلات) و استدلال می‌کنند که جرم‌انگاری شتاب‌زده می‌تواند خلاقیت را سرکوب کند. با این حال، حتی بیشتر پژوهشگران آزادی بیان نیز در تصاویر جنسی غیررضایتمندانه خط قرمز می‌کشند. آسیب به فرد آن‌قدر شدید و شخصی است که به‌طور منطقی می‌تواند بر هر منفعت عمومی غلبه کند. کارشناسان حقوقی اشاره می‌کنند که قوانین افترا یا آزار و اذیت ممکن است برخی موارد را پوشش دهند، اما نه همه را. اجماع رو به رشدی وجود دارد که حفاظت‌های قانونی جدیدی لازم است تا به طور خاص به پورن دیپ‌فیک بپردازد، بدون اینکه بیان مشروع را تضعیف کند apnews.com apnews.com. تدوین دقیق این قوانین – برای مجازات سوءاستفاده‌های آشکار و در عین حال گرفتار نکردن طنز یا اروتیکای رضایتمندانه – چالشی است که سیاست‌گذاران اکنون با آن روبه‌رو هستند apnews.com apnews.com.

تحولات کنونی (تا اوت ۲۰۲۵): از واکنش به فناوری تا قوانین جدید

بحث دور حالت «Spicy» در Grok در زمانی مطرح شده که دولت‌ها و پلتفرم‌ها در سراسر جهان سرانجام در حال مقابله با اپیدمی تصاویر صمیمی تولیدشده با هوش مصنوعی هستند. در اینجا برخی از آخرین تحولات آمده است:

    خشم و کنشگری ملی: اتفاقات ویروسی مربوط به تیلور سوئیفت و دیگران افکار عمومی را برانگیخته است. حتی کاخ سفید آمریکا نیز درباره دیپ‌فیک‌های سوئیفت اظهار نظر کرد، همان‌طور که اشاره شد، و آن‌ها را «نگران‌کننده» خواند theguardian.com. گروه‌های مدافع مانند مرکز ملی مقابله با بهره‌کشی جنسی به شدت موضع گرفته‌اند و xAI ماسک را به خاطر «ترویج بهره‌کشی جنسی با امکان‌پذیر کردن ساخت ویدیوهای برهنگی توسط هوش مصنوعی» محکوم کرده و خواستار حذف این قابلیت‌ها شده‌اند time.com. «xAI باید به دنبال راه‌هایی برای جلوگیری از سوءاستفاده و بهره‌کشی جنسی باشد»، هیلی مک‌نامارا از NCOSE در بیانیه‌ای گفت که بازتاب‌دهنده فشار گسترده‌تر جامعه مدنی است time.com.
  • نظرسنجی‌ها حمایت گسترده مردم از ممنوعیت‌ها را نشان می‌دهند: نظرسنجی‌های اخیر نشان می‌دهد مردم قاطعانه طرفدار مقررات سختگیرانه‌تر هستند. نظرسنجی ژانویه ۲۰۲۵ مؤسسه سیاست‌گذاری هوش مصنوعی نشان داد ۸۴٪ آمریکایی‌ها از غیرقانونی شدن صریح پورن دیپ‌فیک بدون رضایت حمایت می‌کنند و به همین ترتیب می‌خواهند شرکت‌های هوش مصنوعی «مدل‌های [هوش مصنوعی] را برای جلوگیری از استفاده در ساخت پورن دیپ‌فیک محدود کنند.» time.com. همچنین نظرسنجی پیو در سال ۲۰۱۹ نشان داد حدود سه‌چهارم بزرگسالان آمریکایی طرفدار محدودیت بر ویدیو/تصاویر دیجیتالی دستکاری‌شده هستند time.com. به طور خلاصه، رأی‌دهندگان در سراسر طیف سیاسی خواهان اقدام علیه این نوع سوءاستفاده هستند.
  • قوانین و لوایح جدید: قانون‌گذاران به این درخواست پاسخ داده‌اند. در ایالات متحده، قانون Take It Down در ماه مه ۲۰۲۵ به امضا رسید که نخستین قانون فدرال با هدف مقابله با پورنوگرافی دیپ‌فیک است time.com. این قانون دوحزبی انتشار یا تهدید به انتشار آگاهانه تصاویر خصوصی بدون رضایت – از جمله دیپ‌فیک‌های ساخته‌شده با هوش مصنوعی – را غیرقانونی می‌کند و پلتفرم‌ها را ملزم می‌سازد تا ظرف ۴۸ ساعت پس از اطلاع قربانی، این محتوا را حذف کنند apnews.com apnews.com. مجازات‌ها شدید است و این قانون به قربانیان قدرت می‌دهد تا محتوای مورد نظر را به سرعت حذف کنند apnews.com apnews.com. «ما باید به قربانیان سوءاستفاده آنلاین حمایت‌های قانونی لازم را بدهیم، به‌ویژه اکنون که دیپ‌فیک‌ها فرصت‌های وحشتناک جدیدی برای سوءاستفاده ایجاد کرده‌اند»، سناتور ایمی کلوبوچار، یکی از حامیان این قانون، گفت و این قانون را «یک پیروزی بزرگ برای قربانیان سوءاستفاده آنلاین» خواند. apnews.com apnews.com حتی پیش از قانون فدرال، بیش از ۱۵ ایالت آمریکا ساخت یا توزیع دیپ‌فیک‌های صریح را ممنوع کرده بودند (اغلب با به‌روزرسانی قوانین «انتقام‌جویی جنسی»). اکنون یک استاندارد فدرال یکپارچه در حال شکل‌گیری است. کشورهای دیگر نیز همزمان در حال اقدام هستند. دولت بریتانیا، برای مثال، اشتراک‌گذاری پورنوگرافی دیپ‌فیک را در قانون ایمنی آنلاین خود (که از اوایل ۲۰۲۴ اجرایی شد) جرم‌انگاری کرده و در حال پیشبرد قانونی برای جرم‌انگاری حتی ساخت دیپ‌فیک‌های جنسی بدون رضایت است hsfkramer.com hsfkramer.com. در ژانویه ۲۰۲۵، بریتانیا بار دیگر پیشنهادی برای غیرقانونی کردن ساخت تصاویر برهنه دیپ‌فیک ارائه داد و آن را «یک تحول تاریخی برای حفاظت از زنان و دختران» توصیف کرد. <a href=”https://www.hsfkramer.com/notes/tmt/2024-05/criminalising-deepfakes-the-uks-new-offences-following-the-online-safety-act#:~:text=Further%20update%3A%20On%207%20January,Act%2020hsfkramer.com hsfkramer.com استرالیا در سال ۲۰۲۴ قانونی را تصویب کرد که هم تولید و هم توزیع محتوای جنسی دیپ‌فیک را ممنوع می‌کند، و کره جنوبی حتی تا آنجا پیش رفته که پیشنهاد داده است حتی داشتن یا مشاهده چنین پورن دیپ‌فیکی (نه فقط تولید آن) جرم‌انگاری شود hsfkramer.com. روند جهانی روشن است: تصاویر جنسی هوش مصنوعی بدون رضایت به عنوان جرم تلقی می‌شوند. قانون‌گذاران اذعان دارند که این تصاویر «می‌توانند زندگی‌ها و اعتبار افراد را نابود کنند»، همان‌طور که کلوبوچار بیان کرد apnews.com، و در حال اقدام هستند – هرچند نهادهای ناظر آزادی بیان مانند EFF هشدار می‌دهند که قوانین ضعیف می‌تواند بیش از حد سانسور کند یا مورد سوءاستفاده قرار گیرد apnews.com apnews.com.
  • سیاست‌های پلتفرم‌های فناوری: پلتفرم‌های بزرگ فناوری شروع به به‌روزرسانی سیاست‌های خود (حداقل روی کاغذ) برای مقابله با محتوای جنسی تولیدشده توسط هوش مصنوعی کرده‌اند. فیسبوک، اینستاگرام، ردیت و توییتر سنتی همگی به طور رسمی تصاویر صمیمی غیررضایتمندانه، از جمله دیپ‌فیک‌ها را ممنوع کرده‌اند theguardian.com theverge.com. پورن‌هاب و سایر سایت‌های بزرگسال نیز از سال ۲۰۱۸ انتشار محتوای تولیدشده با هوش مصنوعی که افراد واقعی را بدون رضایت نشان می‌دهد، ممنوع کردند theguardian.com theverge.com. در عمل، اجرای این قوانین همچنان ناقص است – یک کاربر مصمم هنوز هم می‌تواند دیپ‌فیک‌های غیرقانونی را در بسیاری از پلتفرم‌ها پیدا یا به اشتراک بگذارد. با این حال، نشانه‌هایی از پیشرفت وجود دارد: برای مثال، پس از حادثه سوئیفت، ایکس (توییتر) در نهایت با مسدود کردن جستجو برای نام او برای جلوگیری از گسترش این محتوا واکنش نشان داد theguardian.com theguardian.com. ردیت نه تنها پورن دیپ‌فیک را ممنوع کرده، بلکه کل جوامعی را که چنین محتوایی را مبادله می‌کردند، تعطیل کرده است. یوتیوب و تیک‌تاک نیز سیاست‌هایی دارند که تصاویر صریح دستکاری‌شده با هوش مصنوعی را ممنوع می‌کند. چالش اصلی، مقیاس و شناسایی است – که در این زمینه فناوری‌های جدید به کار گرفته می‌شوند.
  • شناسایی و تدابیر حفاظتی: یک صنعت نوظهور از راهکارهای فناورانه در حال رشد است که هدف آن شناسایی و حذف پورن دیپ‌فیک می‌باشد. شرکت‌های هوش مصنوعی مانند Sensity (که قبلاً Deeptrace نام داشت) و استارتاپ‌هایی مانند Ceartas در حال توسعه الگوریتم‌های شناسایی هستند که اینترنت را برای یافتن چهره یک فرد در محتوای پورن اسکن کرده و تطابق‌ها را علامت‌گذاری می‌کنند polygon.com polygon.com. در واقع، پس از رسوایی Twitch، Atrioc با Ceartas همکاری کرد تا به استریمرهای قربانی کمک کند: این شرکت از هوش مصنوعی خود برای یافتن محتوای دیپ‌فیک از آن زنان و ثبت درخواست حذف DMCA استفاده کرد polygon.com polygon.com. OnlyFans، پلتفرمی که منافع مستقیمی در حفاظت از سازندگان محتوا دارد، نیز از چنین ابزارهایی برای کنترل محتوای جعلی مدل‌های خود بهره گرفته است polygon.com. همچنین تلاش‌هایی برای قرار دادن واترمارک یا متادیتا در تصاویر تولیدشده با هوش مصنوعی جهت شناسایی جعلیات وجود دارد و همچنین پیشنهادهایی برای الزام احراز هویت رمزنگاری‌شده تصاویر واقعی (تا تصاویر بدون برچسب جعلی فرض شوند) مطرح شده است. افزون بر این، قانون هوش مصنوعی اتحادیه اروپا (مصوب ۲۰۲۴) مقرراتی دارد که توسعه‌دهندگان ابزارهای دیپ‌فیک باید اطمینان حاصل کنند که خروجی‌ها به‌وضوح به‌عنوان تولیدشده توسط هوش مصنوعی برچسب‌گذاری شوند bioid.com. چندین ایالت آمریکا (و اتحادیه اروپا) در حال بررسی الزاماتی هستند که هر محتوای تغییر یافته با هوش مصنوعی هنگام انتشار با افشاسازی همراه باشد cjel.law.columbia.edu bioid.com. اگرچه چنین برچسب‌هایی جلوی بازیگران مخرب را از حذف آن‌ها نمی‌گیرد، اما تلاشی برای ایجاد هنجارهای شفافیت پیرامون رسانه‌های مصنوعی به شمار می‌رود.
  • پلتفرم‌ها در مقابل X ماسک: شایان ذکر است که رویکرد ماسک با X و xAI چقدر غیرمعمول است. در حالی که اکثر پلتفرم‌ها در حال سخت‌گیرانه‌تر کردن محدودیت‌ها هستند، ماسک عملاً آن‌ها را سهل‌تر کرده و به دنبال جذب کاربرانی است که خواهان قابلیت‌های هوش مصنوعی «جنجالی» هستند. X نه تنها خروجی‌های Grok را ممنوع نکرده است؛ بلکه خانه Grok است. این تفاوت باعث شده X با بسیاری از کارشناسان در تضاد قرار گیرد. در آگوست ۲۰۲۴، گروهی از قانون‌گذاران دموکرات به طور خاص به Grok ماسک در نامه‌ای به نهادهای نظارتی اشاره کردند و هشدار دادند که سیاست‌های سهل‌گیرانه درباره دیپ‌فیک‌ها (از جمله نمونه‌های صریح از چهره‌هایی مانند کامالا هریس یا تیلور سوئیفت) می‌تواند در انتخابات و فراتر از آن ویرانی به بار آورد time.com. به نظر می‌رسد ماسک شرط بسته که پاسخ به تقاضا برای اروتیکای تولیدشده با هوش مصنوعی (و حتی همراهان چت هوش مصنوعی که لاس می‌زنند یا لباس در می‌آورند، همان‌طور که قابلیت‌های جدید xAI نشان می‌دهد time.com) درآمد و کاربران بیشتری جذب کند. اما واکنش منفی – حقوقی، اجتماعی و احتمالاً مالی (از طریق نگرانی تبلیغ‌دهندگان) – ممکن است در بلندمدت داستان متفاوتی رقم بزند.

پیشنهادهای سیاستی و مسیر پیش رو: آیا می‌توانیم پورن دیپ‌فیک را مهار کنیم؟

اجماع میان سیاست‌گذاران و اخلاق‌گرایان این است که اقدام چندجانبه برای مقابله با محتوای NSFW تولیدشده با هوش مصنوعی لازم است. پیشنهادها و ایده‌های کلیدی عبارتند از:

  • قوانین و اجرای قوی‌تر: همان‌طور که اشاره شد، قوانینی مانند قانون Take It Down شروع خوبی هستند. کارشناسان اصلاحات بیشتری را پیشنهاد می‌کنند، مانند اینکه عمل ساخت تصویر جنسی جعلی از کسی بدون رضایت، جرم تلقی شود، نه فقط توزیع آن. (بریتانیا در این مسیر حرکت می‌کند hsfkramer.com hsfkramer.com.) مجازات‌های قانونی روشن برای مرتکبان – و برای کسانی که آگاهانه میزبان یا منتفع از چنین محتوایی هستند – می‌تواند بازدارنده باشد. مهم است که هر قانون‌گذاری باید با دقت تنظیم شود تا به طور ناخواسته هنر اروتیکای توافقی یا طنز سیاسی مشروع را جرم‌انگاری نکند apnews.com apnews.com. راهکارهای مدنی نیز حیاتی هستند: قربانیان باید راه‌های آسانی برای شکایت و دریافت دستور دادگاه برای حذف محتوا داشته باشند. بسیاری از فعالان خواهان استثناهایی در بخش ۲۳۰ (قانون آمریکا که پلتفرم‌ها را از مسئولیت محتوای کاربران محافظت می‌کند) هستند تا وب‌سایت‌ها در صورت عدم پاسخ به درخواست حذف پورن دیپ‌فیک مسئول شناخته شوند. این امر پلتفرم‌ها را به هوشیاری بیشتر وادار می‌کند.
  • ریل‌های محافظتی فناوری: در بخش توسعه، پیشنهادها بر این است که سازندگان مدل‌های هوش مصنوعی باید محافظت‌های پیشگیرانه را در سیستم خود تعبیه کنند. برای مثال، شرکت‌ها می‌توانند فیلترهای محتوایی را آموزش دهند تا زمانی که درخواست کاربر شامل نام یا شباهت یک فرد واقعی است، آن را شناسایی کرده و هرگونه خروجی صریح مربوط به آن فرد را مسدود کنند. (برخی از تولیدکنندگان تصویر هوش مصنوعی هم‌اکنون درخواست‌هایی که به افراد خصوصی اشاره دارد یا برهنگی افراد مشهور را تولید می‌کند، رد می‌کنند – Grok شرکت xAI در این زمینه استثناست و این کار را انجام نمی‌دهد avclub.com.) ایده دیگر، الزام به تأیید رضایت برای تولیدات صریح است: مثلاً یک سرویس هوش مصنوعی فقط زمانی تصویر برهنه تولید کند که کاربر ثابت کند سوژه خود او یا یک مدل رضایت‌دهنده است. البته، افراد سوءاستفاده‌گر می‌توانند به سادگی از مدل‌های متن‌باز بدون این فیلترها استفاده کنند، اما اگر پلتفرم‌های اصلی ریل‌های محافظتی سختگیرانه را اتخاذ کنند، می‌تواند از گسترش جریان اصلی جلوگیری کند. تأیید سن نیز یک نگرانی است – تنها بررسی Grok یک درخواست تاریخ تولد بود که به راحتی قابل دور زدن است gizmodo.com – بنابراین درخواست‌هایی برای ایجاد محدودیت‌های سنی قوی‌تر وجود دارد تا اطمینان حاصل شود که افراد زیر سن قانونی (که اغلب هدف آزار و اذیت از طریق تصاویر برهنه جعلی قرار می‌گیرند) نتوانند از این ابزارها استفاده کنند یا توسط آن‌ها به تصویر کشیده شوند.
  • پژوهش و شناسایی: دولت‌ها در حال تأمین مالی پژوهش‌هایی برای شناسایی دیپ‌فیک‌ها هستند و شرکت‌ها نیز بر روی استانداردهایی برای احراز اصالت رسانه همکاری می‌کنند. هدف این است که شناسایی و حذف سریع پورن جعلی هنگام انتشار آن آسان‌تر شود. با این حال، شناسایی همیشه یک بازی موش و گربه خواهد بود زیرا جعل‌های هوش مصنوعی پیچیده‌تر می‌شوند. برخی کارشناسان معتقدند تمرکز باید بر پیشگیری از آسیب (از طریق مجازات‌های قانونی و آموزش) باشد تا امید به یک «شناسایی‌کننده جعلی» فنی که همه چیز را تشخیص دهد. با این حال، پیشرفت‌های هوش مصنوعی در جهت خیر – مانند هشینگ بهتر تصاویر برای ردیابی جعلی‌های شناخته‌شده یا ابزارهایی برای افراد تا بفهمند آیا تصویرشان سوءاستفاده شده است یا نه – نقش مهمی در کاهش آسیب ایفا خواهد کرد.
  • پاسخگویی پلتفرم‌ها: گروه‌های مدافع خواستار آن هستند که شبکه‌های اجتماعی و پلتفرم‌های محتوای بزرگسال باید به طور فعالانه محتوای پورن هوش مصنوعی را کنترل کنند. این می‌تواند به معنای سرمایه‌گذاری در تیم‌های مدیریت محتوا با مهارت در شناسایی دیپ‌فیک‌ها، همکاری با نیروهای انتظامی برای اجرای دستورات حذف و ممنوعیت کاربران متخلفی باشد که محتوای غیررضایتمندانه تولید یا به اشتراک می‌گذارند. برخی همچنین خواستار ایجاد سیستم‌های انصراف یا ثبت‌نام هستند، به طوری که افراد بتوانند شباهت خود (یا فرزندانشان) را ثبت کنند و پلتفرم‌ها موظف باشند اطمینان حاصل کنند هیچ محتوای هوش مصنوعی که آن‌ها را به تصویر می‌کشد مجاز نباشد – هرچند از نظر اداری اجرای این کار دشوار خواهد بود. در حداقل حالت، پروتکل‌های واکنش سریع – مانند الزام به حذف ظرف ۴۸ ساعت طبق قانون ایالات متحده apnews.com – باید به یک رویه استاندارد در همه پلتفرم‌های جهانی تبدیل شود.
  • آموزش و هنجارها: در نهایت، بخشی از راه‌حل در تغییر هنجارهای اجتماعی نهفته است. همان‌طور که جامعه به طور گسترده “پورن انتقامی” را محکوم کرد و آن را به عنوان سوءاستفاده شناخت، امید این است که پورن دیپ‌فیک نیز به طور جهانی انگ زده شود. اگر افراد عادی آسیب را درک کنند و از به اشتراک‌گذاری یا مصرف چنین محتوایی خودداری کنند، تقاضا کاهش می‌یابد. اخلاق‌گرایان فناوری بر اهمیت سواد رسانه‌ای تأکید می‌کنند – آموزش به مردم که دیدن همیشه به معنای باور کردن نیست و اینکه یک عکس تحریک‌آمیز از سلبریتی X ممکن است جعلی باشد. توانمندسازی نسل‌های جوان‌تر برای حرکت انتقادی در دنیای رسانه‌های تغییر یافته با هوش مصنوعی حیاتی خواهد بود. همچنین کمپین‌هایی برای آگاه‌سازی افرادی که قصد ساخت این جعلیات را دارند که این کار شوخی نیست – بلکه نقض جدی با پیامدهای احتمالی کیفری است، ضروری خواهد بود.

نتیجه‌گیری

ظهور “حالت اسپایسی” گروک بنزین بر آتش بحران هوش مصنوعی و دیپ‌فیک‌های جنسی صریح ریخته است. ابزار هوش مصنوعی ایلان ماسک، با آسان و حتی “رسمی” کردن تولید تصاویر برهنه شبیه سلبریتی‌ها، واکنش سریع و شدیدی را برانگیخته – و توجه‌ها را به بحران گسترده‌تر پورن دیپ‌فیک جلب کرده است. از راهروهای کنگره تا بخش نظرات فروم‌های فناوری، توافق فزاینده‌ای وجود دارد که باید کاری انجام شود تا افراد (به ویژه زنان) از کاربردهای تاریک‌تر این فناوری محافظت شوند.

همان‌طور که دیدیم، محتوای NSFW تولیدشده با هوش مصنوعی یک پدیده منفرد و عجیب نیست – بلکه یک چالش اجتماعی رو به رشد است. این موضوع آزادی خلاقیت و نوآوری فناورانه را در برابر حریم خصوصی، رضایت و امنیت قرار می‌دهد. جن از بطری بیرون آمده، اما با سیاست‌گذاری هوشمندانه، توسعه مسئولانه فناوری و تغییر فرهنگی، می‌توانیم امیدوار باشیم که آسیب را مهار کنیم. ماه‌ها و سال‌های آینده احتمالاً شاهد شکایت‌های بیشتر، قوانین جدیدتر و محافظت‌های بهتر هوش مصنوعی خواهد بود. گروک ماسک یا تحت فشار سازگار خواهد شد یا به داستان عبرت‌آموزی از یک پروژه هوش مصنوعی تبدیل می‌شود که مرزهای اخلاقی را نادیده گرفت و تاوانش را داد.

در حال حاضر، پیام کارشناسان و عموم مردم یکسان است: پورن دیپ‌فیک خط قرمزی است که هوش مصنوعی نباید از آن عبور کند. و اگر شرکت‌هایی مانند xAI خودشان این خط را نکشند، قانون‌گذاران و جامعه روز به روز آماده‌تر می‌شوند تا این کار را برایشان انجام دهند. همان‌طور که یکی از مدافعان اخلاق فناوری گفت: “تبدیل تصویر شما به پورن بدون رضایت، ویرانگر است – وقت آن رسیده که با آن به عنوان یک سوءاستفاده جدی برخورد کنیم، نه یک اجتناب‌ناپذیری فناوری.” بحث دیگر بر سر اینکه آیا اقدامی لازم است یا نه نیست، بلکه درباره این است که چقدر سریع و مؤثر می‌توانیم بهره‌کشی جنسی مبتنی بر هوش مصنوعی را مهار کنیم، پیش از آنکه زندگی‌های بیشتری با نوآوری “اسپایسی” بعدی دگرگون شود.

منابع:

  • نوواک، مت. “حالت ‘اسپایسی’ گروک دیپ‌فیک‌های NSFW سلبریتی‌های زن (اما نه مردان) را می‌سازد.گیزمودو، ۶ اوت ۲۰۲۵ gizmodo.com gizmodo.com.
  • ودر بد، جس. “ تنظیم ویدیوی «تند» Grok فوراً برای من دیپ‌فیک‌های برهنه تیلور سویفت ساخت. The Verge، ۵ اوت ۲۰۲۵ theverge.com.
  • کار، مری کیت. “ ایلان ماسک عملاً برای یک شکایت حقوقی از تیلور سویفت با دیپ‌فیک‌های برهنه Grok AI التماس می‌کند. AV Club، ۷ اوت ۲۰۲۵ avclub.com avclub.com.
  • سانر، امینه. “ درون رسوایی دیپ‌فیک تیلور سویفت: «این مردها هستند که به یک زن قدرتمند می‌گویند به جایش برگردد». The Guardian، ۳۱ ژانویه ۲۰۲۴ theguardian.com theguardian.com.
  • کلارک، نیکول. “ استریمر که باعث رسوایی پورن دیپ‌فیک توییچ شد، بازگشت. Polygon، ۱۶ مارس ۲۰۲۳ polygon.com polygon.com.
  • پاترینی، جورجیو. “ وضعیت دیپ‌فیک‌ها.” گزارش Deeptrace Labs، اکتبر ۲۰۱۹ regmedia.co.uk.
  • سیترون، دانیل. مصاحبه در NYMag Intelligencer، اکتبر ۲۰۱۹ nymag.com.
  • اورتوتای، باربارا. “ رئیس‌جمهور ترامپ قانون Take It Down را امضا کرد، رسیدگی به دیپ‌فیک‌های غیرتوافقی. این چیست؟ AP News، اوت ۲۰۲۵ apnews.com apnews.com.
  • بورگا، سولسایر. “ایلان ماسک به زودی به کاربران اجازه می‌دهد ویدیوهای هوش مصنوعی بسازند، از جمله ویدیوهای با محتوای صریح.تایم، اوت 2025 time.com time.com.
  • موسسه حقوقی هربرت اسمیت فریهیلز. “جرم‌انگاری دیپ‌فیک‌ها – جرایم جدید بریتانیا…“، 21 مه 2024 hsfkramer.com hsfkramer.com.