وضع الذكاء الاصطناعي “الحار” لإيلون ماسك يثير فضيحة ديب فيك غير لائقة – لماذا النساء هنّ المستهدفات في أزمة الإباحية الجديدة للذكاء الاصطناعي

مشروع الذكاء الاصطناعي الجديد لإيلون ماسك يتعرض لانتقادات بسبب إنشاء صور عارية مزيفة (ديب فيك) لمشاهير دون موافقتهم – وبطريقة منحازة بشكل مقلق من ناحية النوع الاجتماعي. يكشف تحقيق حديث لموقع Gizmodo أن أداة ماسك Grok Imagine، مع وضعها “Spicy“، تقوم بسهولة بإنشاء مقاطع فيديو غير لائقة (NSFW) لنساء شهيرات (مثل تايلور سويفت أو ميلانيا ترامب) لكنها ترفض القيام بذلك للرجال gizmodo.com gizmodo.com. يتعمق هذا التقرير في نتائج Gizmodo حول ميزة Grok المثيرة للجدل، ويفحص الارتفاع السريع في المحتوى الإباحي المُنتج بالذكاء الاصطناعي وصور الديب فيك، ويستكشف التداعيات الأخلاقية والقانونية والاجتماعية. كما نستعرض آخر التطورات حتى أغسطس 2025 – من الغضب الشعبي وتحذيرات الخبراء إلى القوانين الجديدة التي تهدف إلى الحد من “الانتقام الإباحي” بالذكاء الاصطناعي. الهدف: فهم كيف أصبح “الوضع الحار” (Spicy Mode) أحدث نقطة اشتعال في أزمة محتوى الذكاء الاصطناعي غير اللائق، وما الذي يمكن فعله حيال ذلك.
وضع Grok “الحار” (Spicy Mode) – صور ديب فيك غير لائقة وانحياز مدمج
Grok Imagine هو مولد الصور والفيديوهات الخاص بـ xAI (متوفر للمشتركين المدفوعين على منصة X التابعة لماسك) ويتميز بأنه يسمح للمستخدمين بإنشاء محتوى للبالغين عبر وضعية “Spicy” gizmodo.com. بينما تحظر أدوات الذكاء الاصطناعي السائدة مثل Veo من Google وSora من OpenAI الصور الصريحة أو صور المشاهير، فإن وضعية Spicy في Grok تشجع ذلك بشكل نشط avclub.com avclub.com. أظهرت اختبارات The Verge أن الذكاء الاصطناعي “لم يتردد في إنتاج مقاطع فيديو عارية تمامًا لتايلور سويفت من المحاولة الأولى – دون حتى طلب العري” theverge.com. وبالمثل، وجدت Deadline أنه من السهل جدًا جعل Grok ينشئ صورة لسكارليت جوهانسون وهي ترفع ملابسها الداخلية avclub.com. وعلى النقيض التام، لم تنجح أي محاولات لإنتاج عري ذكوري. ووفقًا لتقرير Gizmodo، “كان ينشئ فقط الصور غير اللائقة فعلاً عندما تكون لنساء. أما مقاطع الفيديو للرجال فكانت من النوع الذي لن يثير الكثير من الجدل.” gizmodo.com. عمليًا، قد يظهر الرجل في وضعية Spicy في Grok وهو بلا قميص فقط في أفضل الأحوال، بينما تظهر النساء عاريات الصدر أو عاريات تمامًا.
هذا الـالمعيار المزدوج الصارخ أثار القلق. يمكن لـGrok أن يُنتج مقطع فيديو بأسلوب الأفلام الإباحية الخفيفة لشخصية عامة أنثوية بضغطة زر واحدة gizmodo.com، لكن يبدو أن نفس فلتر “Spicy” يتوقف عند مجرد التعري الجزئي للذكور gizmodo.com. حتى أن مات نوفاك من Gizmodo جرب إعطاء أوامر لرجل عادي غير مشهور مقابل امرأة عادية: حيث قام الرجل الافتراضي بسحب بنطاله بشكل محرج لكنه بقي مغطى، بينما قامت المرأة الافتراضية بكشف صدرها فوراً gizmodo.com. تشير هذه النتائج إلى وجود تحيز جندري مدمج في آلية مراقبة محتوى الذكاء الاصطناعي (سواء كان ذلك مقصوداً أو نتيجة لتدريبه). وسجل ماسك نفسه في التصريحات المعادية للنساء – من تضخيم ادعاءات بأن النساء “ضعيفات” gizmodo.com إلى المزاح حول تلقيح تايلور سويفت – يزيد من الشكوك بأن هذا التحيز هو سمة وليس خطأ gizmodo.com.القدرات والقيود: من الجدير بالذكر أن التزييفات العميقة التي ينتجها Grok غالبًا ما تكون ذات جودة رديئة. فالشبه مع المشاهير الذي ينتجه غالبًا ما يكون غير مقنع أو مليئًا بالأخطاء التقنية gizmodo.com gizmodo.com. (على سبيل المثال، الصور التي كان من المفترض أن تمثل الممثلة سيدني سويني أو السياسي جيه. دي. فانس لم تشبههم على الإطلاق في الواقع gizmodo.com.) أخطاء الاستمرارية الغريبة – مثل رجل يرتدي بنطالين غير متطابقين في أحد الفيديوهات – شائعة gizmodo.com. كما أن Grok يقوم تلقائيًا بإنشاء موسيقى خلفية أو صوت عام لكل مقطع، مما يضيف إلى الإحساس الغريب بـ”وادي الغرابة” gizmodo.com. قد تكون هذه العيوب التقنية طوق نجاة لشركة xAI في الوقت الحالي، حيث إن التزييفات العارية الواقعية تمامًا للمشاهير ستؤدي بالتأكيد تقريبًا إلى دعاوى قضائية وأوامر قضائية gizmodo.com. كما قالت Gizmodo بسخرية، قد يكون أفضل دفاع لماسك ضد الإجراءات القانونية هو أن “الصور ليست حتى قريبة” من المشاهير الحقيقيين gizmodo.com. لكن التقنية تتحسن بسرعة، وحتى هذه التزييفات العميقة غير المثالية يمكن التعرف عليها بما يكفي لتكون مقلقة avclub.com.
رد الفعل العام: أثار إطلاق “الوضع الحار” غضبًا واسعًا على وسائل التواصل الاجتماعي وفي الصحافة على الفور. في غضون أيام من إطلاق Grok Imagine، غُمرت منصة X (تويتر) بصور نساء عاريات تم إنشاؤها بواسطة الذكاء الاصطناعي، حيث كان المستخدمون يتبادلون بحماس النصائح حول كيفية زيادة العري في مطالباتهم gizmodo.com. وقد أدى ذلك إلى انتقادات واسعة النطاق بأن ماسك قد فتح فعليًا الباب على مصراعيه أمام التحرش والاستغلال الجنسي المدعوم بالذكاء الاصطناعي. وذكرت مجلة A.V. Club أن “الكثير من محتوى Grok Imagine الذي شاركه ماسك أو أعاد نشره عبارة عن مقاطع لنساء شقراوات ممتلئات أو نساء يرتدين ملابس خيالية كاشفة”، مشيرة إلى أن ماسك يبدو مصممًا على منافسة موقع Pornhub avclub.com avclub.com. واقترح مدونو التقنية والمعلقون بسخرية أن ماسك “يكاد يتوسل لرفع دعوى قضائية من تايلور سويفت” بسبب الصور العارية التي ينتجها Grok تلقائيًا avclub.com. في الواقع، حث بعض المعلقين شخصيات بارزة مثل سويفت على مقاضاة ماسك و”جعل العالم أكثر أمانًا للنساء والفتيات الأخريات” avclub.com. حتى الآن، لا توجد مؤشرات علنية على اتخاذ إجراءات قانونية من جانب فريق سويفت أو غيرهم – لكن الدعوات للمساءلة تزداد ارتفاعًا.
حتى خارج الجدل حول Grok، شهد عام 2024 غضبًا شعبيًا واسعًا بسبب المواد الإباحية المولدة بالذكاء الاصطناعي على منصة X. في إحدى الحوادث، انتشرت صور إباحية مزيفة بتقنية التزييف العميق لتايلور سويفت بشكل كبير على المنصة، حيث حصدت إحدى الصور المزيفة 47 مليون مشاهدة قبل إزالتها theguardian.com. تحرك المعجبون بأعداد كبيرة للإبلاغ عن الصور، وحتى البيت الأبيض تدخل واصفًا الوضع بأنه “مقلق” theguardian.com. حالة سويفت استثنائية فقط من حيث الاهتمام الذي حظيت به؛ فقد تعرضت عدد لا يحصى من النساء (سواء كن شهيرات أم لا) لتحويل صورهن إلى محتوى صريح لم تتمكن المنصات من إزالته بسرعة theguardian.com theguardian.com. إن الغضب الشعبي حول هذه الحوادث – والآن حول وضع NSFW المدمج في Grok – يعكس إجماعًا متزايدًا على أن أدوات الذكاء الاصطناعي التي تتيح التزييفات الجنسية تتجاوز الخطوط الأخلاقية.الارتفاع السريع في المحتوى الإباحي والتزييفات العميقة المولدة بالذكاء الاصطناعي
تعد حادثة Grok الفصل الأحدث في اتجاه مقلق: المحتوى الإباحي المولد بالذكاء الاصطناعي (“إباحية التزييف العميق”) انتشر بشكل هائل خلال السنوات القليلة الماضية. اكتسبت هذه الظاهرة شهرة سيئة لأول مرة في عام 2017، عندما بدأ هواة على Reddit باستخدام خوارزميات التعلم العميق المبكرة لاستبدال وجوه المشاهير بأجساد ممثلي الأفلام الإباحية. وبحلول عام 2018، انتشرت مقاطع “التزييف العميق” لما يسمى بنجمات مثل غال غادوت، إيما واتسون، سكارليت جوهانسون وغيرهن على مواقع البالغين – مما دفع منصات مثل Reddit وTwitter وPornhub إلى حظر هذا المحتوى غير التوافقي theguardian.com theverge.com.
على الرغم من تلك الحظر المبكر، انتقلت صناعة الإباحية العميقة التزييف إلى الظل واستمرت في النمو. بحلول أواخر عام 2019، وجدت تقرير بارز من شركة الأمن السيبراني Deeptrace أن 96% من جميع مقاطع الفيديو العميقة التزييف المتداولة على الإنترنت كانت إباحية، وتبديل وجوه غير توافقي، وتستهدف تقريبًا النساء فقط regmedia.co.uk. وقد حققت أكبر أربعة مواقع إباحية عميقة التزييف تمت دراستها أكثر من 134 مليون مشاهدة على مقاطع فيديو تستهدف “مئات من المشاهير الإناث حول العالم.” regmedia.co.uk كان هذا التفاوت صارخًا: الضحايا كن في الغالب من النساء، والمستهلكون مهتمون بشكل ساحق بالنساء كأشياء جنسية. لاحظت أستاذة القانون دانييل سيترون: “99% من مقاطع الفيديو الجنسية العميقة التزييف تتعلق بالنساء، عادة من المشاهير الإناث”، مشيرة إلى كيف أن هذه الإبداعات “تجعلكِ شيئًا جنسيًا بطرق لم تختاريها” nymag.com. وأضافت سيترون: “لا يوجد خطأ في المواد الإباحية طالما أنك اخترتها بنفسك” – أما رعب العميقة التزييف فهو أن هؤلاء النساء لم يخترن أبدًا استخدام صورهن في مشاهد صريحة nymag.com.في البداية، كانت العميقة التزييف للمشاهير هي السائدة، لكن الآن يتم استهداف الأفراد العاديين بشكل متزايد. في يناير 2023، اهتز مجتمع البث المباشر على Twitch بفضيحة عندما كشف البث الشهير براندون “أتريوك” إيوينغ عن طريق الخطأ أنه كان يشاهد موقعًا إباحيًا عميق التزييف يبيع مقاطع فيديو صريحة لمذيعات – حيث يتم تعديل وجوههن على أجساد ممثلات إباحيات polygon.com. النساء (بعضهن كن صديقات شخصيات لأتريوك) كن مصدومات وتعرضن لموجات من المضايقات بمجرد انكشاف أمر العميقة التزييف polygon.com. إحدى الضحايا، المذيعة QTCinderella، أدلت ببيان باكي تندد فيه بالانتهاك وساعدت لاحقًا في تنظيم جهود قانونية لإزالة هذا المحتوى polygon.com polygon.com. وقد أكدت فضيحة “العميقة التزييف على Twitch” أنك لا تحتاج أن تكون نجم هوليوود حتى يحدث لك هذا – أي شخص لديه صور على الإنترنت معرض لأن يتم “تفتيشه افتراضيًا” من قبل الذكاء الاصطناعي ضد إرادته.
لقد أدى ظهور أدوات الذكاء الاصطناعي سهلة الاستخدام إلى تسريع هذا الاتجاه. في عام 2019، انتشر تطبيق يُدعى DeepNude لفترة وجيزة لاستخدامه الذكاء الاصطناعي لـ”تجريد” صور النساء بضغطة زر واحدة، منتجًا صورًا عارية مزيفة onezero.medium.com. وعلى الرغم من أن مبتكر DeepNude أغلقه وسط رد فعل عام غاضب، إلا أن الجني كان قد خرج من القمقم. بحلول 2023–2025، جعلت مولدات الصور مفتوحة المصدر (مثل مشتقات Stable Diffusion) وخدمات التزييف العميق المخصصة من السهل جدًا على أي شخص لديه بعض الصور ومعرفة تقنية بسيطة أن ينشئ صورًا عارية أو جنسية للآخرين. بعض المنتديات تتداول علنًا صورًا عارية مولدة بالذكاء الاصطناعي لنساء تم أخذ صورهن من وسائل التواصل الاجتماعي. وكما عبرت إحدى ضحايا البث المباشر على Twitch بعد اكتشافها صورًا إباحية مزيفة لها: “هذا لا علاقة له بي. ومع ذلك، هو هنا بوجهي.” theguardian.com إن شعور الانتهاك والعجز واضح بين أولئك الذين تعرضوا لـ”الضحية الرقمية”.
باختصار، لقد ديمقرت القدرة على إنشاء صور إباحية مزيفة بفضل الذكاء الاصطناعي، وقد تم استغلال هذه القدرة بشكل غير متناسب ضد النساء. لم يعد الأمر يقتصر على المشاهير فقط – بل أصبح أي شخص، من الصحفيين والنشطاء (الذين قد يُستهدفون للترهيب أو التشويه) إلى الشركاء السابقين والأشخاص العاديين (يستهدفهم أشخاص حاقدون أو لأغراض الابتزاز). إن ظهور ميزات مثل وضع Grok’s Spicy – الذي وضع طابعًا رسميًا وسهل الاستخدام على ما كان في السابق ممارسة سرية – يشير إلى أن الذكاء الاصطناعي التوليدي للمحتوى غير المناسب للعمل (NSFW) قد دخل بالفعل التيار الرئيسي، حاملاً معه كل أعبائه الأخلاقية.
الآثار الأخلاقية والقانونية والاجتماعية للمواد الإباحية المولدة بالذكاء الاصطناعي
إن الغضب الأخلاقي من المواد الإباحية المزيفة عميق الانتشار. في جوهره، إن إنشاء أو مشاركة محتوى جنسي لشخص ما دون موافقته هو انتهاك عميق للخصوصية والكرامة والاستقلالية. وكما يجادل Citron وفلاسفة الأخلاق الآخرون، فإن هذا أكثر من مجرد إساءة قائمة على الصور – إنه شكل من أشكال الاستغلال الجنسي. يصف الضحايا مشاعر “العجز والإذلال والرعب” عندما يعلمون أن غرباء (أو معتدين) يشاهدون مقاطع فيديو مزيفة لهم في أفعال جنسية لم يقوموا بها أبدًا. يمكن أن يصل الأمر إلى شكل افتراضي من الاعتداء الجنسي، مما يترك صدمة دائمة. ليس من المستغرب أن النساء والفتيات يتحملن العبء الأكبر: “الصور الحميمة المزيفة غير التوافقية” هي “تهديد حالي وخطير ومتزايد، يؤثر بشكل غير متناسب على النساء”، كما خلص الباحثون sciencedirect.com.
هناك أيضًا تيار كراهية للنساء في الكثير من هذا المحتوى. يشير الخبراء إلى أن الإباحية المزيفة العميقة غالبًا ما تُستخدم كسلاح لإهانة النساء اللاتي يشغلن مناصب قوة أو يرفضن تقدم شخص ما. “الإباحية المولدة بالذكاء الاصطناعي، والمدفوعة بكراهية النساء، تغمر الإنترنت”، كما لاحظت صحيفة The Guardian وسط ضجة الصور المزيفة لتايلور سويفت theguardian.com. إن الفعل ذاته المتمثل في تعرية امرأة عبر الذكاء الاصطناعي يمكن اعتباره محاولة لوضعها “في مكانها”. “إنه رجال يقولون لامرأة قوية أن تعود إلى صندوقها”، كما وصف أحد المراقبين أجواء حادثة سويفت. سواء كان الأمر يتعلق بمتحرشين مجهولين ينتجون صورًا عارية لسياسية، أو معجب مهووس يصنع أشرطة جنسية مزيفة لنجمة بوب، فالرسالة متشابهة – شكل من أشكال التشييء الرقمي والترهيب.بعيدًا عن الضرر الفردي، فإن التداعيات المجتمعية مقلقة. إذا كان بالإمكان إدراج أي شخص في مواد إباحية، فلن تعود الوسائط المرئية موثوقة. تهدد الصور المزيفة العميقة بحدوث أضرار بالسمعة وابتزاز على نطاق واسع. قد تلجأ النساء في دائرة الضوء إلى الرقابة الذاتية أو الانسحاب من التفاعل عبر الإنترنت خوفًا من الاستهداف. وهناك أيضًا تأثير مخيف على حرية التعبير: تخيل صحفية تنتقد نظامًا ما وتجد نفسها موضوع فيديو جنسي مزيف واقعي يُتداول لتشويه سمعتها. في المجمل، فإن تطبيع “إباحية مصممة” تضم مشاركين غير راغبين يثير تساؤلات حول الموافقة، والاستغلال الجنسي، وتسليع صورة الإنسان. حتى في مجال الترفيه للبالغين بموافقة الطرفين، هناك من يخشى أن يحل المؤدون المولّدون بالذكاء الاصطناعي محل العارضين الحقيقيين – ولكن عندما يرتدي هؤلاء المؤدون وجوهًا حقيقية لأشخاص مسروقة من فيسبوك أو إنستغرام، فإن خط الموافقة يتم تجاوزه بوضوح.
حرية التعبير مقابل الخصوصية: هناك توتر بين من يطالبون بتجريم جميع الصور الإباحية المزيفة عميقًا والمدافعين عن حرية التعبير القلقين من الإفراط في ذلك. هل يمكن أن يُعتبر التزييف العميق لمشاهير يومًا ما نوعًا مشروعًا من السخرية أو الفن؟ نظريًا، نعم – فالسخرية والمحاكاة الساخرة تعبيرات محمية، حتى عند استخدام صورة الشخصيات العامة. يشير بعض المدافعين عن تقنيات الذكاء الاصطناعي إلى أن الصور المعدلة للشخصيات العامة كانت منذ زمن طويل جزءًا من الثقافة الشعبية (مثل أغلفة المجلات المعدلة بالفوتوشوب)، ويجادلون بأن التجريم المتسرع قد يثبط الإبداع. ومع ذلك، حتى معظم علماء حرية التعبير يضعون حدًا عند العروض الجنسية غير التوافقية. فالضرر الواقع على الفرد شديد وشخصي لدرجة أنه يفوق أي مصلحة عامة محتملة. يشير خبراء القانون إلى أن قوانين التشهير أو المضايقة قد تغطي بعض الحالات، ولكن ليس جميعها. هناك إجماع متزايد على أن هناك حاجة إلى ضمانات قانونية جديدة لمعالجة الإباحية المزيفة عميقًا بشكل خاص، دون تقويض التعبير المشروع apnews.com apnews.com. صياغة هذه القوانين بدقة – لمعاقبة الانتهاكات الواضحة دون المساس بالسخرية أو الأعمال الإيروتيكية التوافقية – هو تحدٍ يواجهه صانعو السياسات حاليًا apnews.com apnews.com.
التطورات الحالية (حتى أغسطس 2025): من رد الفعل التقني إلى القوانين الجديدة
تأتي الجدل حول وضع “سبايسي” في Grok في وقت بدأت فيه الحكومات والمنصات حول العالم أخيرًا بالتحرك لمكافحة وباء الصور الحميمة المولدة بالذكاء الاصطناعي. فيما يلي بعض من أحدث التطورات:
- غضب وطني ونشاط حقوقي: الحوادث الفيروسية التي شملت تايلور سويفت وآخرين أثارت الرأي العام. حتى البيت الأبيض الأمريكي علّق على مقاطع الديب فيك الخاصة بسويفت، كما ذُكر، واصفًا إياها بأنها “مقلقة” theguardian.com. مجموعات المناصرة مثل المركز الوطني لمكافحة الاستغلال الجنسي كانت صريحة، حيث أدانت xAI التابعة لماسك بسبب “تعزيز الاستغلال الجنسي من خلال تمكين مقاطع الفيديو بالذكاء الاصطناعي من إنشاء العري” وحثت على إزالة مثل هذه الميزات time.com. “يجب على xAI البحث عن طرق لمنع الإساءة والاستغلال الجنسي”، قالت هايلي ماكنمارا من NCOSE في بيان، في انعكاس لدفع أوسع من المجتمع المدني time.com.
- استطلاعات الرأي تظهر دعمًا شعبيًا كاسحًا للحظر: أظهرت الاستطلاعات الأخيرة أن الجمهور يقف بقوة إلى جانب تنظيم أكثر صرامة. فقد وجد استطلاع أجرته معهد سياسات الذكاء الاصطناعي في يناير 2025 أن 84% من الأمريكيين يدعمون جعل المواد الإباحية الديب فيك غير التوافقية غير قانونية بشكل صريح، ويريدون بالمثل من شركات الذكاء الاصطناعي أن “تقيّد [نماذج الذكاء الاصطناعي] لمنع استخدامها في إنشاء المواد الإباحية الديب فيك.” time.com. كما وجد استطلاع لمركز بيو للأبحاث عام 2019 أن حوالي ثلاثة أرباع البالغين في الولايات المتحدة يفضلون فرض قيود على الفيديوهات/الصور المعدلة رقميًا time.com. باختصار، يبدو أن الناخبين من جميع الأطياف يريدون اتخاذ إجراءات ضد هذا النوع من الإساءة.
- قوانين ومشاريع قوانين جديدة: استجاب المشرعون للنداء. في الولايات المتحدة، تم توقيع قانون “Take It Down” ليصبح قانونًا في مايو 2025، ليكون أول تشريع فيدرالي يستهدف المواد الإباحية المزيفة العميقة time.com. هذا القانون ثنائي الحزب يجعل من غير القانوني “نشر أو التهديد بنشر” صور حميمة عن عمد دون موافقة – بما في ذلك الصور المزيفة العميقة التي أنشأها الذكاء الاصطناعي – ويتطلب من المنصات إزالة هذا المحتوى خلال 48 ساعة من إخطار الضحية apnews.com apnews.com. العقوبات صارمة، ويمنح القانون الضحايا القدرة على إزالة المحتوى بسرعة apnews.com apnews.com. “يجب أن نوفر لضحايا الإساءة عبر الإنترنت الحماية القانونية التي يحتاجونها، خاصة الآن بعد أن أصبحت الصور المزيفة العميقة تخلق فرصًا مرعبة جديدة للإساءة”، قالت السيناتور إيمي كلوبوشار، إحدى المشاركات في رعاية القانون، واصفة القانون بأنه “انتصار كبير لضحايا الإساءة عبر الإنترنت.” apnews.com apnews.com حتى قبل القانون الفيدرالي، أكثر من 15 ولاية أمريكية كانت قد جرّمت إنشاء أو توزيع الصور المزيفة العميقة الفاضحة (غالبًا من خلال تحديث قوانين “الانتقام الإباحي”). الآن، يظهر معيار فيدرالي موحد. دول أخرى تتحرك في نفس الاتجاه. حكومة المملكة المتحدة، على سبيل المثال، جرّمت مشاركة المواد الإباحية المزيفة العميقة في قانون السلامة على الإنترنت (ساري المفعول أوائل 2024)، وتعمل على تشريع لتجريم حتى صنع الصور المزيفة العميقة الفاضحة جنسيًا دون موافقة hsfkramer.com hsfkramer.com. في يناير 2025، أعادت المملكة المتحدة تقديم اقتراح لجعل إنشاء الصور العارية المزيفة العميقة غير قانوني، مؤكدة أنه “تطور بارز لحماية النساء والفتيات.” <a href=”https://www.hsfkramer.com/notes/tmt/2024-05/criminalising-deepfakes-the-uks-new-offences-following-the-online-safety-act#:~:text=Further%20update%3A%20On%207%20January,Act%2020hsfkramer.com hsfkramer.com أستراليا أقرّت قانونًا في عام 2024 يحظر كل من إنشاء وتوزيع المواد الجنسية المزيفة العميقة (ديب فيك)، وكوريا الجنوبية ذهبت إلى حد اقتراح تجريم حتى حيازة أو مشاهدة مثل هذا الإباحية المزيفة العميقة (وليس فقط إنتاجها) hsfkramer.com. الاتجاه العالمي واضح: يتم اعتبار الصور الجنسية الاصطناعية غير التوافقية جريمة. ويقر المشرعون بأن هذه الصور “يمكن أن تدمر الحياة والسمعة”، كما قالت كلوبوشار apnews.com، ويتخذون إجراءات – رغم أن منظمات مراقبة حرية التعبير مثل EFF تحذر من أن القوانين المصاغة بشكل سيئ قد تفرض رقابة مفرطة أو يُساء استخدامها apnews.com apnews.com.سياسات منصات التكنولوجيا: بدأت المنصات التقنية الكبرى في تحديث سياساتها (على الأقل على الورق) لمعالجة المحتوى الجنسي المُنشأ بالذكاء الاصطناعي. فيسبوك، إنستغرام، ريديت، وتويتر التقليدي جميعها تحظر رسميًا الصور الحميمة غير التوافقية، بما في ذلك الديب فيك theguardian.com theverge.com. كما فرضت Pornhub ومواقع البالغين الأخرى حظرًا على المحتوى المُنتج بالذكاء الاصطناعي الذي يظهر فيه أشخاص حقيقيون دون موافقتهم منذ عام 2018 theguardian.com theverge.com. عمليًا، لا يزال تطبيق هذه السياسات متقطعًا – إذ يمكن للمستخدم المصمم أن يجد أو يشارك ديب فيك غير قانوني على العديد من المنصات. ومع ذلك، هناك مؤشرات على التقدم: فعلى سبيل المثال، بعد حادثة سويفت، استجابت X (تويتر) في النهاية من خلال حظر البحث عن اسمها لوقف الانتشار theguardian.com theguardian.com. لا يقتصر الأمر على أن ريديت يحظر الإباحية بالديب فيك، بل أغلق أيضًا مجتمعات كاملة كانت تتداول مثل هذا المحتوى. يوتيوب وتيك توك لديهما سياسات تحظر الصور الصريحة المعدلة بالذكاء الاصطناعي أيضًا. التحدي يكمن في النطاق والكشف – وهنا يتم تطبيق تقنيات جديدة.
- الكشف والتدابير الوقائية: هناك صناعة متنامية من الحلول التقنية تهدف إلى كشف وإزالة المواد الإباحية المزيفة العميقة. تقوم شركات الذكاء الاصطناعي مثل Sensity (المعروفة سابقًا باسم Deeptrace) وشركات ناشئة مثل Ceartas بتطوير خوارزميات للكشف تقوم بمسح الإنترنت بحثًا عن وجه شخص ما في محتوى إباحي وتحديد التطابقات polygon.com polygon.com. في الواقع، بعد فضيحة Twitch، تعاون Atrioc مع Ceartas لمساعدة المذيعين المتضررين: حيث استخدمت الشركة ذكاءها الاصطناعي لتحديد مواقع المحتوى المزيف العميق لتلك النساء وتقديم طلبات إزالة بموجب قانون الألفية للملكية الرقمية (DMCA) polygon.com polygon.com. كما استعانت منصة OnlyFans، التي لديها مصلحة في حماية المبدعين، بمثل هذه الأدوات لمراقبة المحتوى المزيف لنماذجها polygon.com. وهناك أيضًا عمل على تضمين علامات مائية أو بيانات وصفية في الصور المولدة بالذكاء الاصطناعي للمساعدة في التعرف على الصور المزيفة، بالإضافة إلى مقترحات لفرض المصادقة التشفيرية للصور الحقيقية (بحيث يمكن اعتبار الصور غير الموسومة مزيفة). علاوة على ذلك، يتضمن قانون الذكاء الاصطناعي للاتحاد الأوروبي (الذي تم الاتفاق عليه في 2024) أحكامًا تنص على أن مطوري أدوات التزييف العميق يجب أن يضمنوا أن تكون المخرجات موسومة بوضوح على أنها مولدة بالذكاء الاصطناعي bioid.com. كما أن عدة ولايات أمريكية (والاتحاد الأوروبي) تدرس فرض متطلبات بأن يكون أي محتوى معدل بالذكاء الاصطناعي مصحوبًا بإفصاح عند نشره cjel.law.columbia.edu bioid.com. وبينما لن تمنع هذه العلامات الجهات الخبيثة من إزالتها، إلا أنها تمثل محاولة لـإرساء معايير الشفافية حول الوسائط الاصطناعية.
- المنصات مقابل X الخاصة بماسك: من الجدير إبراز مدى غرابة نهج ماسك مع X وxAI. بينما تقوم معظم المنصات بتشديد القيود، قام ماسك فعليًا بتخفيفها، مستهدفًا قاعدة مستخدمين ترغب في قدرات ذكاء اصطناعي “جريئة”. لم تقم X فقط بعدم حظر مخرجات Grok؛ بل هي موطن Grok. هذا الاختلاف وضع X في خلاف مع العديد من الخبراء. في أغسطس 2024، أشار مجموعة من المشرعين الديمقراطيين تحديدًا إلى Grok الخاص بماسك في رسالة إلى الجهات التنظيمية، محذرين من أن السياسات المتساهلة بشأن التزييف العميق (بما في ذلك تلك الصريحة لشخصيات مثل كامالا هاريس أو تايلور سويفت) قد تتسبب في فوضى في الانتخابات وما بعدها time.com. يبدو أن ماسك يراهن على أن تلبية الطلب على الإيروتيكا المولدة بالذكاء الاصطناعي (وحتى رفقاء الدردشة بالذكاء الاصطناعي الذين يغازلون أو يتعرون، كما توضح ميزات xAI الجديدة time.com) سيجلب الإيرادات والمستخدمين. لكن رد الفعل العكسي – القانوني والاجتماعي وربما المالي (عبر مخاوف المعلنين) – قد يروي قصة مختلفة على المدى الطويل.
مقترحات السياسات والمسار المستقبلي: هل يمكننا كبح إباحية التزييف العميق؟
الإجماع بين صانعي السياسات وخبراء الأخلاقيات هو أن التحرك متعدد الجوانب ضروري لمعالجة المحتوى غير المناسب المولّد بالذكاء الاصطناعي. تشمل المقترحات والأفكار الرئيسية:
- قوانين أقوى وتطبيق أكثر صرامة: كما ذُكر، تعتبر قوانين مثل قانون Take It Down بداية. يقترح الخبراء المزيد من التحسينات، مثل جعل فعل إنشاء صورة جنسية مزيفة لشخص ما دون موافقته جريمة، وليس فقط توزيعها. (المملكة المتحدة تتجه في هذا الاتجاه hsfkramer.com hsfkramer.com.) يمكن أن تشكل العقوبات القانونية الواضحة على الجناة – وعلى من يعلمون باستضافة أو الاستفادة من هذا المحتوى – رادعًا. من المهم أن يكون أي تشريع محدد النطاق بعناية لتجنب تجريم الفن الإيروتيكي التوافقي أو السخرية السياسية المشروعة عن غير قصد apnews.com apnews.com. كما أن الحلول المدنية ضرورية: يحتاج الضحايا إلى طرق سهلة لمقاضاة الأضرار والحصول على أوامر قضائية لإزالة المحتوى. يرغب العديد من المدافعين في رؤية استثناءات في القسم 230 (القانون الأمريكي الذي يحمي المنصات من مسؤولية محتوى المستخدمين) بحيث يمكن تحميل المواقع المسؤولية إذا لم تستجب لطلبات إزالة إباحية التزييف العميق. سيضغط هذا على المنصات لتكون أكثر يقظة بكثير.
- ضوابط التكنولوجيا: من ناحية التطوير، تقترح المبادرات أن يقوم مطورو نماذج الذكاء الاصطناعي بدمج ضمانات وقائية. على سبيل المثال، يمكن للشركات تدريب مرشحات المحتوى لاكتشاف ما إذا كان طلب المستخدم يتضمن اسم أو صورة شخص حقيقي وحجب أي مخرجات صريحة تتعلق بذلك الشخص. (بعض مولدات الصور بالذكاء الاصطناعي ترفض بالفعل الطلبات التي يبدو أنها تشير إلى أفراد خاصين أو تنتج عريًا لشخصيات عامة – Grok من xAI هو استثناء في عدم القيام بذلك avclub.com.) فكرة أخرى هي فرض التحقق من الموافقة على الإنشاءات الصريحة: على سبيل المثال، قد لا ينشئ أحد خدمات الذكاء الاصطناعي صورة عارية إلا إذا أثبت المستخدم أن الموضوع هو نفسه أو نموذج موافق. بالطبع، يمكن للجهات السيئة ببساطة استخدام نماذج مفتوحة المصدر بدون مثل هذه المرشحات، ولكن إذا اعتمدت المنصات الكبرى ضوابط صارمة، فقد يحد ذلك من الانتشار الواسع. التحقق من العمر هو أيضًا مصدر قلق – كان التحقق الوحيد في Grok هو سؤال عن تاريخ الميلاد يمكن تجاوزه بسهولة gizmodo.com – لذا هناك دعوات لوضع آليات تحقق من العمر أكثر صرامة لضمان عدم تمكن القُصّر (الذين غالبًا ما يكونون أهدافًا للتنمر عبر صور عارية مزيفة) من استخدام هذه الأدوات أو أن يتم تصويرهم بها.
- البحث والكشف: تمول الحكومات أبحاثًا في مجال كشف التزييف العميق، وتتعاون الشركات على وضع معايير لمصادقة الوسائط. الهدف هو تسهيل التعرف السريع على المواد الإباحية المزيفة وإزالتها عند ظهورها. ومع ذلك، سيظل الكشف دائمًا لعبة قط وفأر مع تطور التزييفات الاصطناعية. يعتقد بعض الخبراء أن التركيز يجب أن يتحول إلى منع الضرر (من خلال العقوبات القانونية والتوعية) بدلاً من الاعتماد على “كاشف التزييف” التقني الذي يلتقط كل شيء. ومع ذلك، فإن التقدم في الذكاء الاصطناعي للخير – مثل تحسين تقنيات التجزئة لتتبع الصور المزيفة المعروفة، أو أدوات للأفراد لمعرفة ما إذا تم إساءة استخدام صورتهم – سيلعب دورًا في التخفيف من الأضرار.
- مسؤولية المنصات: تدعو جماعات المناصرة إلى أن منصات التواصل الاجتماعي والمحتوى للبالغين يجب أن تراقب بشكل استباقي محتوى الإباحية بالذكاء الاصطناعي. قد يعني ذلك الاستثمار في فرق لمراقبة المحتوى مدربة على اكتشاف التزييفات العميقة، والتعاون مع جهات إنفاذ القانون بشأن أوامر الإزالة، وحظر المخالفين المتكررين الذين ينشئون أو يشاركون مواد غير توافقية. كما يدعو البعض إلى إنشاء أنظمة الانسحاب أو السجلات، حيث يمكن للأفراد تسجيل صورتهم (أو صورة أطفالهم) ويجب على المنصات التأكد من عدم السماح بأي محتوى ذكاء اصطناعي يصورهم – رغم أن تطبيق ذلك إداريًا سيكون تحديًا. على الأقل، يجب أن تصبح بروتوكولات الاستجابة السريعة – مثل متطلب الإزالة خلال 48 ساعة في القانون الأمريكي apnews.com – ممارسة قياسية على جميع المنصات عالميًا.
- التعليم والأعراف: أخيرًا، جزء من الحل يكمن في تغيير الأعراف الاجتماعية. تمامًا كما أصبح المجتمع يدين بشكل واسع “الانتقام الإباحي” ويعترف به كنوع من الإساءة، هناك أمل في أن يصبح الإباحية العميقة (deepfake porn) موصومًا عالميًا. إذا فهم الشخص العادي الضرر ورفض مشاركة أو استهلاك مثل هذا المحتوى، فسوف يتضاءل الطلب. يؤكد خبراء أخلاقيات التكنولوجيا على أهمية الثقافة الإعلامية – أي تعليم الناس أن ما يرونه ليس دائمًا حقيقيًا، وأن صورة فاضحة للمشاهير قد تكون مزيفة. تمكين الأجيال الشابة من التنقل النقدي في عالم الإعلام المعدل بالذكاء الاصطناعي سيكون أمرًا حاسمًا. وكذلك الحملات التي تُعلم من قد يفكرون في ارتكاب هذه الأفعال أن إنشاء هذه الصور المزيفة ليس مزحة – بل هو انتهاك خطير قد يؤدي إلى عواقب جنائية.
الخاتمة
لقد أدى ظهور “الوضع الحار” (Spicy Mode) في Grok إلى صب الزيت على نار مشتعلة بالفعل حول الذكاء الاصطناعي والإباحية العميقة الصريحة جنسيًا. أداة الذكاء الاصطناعي التي أطلقها إيلون ماسك، من خلال جعل إنشاء صور عارية شبيهة بالمشاهير أمرًا سهلاً بل و”رسميًا”، أثارت رد فعل سريع – وسلطت الضوء على أزمة الإباحية العميقة الأوسع. من قاعات الكونغرس إلى تعليقات المنتديات التقنية، هناك اتفاق متزايد على أن شيئًا ما يجب أن يُفعل لحماية الأفراد (وخاصة النساء) من التطبيقات المظلمة لهذه التكنولوجيا.
كما رأينا، المحتوى الإباحي الذي يُنتجه الذكاء الاصطناعي ليس ظاهرة معزولة – بل هو تحدٍ اجتماعي متصاعد. إنه يضع حرية الإبداع والابتكار التكنولوجي في مواجهة الخصوصية والموافقة والسلامة. الجني لن يعود إلى الزجاجة، لكن من خلال السياسات الذكية، وتطوير التكنولوجيا بمسؤولية، والتغيير الثقافي، يمكننا أن نأمل في احتواء الضرر. من المرجح أن تشهد الأشهر والسنوات القادمة المزيد من الدعاوى القضائية، والمزيد من القوانين، وتحسينات في حماية الذكاء الاصطناعي. قد يتكيف Grok الخاص بماسك تحت الضغط أو يصبح قصة تحذيرية لمشروع ذكاء اصطناعي تجاهل الحدود الأخلاقية على مسؤوليته الخاصة.
في الوقت الحالي، الرسالة من الخبراء والجمهور على حد سواء واضحة: الإباحية العميقة خط أحمر لا يجب أن يتجاوزه الذكاء الاصطناعي. وإذا لم ترسم شركات مثل xAI هذا الخط بنفسها، فإن المنظمين والمجتمع مستعدون بشكل متزايد لرسمه نيابةً عنها. كما قال أحد دعاة أخلاقيات التكنولوجيا: “تحويل صورتك إلى محتوى إباحي دون موافقتك أمر مدمر – لقد حان الوقت لنتعامل معه كإساءة خطيرة، وليس كأمر حتمي بسبب التكنولوجيا.” لم يعد الجدل حول ما إذا كان يجب اتخاذ إجراء، بل حول مدى سرعة وفعالية كبح الاستغلال الجنسي المدفوع بالذكاء الاصطناعي، قبل أن تتضرر المزيد من الأرواح بسبب الابتكار “الحار” التالي.
المصادر:
- نوفاك، مات. “وضع Grok ‘الحار’ يصنع صور إباحية عميقة لمشاهير النساء (وليس الرجال). ” Gizmodo، 6 أغسطس 2025 gizmodo.com gizmodo.com. ويذربيد، جيس. “إعداد الفيديو ‘الحار’ في Grok جعلني فوراً أحصل على ديب فيك عارية لتايلور سويفت.” ذا فيرج، 5 آب 2025 theverge.com.
- كار، ماري كيت. “إيلون ماسك يتوسل عملياً لدعوى قضائية من تايلور سويفت بسبب ديب فيك عارية من Grok AI.” AV Club، 7 آب 2025 avclub.com avclub.com.
- سانر، إمينه. “داخل فضيحة ديب فيك تايلور سويفت: ‘إنه رجال يقولون لامرأة قوية أن تعود إلى مكانها’.” ذا غارديان، 31 كانون الثاني 2024 theguardian.com theguardian.com.
- كلارك، نيكول. “المُذيع الذي أثار فضيحة ديب فيك إباحية على تويتش يعود من جديد.” بوليجون، 16 آذار 2023 polygon.com polygon.com.
- باتريني، جورجيو. “حالة الديب فيك.” تقرير ديبتريس لابز، تشرين الأول 2019 regmedia.co.uk.
- سيترون، دانييل. مقابلة في NYMag Intelligencer، تشرين الأول 2019 nymag.com.
- أورتوتاي، باربرا. “الرئيس ترامب يوقع قانون Take It Down، لمعالجة الديب فيك غير التوافقي. ما هو؟” AP News، آب 2025 apnews.com apnews.com.
- بورغا، سولساير. “سيسمح Grok الخاص بإيلون ماسك قريبًا للمستخدمين بإنشاء مقاطع فيديو بالذكاء الاصطناعي، بما في ذلك ذات الطبيعة الصريحة.” تايم، أغسطس 2025 time.com time.com.
- شركة هربرت سميث فريهيلز للمحاماة. “تجريم الديب فيك – الجرائم الجديدة في المملكة المتحدة…“، 21 مايو 2024 hsfkramer.com hsfkramer.com.