داخل ثورة الذكاء الاصطناعي للمحتوى غير اللائق: كيف يغيّر الإباحية المُنتَجة بالذكاء الاصطناعي قواعد اللعبة ويثير الجدل

الذكاء الاصطناعي NSFW – استخدام الذكاء الاصطناعي التوليدي لإنشاء محتوى للبالغين “غير آمن للعمل” – أصبح ظاهرة مثيرة للجدل. من الصور المثيرة التي ينشئها الذكاء الاصطناعي ومقاطع الفيديو الإباحية المزيفة (ديب فيك) إلى الإغواءات المقلدة بالصوت و”الصديقات” عبر الدردشة، يعيد التعلم الآلي تشكيل مشهد محتوى البالغين. إنها ثورة تكنولوجية تثير إمكانيات مغرية وأسئلة أخلاقية ملحة بنفس القدر. يشيد المؤيدون بطرق جديدة للخيال والإبداع، بينما يحذر النقاد من التحرش، وانتهاكات الموافقة، والأضرار المجتمعية. في منتصف عام 2025، يجد الذكاء الاصطناعي NSFW نفسه عند مفترق طرق: تتبناه مجتمعات متخصصة وشركات ناشئة، وتدق بشأنه أجراس الإنذار من قبل المشرعين، ويخافه أولئك الذين يقعون في مرماه. في هذا التقرير الشامل، نستعرض ما هو الذكاء الاصطناعي NSFW، وأين يزدهر، وآخر التطورات (من حظر المنصات إلى القوانين الجديدة)، والمآزق الأخلاقية، والأصوات على جانبي النقاش، وكيف يحاول العالم جاهدًا ضبط وتنظيم هذا البعد الجديد الجامح للذكاء الاصطناعي. لنكشف الستار عن عالم الإباحية التي ينشئها الذكاء الاصطناعي – ولماذا لا يتعلق الأمر بالإباحية فقط، بل يتعلق أيضًا بـالخصوصية، والسلطة، ومستقبل المحتوى الجنسي.
ما هو الذكاء الاصطناعي NSFW وكيف يعمل؟
يشير الذكاء الاصطناعي NSFW إلى أنظمة الذكاء الاصطناعي التي تنتج محتوى للبالغين صريح – بما في ذلك الصور الإباحية، ومقاطع الفيديو، والصوت، والنصوص – غالبًا بواقعية مذهلة. تعتمد هذه الأنظمة على نفس تقنيات التوليد المتقدمة التي تقف وراء الطفرات الأخيرة في فنون ووسائط الذكاء الاصطناعي، ولكنها مطبقة على مواد مصنفة للبالغين. تشمل الابتكارات الرئيسية نماذج التعلم العميق المدربة على مجموعات بيانات ضخمة من الصور ومقاطع الفيديو، والتي تتعلم إنتاج محتوى جديد استجابةً لمطالبات المستخدمين. على سبيل المثال، يمكن لـنماذج الانتشار من النص إلى الصورة مثل Stable Diffusion إنشاء صور عارية أو جنسية واقعية من وصف نصي بسيط globenewswire.com. وتسمح تقنيات “ديب فيك” بتبديل أو تركيب الوجوه في مقاطع الفيديو، مما يجعل الأمر يبدو وكأن أشخاصًا حقيقيين (غالبًا من المشاهير أو الأفراد العاديين) يشاركون في أفلام إباحية لم يصنعوها أبدًا. يمكن لأدوات استنساخ الصوت المتقدمة تقليد صوت شخص بدقة مذهلة، مما يتيح إنتاج مقاطع صوتية مثيرة أو “حديث جنسي” بصوت مستهدف. ويمكن لنماذج اللغة الكبيرة توليد قصص إباحية مثيرة أو الانخراط في محاكاة الأدوار الجنسية عبر الدردشة.
في جوهرها، تستخدم أنظمة الذكاء الاصطناعي NSFW نفس الخوارزميات التي تولد أي فن أو وسائط بالذكاء الاصطناعي – لكنها مدربة أو مضبوطة بدقة على بيانات تدريب إباحية أو مثيرة. كانت الشبكات التوليدية التنافسية (GANs) من الرواد الأوائل في إنشاء صور عارية، لكن نماذج الانتشار والنماذج المعتمدة على المحولات حسّنت الدقة بشكل كبير. يمكن لمولدات الصور NSFW الحديثة إنتاج صور عارية عالية الدقة مصممة حسب طلب المستخدم بجهد ضئيل globenewswire.com. غالبًا ما يستخدم صانعو الفيديوهات المزيفة العميقة برامج متخصصة (بعضها مفتوح المصدر) لتركيب وجه على آخر في مقاطع فيديو للبالغين موجودة مسبقًا، مما ينتج إباحية تركيبية يصعب أحيانًا تمييزها عن اللقطات الحقيقية cbsnews.com. يمكن لخدمات الذكاء الاصطناعي الصوتي أخذ عينة صوتية وتوليد كلام جديد (بما في ذلك محتوى صريح) بذلك الصوت. وتستخدم روبوتات الدردشة المدعومة بالذكاء الاصطناعي توليد اللغة الطبيعية لتقديم محادثات مثيرة أو رسائل جنسية مخصصة عند الطلب.
الخطوط الفاصلة بين الخيال والواقع بدأت تتلاشى. كما أشار أحد المراقبين: “الصور والأصوات ومقاطع الفيديو الواقعية للغاية التي تنتجها مولدات الذكاء الاصطناعي NSFW تواصل التطور، مما يغير بشكل أكبر طريقة إنشاء واستهلاك وفهم المحتوى للبالغين” chicagoreader.com. يمكن للمستخدم الآن استحضار مشهد إباحي مخصص – مثل صورة للقاء خيالي مع أحد المشاهير أو مقطع صوتي لحبيب سابق يقول أشياء صريحة – من خلال أمر بسيط، وهو أمر كان مستحيلاً قبل بضع سنوات فقط. هذه القوة الجديدة تثير أسئلة ملحة حول الموافقة والخصوصية والفرق بين الخيال الإبداعي والاستغلال. التقنية الأساسية نفسها محايدة أخلاقيًا – يمكن استخدامها لإنشاء أي شيء – ولكن عندما يتم توجيهها نحو الجنس البشري وصور الأشخاص الحقيقيين، تصبح التداعيات معقدة.
أشكال رئيسية من المحتوى الجنسي المولّد بالذكاء الاصطناعي
- الصور المولدة بالذكاء الاصطناعي: يمكن لنماذج تحويل النص إلى صورة (مثل Stable Diffusion) إنتاج صور إباحية أو مثيرة صريحة من الأوامر النصية. يمكن للمستخدمين تحديد المظهر، السيناريو، إلخ، مما ينتج صورًا عارية أو جنسية فريدة عند الطلب globenewswire.com. العديد من هذه النماذج مفتوحة المصدر أو مخصصة للمستخدم، مما يسمح بمحتوى يتجاوز ما تسمح به أدوات الذكاء الاصطناعي السائدة.
- فيديوهات الإباحية المزيفة (Deepfake Porn Videos): باستخدام تقنية الديب فيك، يقوم المبدعون بتركيب وجه شخص على فيديو إباحي، مما ينتج مقطعاً إباحياً مزيفاً لشخص لم يشارك فيه أبداً. غالباً ما تستهدف هذه الفيديوهات المعدلة بالذكاء الاصطناعي المشاهير أو الأفراد العاديين دون موافقتهم cbsnews.com theguardian.com. لقد تحسنت جودة الديب فيك بحيث أنه بحلول 2024–2025، أصبح العديد منها يبدو واقعياً بشكل مقلق، وذلك بفضل وحدات معالجة الرسومات (GPUs) والألغوريثمات الأقوى.
- استنساخ الصوت والمقاطع الصوتية: تقوم مولدات الصوت بالذكاء الاصطناعي باستنساخ أصوات المشاهير أو المعارف لإنتاج مقاطع صوتية صريحة (على سبيل المثال، محاكاة ممثلة مشهورة تتحدث بكلام جنسي، أو إنشاء كتب صوتية إباحية بأي صوت). تجعل تقنيات الصوت المتقدمة (مثل ElevenLabs) من السهل جداً توليد آهات، حوارات، أو سرد بصوت مختار، مما يثير القلق بشأن انتحال الهوية في الصوتيات الإباحية.
- الشات بوتات والقصص الإيروتيكية: تُستخدم نماذج اللغة بالذكاء الاصطناعي للدردشة والقصص غير المناسبة للعمل (NSFW). شهدت تطبيقات “الصديقة الافتراضية” والشات بوتات لعب الأدوار الإيروتيكية انفجاراً في الشعبية بين 2023–2025. يمكن لهذه البوتات التفاعل مع المستخدمين في دردشة مثيرة أو تبادل رسائل جنسية، وتوليد نصوص إيروتيكية غير محدودة. يدمج بعضها أيضاً صوراً وملاحظات صوتية. هذا يمثل شكلاً جديداً من المحتوى للبالغين – رفقاء ذكاء اصطناعي تفاعليين يلبون الخيالات الحميمة chicagoreader.com sifted.eu.
بينما تحظر منصات الذكاء الاصطناعي الرئيسية (مثل DALL·E أو Midjourney من OpenAI) إنتاج المحتوى الإباحي، تبنت مجتمعات المصادر المفتوحة والتقنية للبالغين هذه التقنيات لدفع حدود NSFW. إن طبيعة المصدر المفتوح للعديد من الأدوات “تشجع على الابتكار والتعاون” لكنها أيضاً تجعل من السهل إزالة الضوابط وتوليد محتوى صريح غير منظم chicagoreader.com chicagoreader.com. كما سنرى، فإن هذا التوتر بين الابتكار والتنظيم يظهر عبر منصات متعددة.
المنصات، التطبيقات، والمجتمعات التي تدعم الذكاء الاصطناعي غير المناسب للعمل (NSFW AI)
ظهر نظام بيئي نابض بالحياة (وأحيانًا غامض) من المنصات والمجتمعات عبر الإنترنت لإنشاء ومشاركة محتوى للبالغين تم توليده بالذكاء الاصطناعي. وبما أن شركات التكنولوجيا الكبرى تمنع المحتوى الصريح على خدمات الذكاء الاصطناعي الخاصة بها arnoldit.com blog.republiclabs.ai، فقد تم دفع طفرة الذكاء الاصطناعي المخصص للبالغين من قبل مطورين مستقلين ونماذج مفتوحة المصدر وشركات ناشئة متخصصة. فيما يلي بعض المجالات الرئيسية التي يعيش فيها الذكاء الاصطناعي المخصص للبالغين ويزدهر:- مراكز النماذج مفتوحة المصدر: CivitAI – وهو موقع مجتمعي شهير – يستضيف مكتبة ضخمة من النماذج والصور التي أنشأها المستخدمون، بما في ذلك العديد من النماذج المتخصصة في محتوى البالغين chicagoreader.com. يمكن للمستخدمين تنزيل نماذج Stable Diffusion المعدلة خصيصًا للأنمي الإباحي، والعري الواقعي، وفن الفتيش، وما إلى ذلك، ومشاركة الصور التي تم إنشاؤها. لقد جعل انفتاح مثل هذه المواقع منها وجهة مفضلة لمنشئي الذكاء الاصطناعي المخصص للبالغين. ومع ذلك، فهذا يعني أيضًا حدًا أدنى من الرقابة؛ حيث يتراوح المحتوى من الفن الإيروتيكي الفني إلى المواد الإباحية المتطرفة. كما استضافت مواقع أخرى مثل Hugging Face نماذج مخصصة للبالغين (مع تحذيرات)، وشاركت منتديات مثل 4chan أو GitHub أيضًا نماذج “غير خاضعة للرقابة” تم تسريبها.
- مولدات الصور والتطبيقات المخصصة للبالغين: هناك العديد من الخدمات عبر الإنترنت التي تتخصص الآن في توليد الصور الإيروتيكية بالذكاء الاصطناعي. على سبيل المثال، تتيح منصات مثل Candy.ai, Arting.ai, Vondy, OurDream وغيرها (غالبًا باشتراك) للمستخدمين إنشاء صور مخصصة للبالغين مع عدد قليل نسبيًا من القيود chicagoreader.com chicagoreader.com. يروج بعضها لجودة عالية في الصور ونطاق واسع من الأساليب – من الواقعية الفوتوغرافية إلى الأنمي – لتلبية مختلف الأذواق. بدأ العديد منها في الظهور بين عامي 2024–2025، وغالبًا ما تقدم تجارب مجانية أو رموزًا تجريبية، وتتنافس على من يمكنه إنشاء أكثر فن مخصص للبالغين واقعي أو خيالي. تبرز حملاتهم التسويقية التخصيص والخصوصية، وتعد المستخدمين بأنهم يستطيعون إنشاء ما يرغبون به “في بيئة آمنة وخاصة، بعيدًا عن قيود المحتوى المصور مسبقًا” globenewswire.com.
- مجتمعات ومنتديات الذكاء الاصطناعي الإباحية: قبل الحملات الأخيرة، كانت مواقع الإنترنت المخصصة للبورنو المزيف العميق مراكز رئيسية لهذا النشاط. وكان أشهرها Mr. Deepfakes، الذي تأسس في عام 2018، وأصبح “السوق الأكثر بروزًا وانتشارًا” للبورنو المزيف العميق للمشاهير بالإضافة إلى استهداف غير المشاهير cbsnews.com. كان بإمكان المستخدمين على الموقع رفع ومشاهدة مقاطع فيديو مزيفة عميقة صريحة، بل وطلب إنتاج بورنو غير توافقي مخصص مقابل مبلغ مالي cbsnews.com. وقد عزز الموقع مجتمعًا يضم منتديات لمناقشة التقنيات وتبادل المحتوى. ومع ذلك، وكما سنوضح لاحقًا، تم إغلاق Mr. Deepfakes في عام 2025 بعد فقدانه لمزود خدمة أساسي cbsnews.com. وفي أعقاب مثل هذه الحملات، لم تختفِ مجتمع البورنو المزيف العميق – بل تفتت وانتقل. ويشير الخبراء إلى أن تفكيك موقع رئيسي “يشتت مجتمع المستخدمين، ويدفعهم على الأرجح نحو منصات أقل شهرة مثل تيليجرام” لتبادل المحتوى cbsnews.com. وبالفعل، أصبحت التطبيقات المشفرة والمنتديات المتخصصة هي الموطن الجديد للعديد من هواة الذكاء الاصطناعي غير المناسبين الذين تم طردهم من المنصات الأكبر.
- خدمات “الصديقة” ورفيق الذكاء الاصطناعي: موجة من الشركات الناشئة تدمج بين توليد المحتوى الإيروتيكي والتفاعل الرفيقي. من الأمثلة البارزة Oh (مقرها لندن)، التي تصف نفسها بأنها تبني “OnlyFans الذكاء الاصطناعي” – وهي منصة رفيق إيروتيكي حيث يتفاعل المستخدمون مع نماذج افتراضية تم إنشاؤها بالذكاء الاصطناعي عبر النص والصوت والصور sifted.eu sifted.eu. جمعت Oh مبلغ 4.5 مليون دولار في أوائل عام 2025 لإنشاء “روبوتات شبه عارية مستقلة” يمكنها حتى مراسلة المستخدمين بشكل استباقي بدردشات غزلية sifted.eu sifted.eu. على موقعها، يرى المستخدمون ملفات تعريف لروبوتات ذكاء اصطناعي نصف عارية – معظمها شخصيات أنثوية خيالية، رغم أن بعضها “توأم رقمي” لمنشئي محتوى بالغين حقيقيين يرخّصون صورتهم (ويحصلون على نسبة من الإيرادات) sifted.eu. يمكن للمستخدمين الدردشة مع هذه الروبوتات واستلام رسائل نصية مثيرة، وصور عارية تم إنشاؤها بالذكاء الاصطناعي، وحتى ملاحظات صوتية تم توليدها بأصوات مستنسخة sifted.eu. ظهرت العديد من الخدمات المماثلة بين عامي 2023 و2024: DreamGF, Kupid AI, FantasyGF, Candy.ai، إلخ، مما يشير إلى اتجاه رفقاء الدردشة البالغين المدعومين بالذكاء الاصطناعي sifted.eu. الجاذبية هنا هي تفاعل إيروتيكي قابل للتخصيص بالكامل وعلى مدار الساعة – في الأساس كام غيرل أو صديق افتراضي مدعوم بالخوارزميات.
- تكيف منصات البالغين الراسخة: لم تسلم منصات المحتوى الجنسي التقليدية من موجة الذكاء الاصطناعي. OnlyFans، خدمة الاشتراك الشهيرة للمبدعين، واجهت تدفقًا من المحتوى الجنسي المُنتج بالذكاء الاصطناعي. وفقًا لسياستها، تسمح OnlyFans بالصور المُنتجة بالذكاء الاصطناعي فقط إذا كانت تتضمن المبدع المُوثق نفسه وتم تصنيفها بوضوح كمحتوى ذكاء اصطناعي reddit.com. كما تمنع استخدام الذكاء الاصطناعي لانتحال شخصية الآخرين أو لأتمتة الدردشة مع المعجبين reddit.com. رغم ذلك، وردت تقارير عن حسابات تبيع حزمًا من الصور العارية المُنتجة بالذكاء الاصطناعي بشكل واضح (مع عيوب واضحة مثل الأيدي الغريبة أو “العيون الميتة” في كل صورة) لمشتركين غير مدركين reddit.com. بعض المبدعين البشريين غاضبون، ويخشون أن نماذج الذكاء الاصطناعي المزيفة قد تغرق المنصة وتضر بأرباحهم reddit.com uniladtech.com. أعربت إحدى العاملات بالجنس عن أسفها لأن الذكاء الاصطناعي “يسلب الجهد والإبداع والعناء” الذي يبذله المبدعون الحقيقيون، واعتبرته “إساءة لمعجبيّ” وأبدت قلقها من أنه سيزيد من التوقعات غير الواقعية حول الجنس reddit.com reddit.com. في المقابل، هناك بعض المبدعين البالغين الأذكياء يحتضنون أدوات الذكاء الاصطناعي – باستخدام مولدات الصور لتعزيز أو مضاعفة محتواهم، أو ترخيص صورتهم لشركات مثل Oh كمصدر دخل إضافي sifted.eu. صناعة المحتوى الجنسي بشكل عام (استوديوهات الإباحية، مواقع الكاميرا، إلخ) تجرب بحذر الذكاء الاصطناعي في إنتاج المحتوى، لكنها تراقبه أيضًا بحذر كقوة مقلقة قد تُمكّن من تدفق محتوى صريح من إنتاج المستخدمين خارج النطاق المهني. ويتوقع محللو الصناعة أن يشكل المحتوى الجنسي المدعوم بالذكاء الاصطناعي أكثر من 30% من استهلاك الإباحية على الإنترنت بحلول عام 2027 إذا استمرت الاتجاهات الحالية globenewswire.com، في إشارة إلى مدى سرعة انتشار هذه التقنية.
مجتمع الذكاء الاصطناعي NSFW سريع التطور ومتنوع ، من الفنانين الهواة الذين يستكشفون الإيروتيكا بالذكاء الاصطناعي كـ”استكشاف إبداعي وشخصي” إلى حلقات الديب فيك المتطرفة التي تنتج صوراً عارية مزيفة خبيثة chicagoreader.com . تظهر منصات وأدوات جديدة تقريباً كل أسبوع، كل منها يقدم توازناً مختلفاً بين الحرية والقيود. كما جاء في مراجعة لعام 2025: “عالم مولدات الذكاء الاصطناعي NSFW واسع وسريع الحركة”، حيث تركز بعض المنصات على الصور فائقة الواقعية، وأخرى على السرد التفاعلي، ولكل منها منطقته الأخلاقية الرمادية chicagoreader.com . ما يوحدهم هو وعد المحتوى الجنسي المخصص عند الطلب – والمخاطر التي تأتي مع امتلاك مثل هذه القوة.
2025: طوفان من الإباحية بالذكاء الاصطناعي ورد فعل متصاعد
بحلول منتصف 2025، وصل الذكاء الاصطناعي NSFW إلى نقطة تحول. من جهة، أصبح المحتوى أكثر انتشاراً وإقناعاً من أي وقت مضى؛ ومن جهة أخرى، بلغت المخاوف العامة والتدقيق التنظيمي ذروتها. تشمل التطورات الأخيرة حوادث إساءة استخدام بارزة، واستجابات تنظيمية سريعة، وحتى رقابة ذاتية داخل صناعة التكنولوجيا. فيما يلي نستعرض بعض أهم الأخبار والاتجاهات في 2024–2025 حول الإباحية المنتجة بالذكاء الاصطناعي:
جدل وفضائح ديب فيك غير توافقية
ربما لم يدفع الجدل حول الذكاء الاصطناعي NSFW شيئًا أكثر من الارتفاع في الصور الإباحية العميقة الزائفة غير التوافقية – أي استخدام الذكاء الاصطناعي لجعل الأمر يبدو وكأن شخصًا ما (عادة امرأة) ظهر عاريًا أو في مشاهد جنسية لم يقم بها أبدًا. بدأت هذه الممارسة مع المشاهير لكنها تستهدف بشكل متزايد الأشخاص العاديين، وغالبًا ما تكون كشكل من أشكال المضايقة أو “الانتقام الإباحي”. بحلول عام 2023، أصبحت هذه الظاهرة منتشرة بشكل مقلق وسهلة الوصول: فقد وجدت تقارير استقصائية أن أي شخص يمكنه بسهولة العثور على مواقع إباحية عميقة زائفة عبر جوجل، أو الانضمام إلى ديسكورد لطلب صور مزيفة مخصصة، وحتى الدفع ببطاقة ائتمان – اقتصاد سري مزدهر مع “مبدعين” يعلنون عن خدماتهم بشكل علني theguardian.com theguardian.com. وقد وجدت الدراسات باستمرار أن النساء والفتيات هن الضحايا بشكل ساحق لهذا الاتجاه. ووجد تقرير بارز أعدته شركة Sensity (شركة أمان الذكاء الاصطناعي) أن 95–96% من الصور العميقة الزائفة على الإنترنت كانت صورًا جنسية غير توافقية، وجميعها تقريبًا تصور نساء theguardian.com. وقد تعرضت نساء شهيرات من الممثلة تايلور سويفت إلى شخصيات الإنترنت لانتشار صور عارية مزيفة لهن على وسائل التواصل الاجتماعي klobuchar.senate.gov. والأكثر إثارة للقلق، أن الأفراد العاديين والقُصَّر قد تم استهدافهم: على سبيل المثال، اكتشفت فتاة تبلغ من العمر 14 عامًا أن زملاءها في الصف استخدموا تطبيقًا لإنشاء صور إباحية مزيفة لها ومشاركتها على سناب شات klobuchar.senate.gov.وقع حادث بارز في يناير 2023، عندما تم ضبط أحد لاعبي البث المباشر على منصة تويتش وهو يفتح علامة تبويب في متصفح لموقع إباحي يستخدم تقنية التزييف العميق ويعرض زميلاته. قدم اللاعب اعتذارًا باكيًا، لكن إحدى النساء، لاعبة تويتش QTCinderella، أعطت رد فعل قوي: “هكذا يبدو الشعور بالانتهاك… أن أرى صورًا لي ‘عارية’ تنتشر” دون موافقة theguardian.com. وأكدت مدى عدم الإنصاف في أنه كإمرأة تحت الأضواء، أصبح عليها الآن أن تقضي وقتًا ومالًا في محاولة إزالة صور جنسية مزيفة لها من الإنترنت theguardian.com theguardian.com. وناشدت قائلة: “لا ينبغي أن يكون جزءًا من عملي أن أتعرض لهذا النوع من التحرش” – وهو ما لاقى صدى وجذب الانتباه العام إلى الإباحية بالتزييف العميق كنوع خطير من الإساءة.ومنذ ذلك الحين، لم تتوقف مثل هذه الحالات عن التزايد. ففي عام 2024، أصبح الطلاب في عدة دول جناة وضحايا في نفس الوقت لعمليات تبديل الصور العارية باستخدام الذكاء الاصطناعي. ففي أستراليا، اهتز مجتمع مدرسي بسبب صور إباحية مزيفة لعدة طالبات تم إنشاؤها ومشاركتها دون موافقتهن، مما دفع الشرطة للتحقيق وأثار غضبًا عامًا theguardian.com. وفي هونغ كونغ عام 2025، يُزعم أن طالب قانون في جامعة هونغ كونغ المرموقة أنشأ صورًا إباحية باستخدام الذكاء الاصطناعي لما لا يقل عن 20 من زميلاته ومعلماته، مما تسبب في فضيحة عندما كان عقاب الجامعة الأولي مجرد رسالة تحذير cbsnews.com cbsnews.com. وأشارت السلطات في هونغ كونغ إلى أنه بموجب القانون الحالي، فإن توزيع مثل هذه الصور فقط هو جريمة، وليس مجرد إنشائها، مما يترك ثغرة إذا لم يقم الجاني بنشر الصور المزيفة علنًا cbsnews.com. وانتقدت جماعات حقوق المرأة المدينة بأنها “متأخرة” في الحماية، وأطلق مفوض الخصوصية في هونغ كونغ تحقيقًا جنائيًا على أي حال، مشيرًا إلى احتمال وجود نية للإيذاء cbsnews.com cbsnews.com. وأبرزت القضية أن أي شخص يمكن أن يكون هدفًا وأن القوانين الحالية غالبًا ما تعجز عن مواكبة التطورات.
وسط هذه الانتهاكات، يصف الضحايا أضرارًا عاطفية وسمعية جسيمة. إن تصوير شخص في مشهد جنسي مزيف فائق الواقعية هو صادم للغاية، حتى لو كان الشخص يعلم منطقيًا أنه مزيف. قالت إحدى طالبات الجامعة التي وجدت مقاطع فيديو تم إنشاؤها بالذكاء الاصطناعي لنفسها على موقع إباحي (تم رفعها بواسطة زميل سابق ساخط): “كان الأمر غير واقعي أن أرى وجهي… كانوا يبدون وكأنهم بلا حياة” centeraipolicy.org. يشعر الضحايا بالعجز، ليس فقط لأنهم لم يوافقوا أبدًا على مثل هذه الصور، بل لأن من الصعب جدًا إزالتها. كما كتبت إحدى الصحفيات: “الإباحية العميقة غير التوافقية حالة طارئة تدمر الحياة.” إنها تجبر النساء على العيش في حالة من الارتياب، يتساءلن من الذي شاهد هذه الصور المزيفة، وتستنزف طاقتهن في “لعبة كابوسية من الضرب على الخلد” أثناء محاولة حذف المحتوى من الإنترنت theguardian.com klobuchar.senate.gov. وقد شبه المدافعون ذلك بشكل من أشكال الإرهاب الجنسي الإلكتروني المصمم لإسكات النساء وتخويفهن theguardian.com.حتى منصات التواصل الاجتماعي الرئيسية كانت عن غير قصد تسهل انتشار المحتوى الجنسي الذي ينتجه الذكاء الاصطناعي. في أوائل عام 2024، انتشرت صور عميقة مزيفة صريحة لتايلور سويفت على منصة X (تويتر سابقًا) على نطاق واسع – حيث حصدت ملايين المشاهدات – لدرجة أن المنصة قامت مؤقتًا بحجب نتائج البحث عن اسمها للحد من الانتشار cbsnews.com. كما وُجد أن شركة ميتا (فيسبوك/إنستغرام) كانت تعرض مئات الإعلانات لتطبيقات “التعري” (أدوات تزيل ملابس النساء رقميًا عبر الذكاء الاصطناعي) في عام 2024، رغم أن هذه الإعلانات تنتهك السياسات. وبعد تحقيق من CBS News، أزالت ميتا العديد من هذه الإعلانات واعترفت بأنها تسللت عبر المراجعة cbsnews.com. إن وجود مثل هذه الإعلانات يُظهر مدى تطبيع وسهولة الوصول إلى تطبيقات “التعري” بالذكاء الاصطناعي، حتى على شبكات الإعلانات الشرعية cbsnews.com.حظر المنصات والتنظيم الذاتي من قبل الصناعة
مواجهةً للضغط العام، اتخذت بعض منصات التكنولوجيا ومزودي الخدمات خطوات للحد من محتوى الذكاء الاصطناعي غير المناسب (NSFW) خلال العام الماضي. كان من أبرز التطورات إغلاق موقع Mr. Deepfakes في مايو 2025، كما ذُكر سابقًا. أعلن الموقع عن إغلاقه بعد أن “سحب مزود خدمة أساسي دعمه”، مما أدى فعليًا إلى توقف الموقع عن العمل cbsnews.com. وبينما لم يتم التأكيد، يشير ذلك إلى أن مزود بنية تحتية أو استضافة (ربما خدمة سحابية، أو مسجل نطاقات، أو خدمة حماية من هجمات DDoS) قرر قطع العلاقات، على الأرجح بسبب مخاطر قانونية أو تتعلق بالسمعة. وجاء التوقيت بعد أيام فقط من إقرار الكونغرس الأمريكي قانونًا رئيسيًا لمكافحة التزييف العميق (سيتم مناقشته أدناه)، مما دفع الكثيرين إلى اعتباره جزءًا من حملة أوسع cbsnews.com. هنري أجدر، وهو خبير معروف في مجال التزييف العميق، احتفل بالإغلاق واعتبره تفكيكًا لـ”العقدة المركزية” لشبكة إساءة كبيرة cbsnews.com. وقال: “هذه لحظة للاحتفال”، محذرًا في الوقت نفسه من أن مشكلة الصور المزيفة غير التوافقية “لن تختفي” – بل ستتشتت ولكن من غير المرجح أن تستعيد مثل هذا الحضور السائد مرة أخرى cbsnews.com. في الواقع، أشار أجدر إلى أن تلك المجتمعات ستجد موطنًا جديدًا، لكن “لن تكون كبيرة وبارزة” كما كان الحال مع وجود موقع رئيسي واحد، وهو ما يُعد “تقدمًا حاسمًا” cbsnews.com.بدأت أيضًا شركات التكنولوجيا الكبرى في معالجة جانب الأدوات والإعلانات. في مايو 2024، قامت جوجل بتحديث سياساتها لـحظر الإعلانات للمنصات التي تنشئ بورن ديب فيك أو الدروس التعليمية حول كيفية صنعه arnoldit.com. وجاءت خطوة جوجل، التي تدخل حيز التنفيذ في نهاية مايو 2024، كجهد لوقف الترويج لهذه الخدمات عبر إعلانات جوجل. (كانت جوجل قد حظرت سابقًا استخدام منصتها Colab لتدريب نماذج الديب فيك، ومنذ عام 2018، كانت مواقع مثل Reddit وPornhub قد حظرت رسميًا المواد الإباحية غير التوافقية المنتجة بالذكاء الاصطناعي arnoldit.com.) وقد تم تأطير ذلك على أنه استعداد من جوجل للأسوأ القادم: “إذا كان بورن الديب فيك يبدو رديئًا في 2018، فمن المؤكد أنه سيبدو أكثر واقعية بكثير الآن”، كما أشار تقرير ExtremeTech، مبررًا الحاجة إلى قواعد إعلانات أكثر صرامة arnoldit.com. وبالمثل، تقوم شركات وسائل التواصل الاجتماعي بتحديث سياسات الإشراف على المحتوى – فعلى سبيل المثال، تعهدت Pornhub والمواقع الإباحية الكبرى في 2018 بحظر الديب فيك (باعتباره بورن غير توافقي)، وفي أوروبا، تفرض القوانين الجديدة في 2024–2025 على مواقع البورن اتخاذ إجراءات نشطة لـ“مكافحة المحتوى الضار” أو مواجهة الغرامات subscriber.politicopro.com. وكجزء من حملة أمان أوسع، قام مالك Pornhub حتى بتعليق الخدمة مؤقتًا في بعض المناطق (مثل فرنسا وبعض الولايات الأمريكية) بسبب مخاوف الامتثال للقوانين الجديدة subscriber.politicopro.com، مما يوضح كيف أن المنصات الإباحية تُجبر على اتخاذ تدابير جادة لحماية المحتوى أو إيقاف الوصول.تواصل شركات الذكاء الاصطناعي السائدة الابتعاد عن الاستخدامات غير الملائمة (NSFW). لا يزال نموذج الصور DALL·E وخدمة ChatGPT من OpenAI يفرضان مرشحات صارمة ضد المحتوى الجنسي. كما أن Midjourney (مولد الصور بالذكاء الاصطناعي الشهير) لا يحظر فقط الطلبات الإباحية، بل نفذ أيضًا إشرافًا آليًا يتعرف على السياق لمنع المستخدمين من التسلل بطلبات NSFW arxiv.org. وعندما يتمكن أحدهم من تجاوز مرشحات أحد النماذج من خلال صياغة ذكية للطلب، تصبح الحوادث علنية ويقوم المطورون بتشديد الضوابط (لعبة القط والفأر المستمرة). وعلى الجانب الآخر، يروج القادمون الجدد أحيانًا لغياب الرقابة كنقطة بيع: على سبيل المثال، يمكن من الناحية التقنية لنموذج Stable Diffusion XL الأحدث من Stability AI إنتاج صور NSFW إذا تم تشغيله محليًا بدون مرشح الأمان، وتعلن بعض الشركات الصغيرة صراحة عن “قيود أقل على محتوى NSFW مقارنة بالمنافسين” latenode.com. يبرز هذا انقسامًا في صناعة الذكاء الاصطناعي: اللاعبون الكبار يفضلون جانب الحذر وسلامة العلامة التجارية، بينما تلبي المشاريع الصغيرة أو المفتوحة الطلب على الذكاء الاصطناعي التوليدي غير الخاضع للرقابة – بما في ذلك المواد الإباحية.التطورات القانونية والتنظيمية الرئيسية (2024–2025)
ربما جاءت أكثر التطورات أهمية من المشرعين الذين يستجيبون لمخاطر الإباحية بالذكاء الاصطناعي. في جميع أنحاء العالم، بدأت الحكومات في سن قوانين لمعاقبة التزييفات العميقة غير التوافقية، وحماية الضحايا، وحتى تنظيم أدوات الذكاء الاصطناعي نفسها. إليك ملخص لأهم التحركات:
- الولايات المتحدة – قانون “Take It Down” (2025): في أبريل 2025، أقر الكونغرس الأمريكي بأغلبية ساحقة قانون “Take It Down” ثنائي الحزب، وهو أول قانون فيدرالي يعالج بشكل مباشر الصور الحميمة المُنتجة بالذكاء الاصطناعي klobuchar.senate.gov. ويجعل هذا القانون من إنشاء أو مشاركة صور حميمة غير توافقية (حقيقية أو مُنتجة بالذكاء الاصطناعي) جريمة فيدرالية. والأهم من ذلك، أنه يُلزم المنصات الإلكترونية بإزالة هذا المحتوى خلال 48 ساعة من إبلاغ الضحية عنه klobuchar.senate.gov. وقد تم الدفع بهذا القانون – الذي دعمته السيدة الأولى ميلانيا ترامب وشارك في صياغته أعضاء من كلا الحزبين – ووقعه الرئيس دونالد ترامب في مايو 2025 klobuchar.senate.gov. ويُعتبر هذا القانون أول قانون رئيسي للإنترنت في الولاية الثانية لترامب واستجابة مباشرة لـ”المشكلة المتنامية بسرعة [الإباحية غير التوافقية]” klobuchar.senate.gov. وقد أشاد به المدافعون عن الضحايا باعتباره طال انتظاره. وقالت السيناتور آمي كلوبوشار: “الديب فيك يخلق فرصًا مرعبة جديدة للإساءة”، مضيفة أن الضحايا الآن يمكنهم إزالة المواد ومحاسبة الجناة klobuchar.senate.gov. ومن الجدير بالذكر أن شركات التكنولوجيا الكبرى مثل ميتا وجوجل وسناب دعمت هذا القانون – في إشارة إلى وجود إجماع على ضرورة اتخاذ إجراء ما klobuchar.senate.gov. ويشمل القانون عقوبات منها الغرامات والسجن لمدة تصل إلى سنتين للمخالفين cbsnews.com. كما يسمح للضحايا بمقاضاة المنشئين/الموزعين للحصول على تعويضات، مما يعزز الإجراءات المدنية. وقد حذرت مجموعات حرية التعبير والخصوصية من احتمال إساءة استخدام القانون – فعلى سبيل المثال، وصفت ليا هولاند من Fight for the Future القانون بأنه “حسن النية لكنه صيغ بشكل سيئ”، معربة عن مخاوفها من أن يستغل الفاعلون السيئون طلبات الإزالة لفرض رقابة على محتوى مشروع klobuchar.senate.gov. ومع ذلك، فإن قانون Take It Down أصبح الآن ساري المفعول، مما يمثل أول خطوة حقيقية من الحكومة الفيدرالية الأمريكية لمكافحة الاستغلال الجنسي بالذكاء الاصطناعي على نطاق واسع.
- الولايات المتحدة الأمريكية: حتى قبل التحرك الفيدرالي، سنت عدة ولايات أمريكية قوانينها الخاصة. كاليفورنيا، تكساس، فيرجينيا، نيويورك، وغيرها أصدرت قوانين بين 2019 و2023 تجعل من غير القانوني إنشاء أو توزيع المواد الإباحية المزيفة (ديب فيك) دون موافقة (وغالبًا ما تُصنف تحت قوانين الانتقام الإباحي أو انتحال الهوية الجنسية). في عام 2025، واصلت الولايات تعديل القوانين. على سبيل المثال، تينيسي قدمت “قانون منع الصور المزيفة” الذي يدخل حيز التنفيذ في 1 يوليو 2025، ويتيح دعاوى مدنية وجنائية لأي شخص يتم استخدام صورته الحميمة دون موافقته wsmv.com wsmv.com. جاء هذا التحرك بعد أن اكتشفت مذيعة أرصاد جوية محلية انتشار صور عارية مزيفة لها على الإنترنت، مما دفعها للإدلاء بشهادتها حول الأثر النفسي عليها وعلى عائلتها wsmv.com. كما أصدرت تينيسي قانونًا يجرم أدوات إنتاج المواد الإباحية للأطفال بالذكاء الاصطناعي – حيث أصبح من الجناية حيازة أو توزيع أو إنتاج برامج مصممة لإنشاء مواد إساءة جنسية للأطفال مولدة بالذكاء الاصطناعي عن علم wsmv.com. يعترف هذا القانون ببشاعة الصور الإباحية للأطفال المولدة بالذكاء الاصطناعي ويسعى لمنعها من خلال استهداف التكنولوجيا نفسها (حيازة مثل هذه الأداة في تينيسي تعتبر الآن جناية من الفئة E، والإنتاج جناية من الفئة B) wsmv.com.
- أوروبا – تدابير على مستوى الاتحاد الأوروبي: اتخذ الاتحاد الأوروبي نهجًا ذا مسارين: تنظيمات عامة للذكاء الاصطناعي وتوجيهات جنائية محددة. سيتطلب قانون الذكاء الاصطناعي للاتحاد الأوروبي القادم (من المتوقع إقراره في 2024/2025) أن يلتزم محتوى الذكاء الاصطناعي التوليدي بـالتزامات الشفافية. لن يتم حظر الديب فيك، المصنف كذكاء اصطناعي “محدود المخاطر”، بشكل كامل، ولكن يجب أن يتم تصنيفه بوضوح على أنه مُنتج بواسطة الذكاء الاصطناعي (مثل العلامات المائية أو الإخلاء بالمسؤولية)، ويجب على الشركات الكشف عن تفاصيل بيانات التدريب الخاصة بها euronews.com euronews.com. عدم الامتثال قد يؤدي إلى غرامات تصل إلى 15 مليون يورو أو أكثر euronews.com. بالإضافة إلى ذلك، أقر الاتحاد الأوروبي توجيه مكافحة العنف ضد المرأة الذي يجرم صراحة إنشاء أو مشاركة الديب فيك الجنسي دون موافقة euronews.com. ويلزم دول الاتحاد الأوروبي بتجريم هذا السلوك (مع ترك العقوبات الدقيقة لكل دولة) بحلول عام 2027 euronews.com euronews.com. هذا يعني أنه في جميع أنحاء أوروبا، سيكون إنشاء صورة إباحية مزيفة لشخص ما دون موافقته جريمة، بما يتماشى مع كيفية التعامل مع الانتقام الإباحي الحقيقي.
- فرنسا: تحركت فرنسا بقوة في عام 2024 من خلال إضافة مادة جديدة إلى قانونها الجنائي. أصبح من غير القانوني الآن في فرنسا مشاركة أي صورة أو صوت تم إنشاؤه بواسطة الذكاء الاصطناعي لشخص ما دون موافقته euronews.com. إذا تم ذلك عبر خدمة عبر الإنترنت، تزداد العقوبات (حتى سنتين سجن، وغرامة 45 ألف يورو) euronews.com. والأهم من ذلك، أن فرنسا حظرت بشكل صريح الصور الإباحية المزيفة (ديب فيك)، حتى لو حاول شخص ما تصنيفها كمحتوى مزيف euronews.com. لذلك في فرنسا، إنشاء أو توزيع ديب فيك جنسي يعاقب عليه بالسجن حتى 3 سنوات وغرامة قدرها 75,000 يورو euronews.com. كما يمنح القانون الفرنسي منظم الإعلام الرقمي ARCOM سلطة إجبار المنصات على إزالة هذا المحتوى وتحسين أنظمة الإبلاغ euronews.com. المملكة المتحدة: قامت المملكة المتحدة في 2023–2024 أيضًا بتحديث القوانين. ستجعل التعديلات على قانون الجرائم الجنسية إنشاء ديب فيك جنسي بدون موافقة يعاقب عليه بالسجن لمدة تصل إلى سنتين euronews.com euronews.com. وبشكل منفصل، يجعل قانون السلامة على الإنترنت 2023 (وهو تنظيم شامل للإنترنت) من غير القانوني صراحةً مشاركة أو التهديد بمشاركة صور جنسية غير توافقية (بما في ذلك الديب فيك) على وسائل التواصل الاجتماعي، ويتطلب من المنصات “إزالة هذه المواد بشكل استباقي” أو منع ظهورها euronews.com. إذا فشلت المنصات، فإنها تواجه غرامات تصل إلى 10% من الإيرادات العالمية – وهو حافز ضخم للامتثال euronews.com. ومع ذلك، يشير بعض الخبراء إلى أن المملكة المتحدة لا تجرم حتى الآن إنشاء ديب فيك لا يتم مشاركته، وهي ثغرة تترك الضحايا عرضة للخطر إذا تم الاحتفاظ بالصور بشكل خاص (مشابه لسيناريو هونغ كونغ) euronews.com. هناك دعوات لأن تجرم المملكة المتحدة حتى تطوير وتوزيع أدوات الديب فيك نفسها euronews.com.الدنمارك: في يونيو 2025، وافق برلمان الدنمارك على قانون رائد يمنح الأفراد حقوق النشر على ملامحهم الشخصية – أي أن يصبح وجهك “ملكيتك الفكرية” كوسيلة لمحاربة التزييف العميق. سيجعل هذا القانون من غير القانوني إنشاء أو مشاركة “تقليد رقمي” لسمات شخص ما دون موافقته. وقالت وزيرة الثقافة الدنماركية: “لديك الحق في جسدك، وصوتك، وملامح وجهك”، ووصفت ذلك بأنه حماية من التضليل وسوء الاستخدام الجنسي. وبينما لا تزال التفاصيل قيد الانتظار، يشير ذلك إلى أن الدنمارك ستتعامل مع من يصنع تزييفاً عميقاً لك على أنه انتهاك لـ”حقوق ملامحك”، على غرار انتهاك حقوق النشر، مما قد يبسط بشكل كبير إجراءات الإزالة والتحرك القانوني.
- كوريا الجنوبية: كانت كوريا الجنوبية من أوائل الدول التي تضررت بشدة من الإباحية العميقة التزييف (نظرًا لمعاناتها مع الجرائم الجنسية الرقمية في السنوات الأخيرة). بحلول عام 2021، كانت كوريا الجنوبية قد حظرت إنشاء أو مشاركة المواد الإباحية العميقة التزييف؛ وفي أواخر عام 2024، ذهبت أبعد من ذلك إلى تجريم حتى حيازة أو مشاهدة هذا النوع من المحتوى. قانون تم تمريره في سبتمبر 2024 (ووقعه الرئيس يون في 2024/25) جعل من غير القانوني شراء أو حيازة أو مشاهدة صور/فيديوهات عميقة التزييف ذات طابع جنسي، ويواجه المخالفون عقوبة السجن حتى 3 سنوات cbsnews.com cbsnews.com. كان إنشاء/توزيع هذه المواد بالفعل غير قانوني (السجن لأكثر من 5 سنوات) وتمت زيادتها إلى 7 سنوات كحد أقصى إذا تم توقيع القانون الجديد cbsnews.com. هذا الموقف الصارم يعكس أن هذه المواد المزيفة كانت غالبًا ما يتم تبادلها بين الشباب؛ في الواقع، في عام 2024 أفادت الشرطة الكورية عن 387 حالة اعتقال تتعلق بمحتوى جنسي عميق التزييف في النصف الأول فقط من العام – 80% من المعتقلين كانوا مراهقين cbsnews.com. لقد أصبحت المشكلة منتشرة جدًا بين المراهقين (صناعة مواد مزيفة لزملاء الدراسة، المعلمين، إلخ) لدرجة أن كوريا تتعامل معها كجريمة خطيرة حتى لمجرد البحث عن هذا النوع من المواد cbsnews.com cbsnews.com. ونظم نشطاء في سيول وقفات احتجاجية بلافتات تقول “جرائم الجنس العميق التزييف المتكررة، الدولة شريكة أيضًا” للمطالبة بإجراءات أكثر صرامة cbsnews.com، وقد استجابت الحكومة بهذه التدابير.
- الصين: المواد الإباحية من أي نوع غير قانونية بشكل صارم في الصين، وينطبق ذلك أيضًا على المواد الإباحية المُنتجة بالذكاء الاصطناعي. علاوة على ذلك، طبقت الصين لوائح رائدة بشأن تكنولوجيا “التوليف العميق” في يناير 2023، حيث تتطلب أن يكون لأي وسائط مُعدلة أو مُنتجة بالذكاء الاصطناعي والتي قد تضلل، علامات أو علامات مائية واضحة، وتمنع استخدام هذه التقنية في الانتحال أو الاحتيال أو تعريض الأمن للخطر oxfordmartin.ox.ac.uk afcea.org. في الأساس، حظرت الصين بشكل استباقي التزييفات العميقة غير الموسومة ومنحت السلطات صلاحيات واسعة لمعاقبة من يصنعها. وبالاقتران مع الحظر الشامل في الصين على المواد الفاحشة، فإن محتوى الذكاء الاصطناعي غير المناسب (NSFW) محظور مضاعفًا – وعلى الرغم من أنه من المحتمل وجوده في الدوائر السرية، إلا أن الرقباء الصينيين لديهم أدوات قانونية لحذفه وملاحقة صانعيه فورًا.
على الصعيد العالمي، الاتجاه واضح: يتم تجريم الصور الجنسية المُنتجة بالذكاء الاصطناعي دون موافقة عبر مختلف الولايات القضائية، ويتم إلزام المنصات بمراقبتها. بحلول أواخر عام 2025، أصبح المشهد القانوني أقل تساهلاً بكثير مع المواد الإباحية المزيفة مقارنة بما كان عليه قبل عامين فقط، عندما كان لدى عدد قليل فقط من الولايات الأمريكية ودول مثل كوريا الجنوبية مثل هذه القوانين. ومع ذلك، لا تزال إنفاذ القوانين وزيادة الوعي تمثل تحديات. كثير من الضحايا لا يعلمون أن القوانين باتت تحميهم الآن، وغالبًا ما تفتقر الشرطة/النيابة إلى الأدوات اللازمة للتحقيق مع الجناة المجهولين عبر الإنترنت. كما تختلف القوانين – فبعض الأماكن تعاقب حتى على الإنشاء الخاص، وأخرى فقط إذا تم التوزيع. ومع ذلك، فإن الزخم نحو الاعتراف بأن الإساءة الجنسية المُنتجة بالذكاء الاصطناعي هي إساءة حقيقية لا يمكن إنكاره. كما أشار أحد أساتذة القانون في الولايات المتحدة، فإن هذه الموجة من التشريعات تعيد القوة إلى أيدي الضحايا وترسل رسالة مفادها: “لديك حقوق على صورتك وجسدك، حتى في عصر الذكاء الاصطناعي” euronews.com.
المستنقع الأخلاقي: الموافقة، التزييفات العميقة، والأثر المجتمعي
بعيدًا عن المجال القانوني، يثير الذكاء الاصطناعي غير المناسب (NSFW AI) أسئلة أخلاقية ومجتمعية عميقة. في جوهر الأمر تكمن مسألة الموافقة – هل يمكن أن يكون المحتوى الصريح أخلاقيًا إذا تم إنتاجه دون موافقة (أو حتى علم) الأشخاص الظاهرين فيه؟ يتفق معظم الناس على أن التزييفات العميقة غير التوافقية خطأ أخلاقي واضح، وهي في الأساس شكل من أشكال الانتهاك الجنسي. لكن المعضلات أعمق: ماذا عن المواد الإباحية المُنتجة بالذكاء الاصطناعي باستخدام صور أشخاص حقيقيين تم الحصول عليها بموافقة (مثلاً التدريب على مقاطع فيديو إباحية تجارية) – هل هي “بلا ضحايا” أم أنها تستغل مظهر هؤلاء المؤدين دون موافقة أو تعويض إضافي؟ وماذا عن المواد الإباحية المُنتجة بالذكاء الاصطناعي الخيالية بالكامل – لا يظهر فيها أي شخص حقيقي – هل هي خالية من الضرر، أم يمكن أن تطبع خيالات خطيرة (مثل استغلال الأطفال أو سيناريوهات الاغتصاب)؟ وكيف تظهر التحيزات في نماذج الذكاء الاصطناعي في المحتوى الإيروتيكي؟
الموافقة والخصوصية: القلق الأكثر إلحاحًا هو أن الناس ليس لديهم أي سيطرة أو موافقة على كيفية استخدام الذكاء الاصطناعي لصورهم. أي شخص سبق له أن نشر صورة على الإنترنت (أو حتى أولئك الذين لم يفعلوا، إذا كان لدى أحد معارفهم صورة لهم) معرض نظريًا لخطر أن يصبح وجهه في فيديو إباحي مزيف. النساء، وخاصة اللواتي في دائرة الضوء، يعشن الآن واقعًا مرعبًا: قد تستيقظين لتجدي أن الإنترنت “يعتقد” أن لديه صورًا عارية أو أشرطة جنسية لك، بفضل الذكاء الاصطناعي theguardian.com. هذا ينتهك الكرامة الشخصية والخصوصية بشكل أساسي. كما قالت القوانين في الدنمارك، يجب أن يكون لك الحق في وجهك وجسدك – ومع ذلك، لا تضمن التكنولوجيا والمعايير الحالية ذلك. يجادل الأخلاقيون بأن مجرد وجود هذه الصور المزيفة، حتى لو لم تنتشر على نطاق واسع، هو ضرر بحد ذاته – فهي تمثيل لفعل جنسي يخصك، تم إنشاؤه دون إذنك. قد يكون له تأثير نفسي يشبه الاعتداء الجنسي. حقيقة أن “الإنترنت لا ينسى أبدًا” تزيد من الضرر: فبمجرد انتشار هذه الصور، يمكن أن تظهر مرارًا وتكرارًا، مما يجعل الضحايا يعيشون الصدمة من جديد. كل هذه العوامل تجعل من الإباحية الاصطناعية غير التوافقية خرقًا أخلاقيًا خطيرًا. بدأ المجتمع في التعامل معها على قدم المساواة مع الجرائم الجنسية الأخرى من حيث الوصمة والعواقب، ولكن كما نوقش، لا تزال القوانين تلاحق التطور.
الصور المزيفة والواقع: جانب آخر هو كيف أن الصور المزيفة تخلط بين الحقيقة والخيال. مع ازدياد واقعية صور الإباحية الاصطناعية، قد لا يدرك المشاهدون أنها مزيفة، مما يضر بالسمعة أكثر. يمكن أن يتسبب فيديو جنسي مزيف في فقدان شخص لوظيفته، أو تدمير علاقاته، أو استخدامه للابتزاز (“الابتزاز الجنسي”). حتى لو ثبت لاحقًا أنه مزيف، لا يمكن محو الإذلال والضرر بالسمعة بالكامل. هذا يرفع من المسؤولية الأخلاقية على صانعي هذه الصور المزيفة – فهم يعبثون بحياة ومعيشة أشخاص حقيقيين. كما يبرز تحديًا مجتمعيًا: كيف نحافظ على الثقة في وسائل الإعلام عندما لم يعد ما نراه بالضرورة حقيقيًا؟ يصف بعض الخبراء الصور المزيفة بأنها “اعتداء على الحقيقة” يتم تسليحها في سياق الإباحية من أجل إهانة ومعاقبة النساء theguardian.com.
القُصَّر وCSAM المُنتَج بالذكاء الاصطناعي: ربما يكون الخط الأحمر الأخلاقي الأكثر اتفاقًا عليه بالإجماع هو مواد استغلال الأطفال جنسيًا (CSAM) المُنتَجة بالذكاء الاصطناعي – أي تصوير القُصَّر في سيناريوهات جنسية. حتى لو لم يتعرض أي طفل حقيقي للأذى أثناء إنشائها، فإن جميع الجهات التنظيمية والمنصات تقريبًا تتعامل مع المواد الإباحية للأطفال المُنتَجة بالذكاء الاصطناعي على أنها غير قانونية وضارة بنفس القدر مثل CSAM الحقيقي. المبرر الأخلاقي واضح: هذا النوع من المحتوى يُضفي طابعًا جنسيًا على الأطفال وقد يغذي الجرائم الحقيقية. وغالبًا ما يتم إنشاؤه باستخدام صور لأطفال حقيقيين (على سبيل المثال، أخذ صورة بريئة لطفل و”تعرية” أو تعديلها عبر الذكاء الاصطناعي – وهو انتهاك شنيع لكرامة وخصوصية ذلك الطفل) centeraipolicy.org. للأسف، هناك أدلة على حدوث ذلك. فقد اكتشف باحث من ستانفورد، ديفيد ثيل، مئات من صور إساءة معاملة الأطفال المعروفة مضمنة في مجموعة بيانات تدريبية شهيرة للذكاء الاصطناعي خاصة بـ Stable Diffusion centeraipolicy.org. هذا يعني أن النموذج تم تدريبه جزئيًا على صور إساءة جنائية حقيقية، وهو أمر إشكالي للغاية. حتى لو كان يتم الآن إزالة هذه الصور، فإن حقيقة استخدامها من الأساس تبرز كيف أن مُطوِّري الذكاء الاصطناعي قد يكونون دربوا النماذج دون قصد على محتوى مسيء. والأسوأ من ذلك، أنه بدون وجود ضمانات دقيقة، قد يتمكن الذكاء الاصطناعي من توليد صور جديدة تشبه تلك المدخلات التدريبية غير القانونية. بعض المستخدمين في المنتديات حاولوا استخدام الذكاء الاصطناعي لـ”تجريد” صور القُصَّر أو إنشاء صور غير مشروعة – وهو اتجاه تسابق جهات إنفاذ القانون لإيقافه. من الناحية الأخلاقية، هناك شبه إجماع: يجب ألا يُستخدم الذكاء الاصطناعي أبدًا لإنشاء CSAM. ومع ذلك، فإن تنفيذ ذلك أمر معقد – إذ يتطلب تدريب النماذج على رفض أي طلب أو محاولة لإنتاج هذا النوع من المحتوى بشكل صريح، أو سن قوانين تجعل أي محاولة من هذا النوع جريمة خطيرة (كما فعلت ولاية تينيسي). غالبًا ما تقوم شركات التكنولوجيا الآن ببرمجة فلاتر بحيث يتم حظر حتى كلمة “طفل” أو أي إيحاء بسن قاصر في الطلب. لكن المستخدمين المخادعين يحاولون التحايل. المخاطر مرتفعة للغاية، لأنه إذا أسيء استخدام الذكاء الاصطناعي بهذه الطريقة، فقد يؤدي ذلك إلى إعادة إيذاء الناجين من الإساءة وتوفير مواد جديدة لمرتكبي الجرائم الجنسية ضد الأطفال تحت مبرر زائف بأن “لا طفل حقيقي تعرض للأذى”. يرد العديد من الأخلاقيين على حجة “الجريمة بلا ضحية” هنا بالإشارة إلى أن استهلاك أي تصوير لاستغلال الأطفال، سواء كان حقيقيًا أو بالذكاء الاصطناعي، من المرجح أن يغذي الإساءة الحقيقية من خلال تطبيعها centeraipolicy.org reddit.com. وبالتالي، فهذا خط أخلاقي صارم يتفق عليه معظم الناس: إنشاء أو استخدام الذكاء الاصطناعي لمحتوى جنسي للأطفال أمر خاطئ بشكل قاطع ويجب منعه بجميع الوسائل (التقنية والقانونية).بيانات التدريب والمحتوى القسري: هناك قضية أخلاقية أقل وضوحًا ولكنها مهمة في كيفية بناء نماذج الذكاء الاصطناعي غير المناسبة للعمل (NSFW). تم تدريب العديد من مولدات الذكاء الاصطناعي الإباحية على مجموعات بيانات ضخمة تم جمعها من الإنترنت – بما في ذلك مواقع الإباحية. هذا يعني أن صور أشخاص حقيقيين (ممثلات وممثلي الأفلام الإباحية، عارضات الكاميرا، وحتى صور عارية شخصية مسربة لأشخاص عاديين) انتهى بها المطاف كبيانات تدريب دون موافقة هؤلاء الأفراد. قامت شركات الذكاء الاصطناعي بذلك بهدوء، ولم يبدأ الباحثون في كشف حجم ذلك إلا لاحقًا. على سبيل المثال، تم اكتشاف أن أحد مولدات الصور العارية بالذكاء الاصطناعي ويدعى “These Nudes Do Not Exist” تم تدريبه على محتوى من “Czech Casting”، وهي شركة إباحية تخضع للتحقيق بتهمة إجبار النساء على ممارسة الجنس centeraipolicy.org. لذا فقد تم تدريب الذكاء الاصطناعي حرفيًا على مقاطع فيديو لنساء ربما كن ضحايا للاتجار أو الاغتصاب – وتعلم فعليًا إعادة توليد صور أجسادهن أو أجساد أخريات في أوضاع مماثلة. هؤلاء النساء بالتأكيد لم يوافقن على الاستخدام الإضافي لصورهن لإنشاء مواد إباحية جديدة بلا نهاية. كما قالت إحدى الضحايا عن وجود صورتها في مجموعة تدريب الذكاء الاصطناعي: “أشعر أن هذا غير عادل، أشعر أن حريتي تُسلب مني” centeraipolicy.org. حتى في الحالات الأقل تطرفًا، قد تكون النماذج قد استوعبت ملايين الصور اليومية لنساء من وسائل التواصل الاجتماعي أو جلسات التصوير – هؤلاء الأشخاص لم يوافقوا أيضًا على أن يصبحوا مادة خام لإنتاج الإباحية. كل نموذج إباحي بالذكاء الاصطناعي يحمل أشباح أشخاص حقيقيين في بيانات تدريبه. قد يكون العديد من هؤلاء الأشخاص لا يمانعون ذلك – على سبيل المثال، المؤدين البالغين الذين صوروا أفلامًا إباحية بمحض إرادتهم قد لا يمانعون أو قد يشجعون التقنية التي توسع من عملهم. لكن آخرين (مثل الأفراد العاديين في الصور المسربة، أو ممثلي الإباحية الذين تركوا المجال ويريدون المضي قدمًا) سيصدمهم معرفة أن الذكاء الاصطناعي قد يعيد دمج ملامحهم في محتوى جنسي جديد إلى الأبد. هذا يثير أسئلة أخلاقية حول حقوق الملكية الفكرية وحقوق الصورة الشخصية. هل يجب تعويض الأفراد إذا ساعدت صورهم في إنشاء أداة إباحية بالذكاء الاصطناعي تحقق أرباحًا؟ يجادل البعض بنعم – فهذه النماذج “تجني أرباحًا مباشرة من الرجال والنساء الذين ظهروا في بيانات التدريب” دون حتى كلمة شكر centeraipolicy.org. بينما يرى آخرون أنه إذا كانت البيانات متاحة للعامة، فهي متاحة لتدريب الذكاء الاصطناعي بموجب قوانين الملكية الفكرية الحالية. يميل الإجماع الأخلاقي على الأقل إلى عدم استخدام مواد غير توافقية أو مسيئة بشكل واضح في التدريب (مثلاً، يجب أن تكون مقاطع الانتقام الإباحي أو فيديوهات الاتجار معروفة المصدر خارج الحدود). بدأت الشركات في تدقيق مجموعات البيانات لمثل هذا المحتوى، لكن تاريخيًا لم تكن تفعل ذلك، وهو أمر مقلق. كما قالت مركز سياسات الذكاء الاصطناعي، من شبه “المؤكد” أن نماذج الذكاء الاصطناعي الإباحية قد تم تدريبها على بعض الصور الحميمة غير التوافقية (NCII) centeraipolicy.org. في المستقبل، هناك دعوات لمزيد من التدقيق الصارم لمجموعات البيانات وربما حتى سجل “الانسحاب” حتى يتمكن الأشخاص من إزالة صورهم من مجموعات تدريب الذكاء الاصطناعي <a href=”https://www.centeraipolicy.org/work/the-senate-passes-the-defiance-act#:~:text=These%20are%20contentious%20topics.%20%E2%80%9COpt,content%20to%20train%20centeraipolicy.org. هذا أمر معقد من الناحية التقنية واللوجستية، لكن النقاش حول أخلاقيات البيانات في الذكاء الاصطناعي التوليدي يزداد حدة فقط.محتوى خيالي لكنه متطرف: هذه أيضًا منطقة صعبة – إذا لم يتم تصوير أي شخص حقيقي، فهل هناك حدود لما يجب أن ينتجه الذكاء الاصطناعي من محتوى إباحي؟ بعض الناس يقلقون من أن الذكاء الاصطناعي قد يمكّن من محتوى جنسي متطرف للغاية أو هامشي لا يمكن الحصول عليه في العالم الحقيقي، وقد يكون ذلك ضارًا. على سبيل المثال، محاكاة الاغتصاب، أو البهيمية، أو الإباحية التي تتضمن القتل (“snuff”)، أو كما ذُكر، سيناريوهات الأطفال. قد يدافع البعض بالقول: “من الأفضل أن يكون ذلك عبر الذكاء الاصطناعي بدلاً من أن يفعله شخص في الواقع”، لكن المنتقدين يخشون أن ذلك قد يؤدي إلى فقدان الحساسية أو التشجيع على التنفيذ الفعلي. على الأقل، يثير هذا أسئلة أخلاقية حول ما إذا كان السماح للذكاء الاصطناعي بتلبية مثل هذه التخيلات يتجاوز خطًا مجتمعيًا. منصات مثل Oh تقول إنها تحظر أي “ممارسات غير قانونية” – روبوتاتهم لا تتعامل مع محتوى البيدوفيليا أو غيرها من المواضيع الجنسية الإجرامية sifted.eu. هذا إجراء أخلاقي وقائي تحاول الشركات المسؤولة تطبيقه. لكن النماذج مفتوحة المصدر لا تملك أخلاقيات فطرية؛ يمكن للمستخدمين أن يطلبوا منها إنتاج أي شيء تقريبًا إذا لم يكن النموذج مقيدًا بشكل صريح. هذا يعني أن العبء يقع على الضمير الفردي (والقانون المحلي). الموقف الأخلاقي لمعظم مجتمعات الذكاء الاصطناعي هو وضع مرشحات صارمة ضد المحتوى الجنسي غير القانوني أو العنيف. ومع ذلك، كما توقعت إحدى منشئات OnlyFans بشكل قاتم، من المحتمل أن يكون الأمر مجرد مسألة وقت قبل أن يستخدم شخص ما الذكاء الاصطناعي لإنتاج أشياء مثل “إساءة معاملة الأطفال بالذكاء الاصطناعي تحت مسمى لعب الأدوار العمرية، أو سيناريوهات اغتصاب بالذكاء الاصطناعي”، وأن “هذا الموضوع يحتاج إلى نقاش أوسع” reddit.com. السؤال الأخلاقي لا يزال غير محسوم: هل وجود تصوير خيالي فائق الواقعية لجريمة ما يُعد ضررًا بحد ذاته؟ كثيرون يميلون للإجابة بنعم، خاصة إذا كان الأمر يتعلق بقُصّر (حيث يكون ذلك جريمة بوضوح). أما بالنسبة لتخيلات متطرفة أخرى، فلم يصل المجتمع إلى إجماع، لكنه مجال نقاش نشط في أخلاقيات العالم الرقمي.
الجندر والتمثيل: ترث تقنيات الذكاء الاصطناعي المخصصة للمحتوى الجنسي (NSFW AI) أيضًا التحيزات والصور النمطية الموجودة في بياناتها المصدرية. لقد تعرض الكثير من الأفلام الإباحية السائدة لانتقادات بسبب تصويرها الجنسي أو غير الواقعي للنساء، ويمكن للذكاء الاصطناعي أن يضخم هذه الصور النمطية. إذا تم تدريب النماذج بشكل أساسي على، لنقل، محتوى إباحي يشيء النساء أو يركز على نوع واحد من الأجسام، فإن النتائج ستعكس ذلك. قد يعزز هذا معايير الجمال غير الواقعية أو السيناريوهات الجنسية النمطية. علاوة على ذلك، معظم رفقاء الذكاء الاصطناعي الجنسيين وروبوتات الصور المثيرة هم إناث بشكل افتراضي، لتلبية احتياجات المستخدمين الذكور المغايرين المفترضين. على سبيل المثال، فإن قائمة روبوتات الذكاء الاصطناعي في منصة Oh هي “غالبية نساء” كصور رمزية شبه عارية sifted.eu. ويخشى النقاد من أن هذا يعزز رؤية النساء كألعاب رقمية، وقد يؤثر على كيفية رؤية المستخدمين (معظمهم من الذكور) للعلاقات الحقيقية. حتى بعض مؤسسي رفقاء الذكاء الاصطناعي أنفسهم يعترفون بأن مستقبل الحميمية قد يصبح “غريبًا” أو “ديستوبيًا” إذا انفصل الناس عن الشركاء الحقيقيين لصالح خيال الذكاء الاصطناعي sifted.eu. وقد تم الجدل بأن هؤلاء “الصديقات” من الذكاء الاصطناعي قد يعززن الصور النمطية الضارة حول كون النساء دائمًا متاحات، وموافقات، ومصممات حسب كل رغبة sifted.eu. ويعبر علماء النفس والنسويات عن قلقهم من أن مثل هذه التقنيات قد تفاقم مشكلات مثل الوحدة، وكراهية النساء، أو التوقعات المشوهة حول الجنس. من ناحية أخرى، يقول المؤيدون إن هذه الأدوات قد توفر متنفسًا آمنًا لأولئك الذين يواجهون صعوبة في العلاقات البشرية، أو تساعد الناس على استكشاف ميولهم الجنسية دون وصمة عار. من الناحية الأخلاقية، هو سيف ذو حدين: هل يمكن أن تجعل صديقة الذكاء الاصطناعي شخصًا ما متواصلاً أفضل أو توفر له الراحة؟ ربما. هل يمكن أيضًا أن تمكن شخصًا من الانسحاب من العلاقات البشرية الحقيقية ومعاملة النساء كأشياء قابلة للتخصيص فقط؟ ربما. سيتعين على المجتمع مواجهة هذه الأسئلة أكثر مع نمو مثل هذه الخدمات.
خلاصة القول، تدور أخلاقيات الذكاء الاصطناعي الجنسي حول الموافقة، والضرر، والرسائل المجتمعية التي نرسلها حول الجنس والإنسانية. القاعدة الذهبية للإباحية الأخلاقية – أن كل من يظهر فيها هو مشارك بالغ موافق – تنقلب تمامًا مع الإباحية المنتجة بالذكاء الاصطناعي، حيث غالبًا لا أحد ممن يظهرون قد “شارك” فعليًا وبالتالي لا يمكنه الموافقة أبدًا. نحن مضطرون لتوسيع مفهومنا للموافقة ليشمل الشبه وحتى البيانات الشخصية. كما جاء في أحد التعليقات، فإن هذه التقنية تجبرنا على إعادة النظر في “أسس الحميمية والموافقة والحرية الإبداعية” في العصر الرقمي chicagoreader.com. المشهد الأخلاقي مليء بالمناطق الرمادية، لكن هناك إجماعًا متزايدًا على أن بعض الخطوط الحمراء (محتوى الأطفال، الاستخدام غير المشروع للهويات الحقيقية) يجب أن تُفرض، وأن احترام استقلالية الأفراد يجب أن يوجه ما يعتبر مقبولًا. في الوقت نفسه، يجب أن نكون حذرين من وصم كل إنتاج المحتوى الجنسي بالذكاء الاصطناعي – بالنسبة للبالغين الراغبين الذين يستخدمونه لأنفسهم، قد يكون أداة إيجابية بالفعل. التحدي هو السماح لـالاستخدامات المبتكرة والرضائية بالازدهار مع القضاء على الاستخدامات الاستغلالية.
المؤيدون مقابل النقاد: الجدل حول الذكاء الاصطناعي الجنسي
ردود الفعل تجاه الذكاء الاصطناعي المخصص للمحتوى غير المناسب للعمل (NSFW AI) منقسمة. البعض يحتفي به كتطور مثير في مجال الترفيه للبالغين وحرية شخصية؛ بينما يدينه آخرون باعتباره تهديدًا للمجتمع. لنستعرض الحجج الرئيسية من كلا الجانبين:
حجج المؤيدين (المؤيدون للذكاء الاصطناعي NSFW):
- الحرية الإبداعية والاستكشاف الجنسي: يرى المؤيدون أن الذكاء الاصطناعي يمكن أن يكون منفذًا إيجابيًا لاستكشاف الجنس، والخيالات، والميول في بيئة خاصة وخالية من الأحكام. المستخدمون الذين قد يشعرون بالإحراج أو عدم القدرة على تنفيذ بعض الخيالات في الواقع يمكنهم القيام بذلك بأمان من خلال المحتوى أو الدردشة التي ينشئها الذكاء الاصطناعي. هذا قد يقلل من المحرمات والعار المرتبط بالجنس. ويصفه البعض بأنه تمكين: “البالغون الراضون يمكنهم ابتكار خيالاتهم البصرية في بيئة آمنة وخاصة” مع الذكاء الاصطناعي، بحسب الرئيس التنفيذي لإحدى منصات الذكاء الاصطناعي للبالغين globenewswire.com. من هذا المنظور، الذكاء الاصطناعي التوليدي مجرد أداة – شبيهة بالفن الإيروتيكي أو الألعاب الجنسية – يمكن أن تعزز التعبير الجنسي الصحي.
- التخصيص والابتكار في الترفيه للبالغين: يشير المؤيدون إلى أن الذكاء الاصطناعي NSFW يوفر تخصيصًا لا مثيل له مقارنةً بالإباحية التقليدية globenewswire.com. بدلاً من استهلاك ما تنتجه الاستوديوهات بشكل سلبي، يمكن للأفراد إنشاء محتوى مصمم خصيصًا لأذواقهم (أنواع الأجسام، السيناريوهات، إلخ). يُنظر إلى هذا النموذج القائم على المستخدم كابتكار “يُحدث ثورة” في نموذج المحتوى الموحد للبالغين globenewswire.com. ويمكنه تلبية الاهتمامات المتخصصة التي يتجاهلها المنتجون التقليديون (طالما أنها قانونية). غالبًا ما تروج الشركات الناشئة في هذا المجال للذكاء الاصطناعي باعتباره قفزة نوعية في كيفية تقديم محتوى البالغين – حيث يضع التحكم في يد المستخدم globenewswire.com. كما يجادلون بأنه يحترم الخصوصية: المستخدمون ليسوا مضطرين للتفاعل مع شخص آخر أو كشف خيالاتهم لأي أحد سوى الذكاء الاصطناعي.
- بديل آمن للرغبات الضارة: أحد الحجج المؤيدة الأكثر إثارة للجدل هو أن الإباحية بالذكاء الاصطناعي قد تكون بديلاً غير ضار لسلوكيات قد تكون ضارة. على سبيل المثال، هناك من نظّر إلى أن البيدوفيليين الذين يستخدمون صوراً أو مقاطع إباحية للأطفال مولدة بالحاسوب أو الذكاء الاصطناعي قد يشبعون رغباتهم دون إيذاء أطفال حقيقيين (هذه الحجة محل خلاف كبير ويرفضها معظم الخبراء، لكنها تُطرح أحياناً). ويقترح آخرون أن من لديهم تخيلات جنسية عنيفة يمكنهم استخدام محاكاة الذكاء الاصطناعي بدلاً من البحث عن ضحايا حقيقيين. في جوهرها، هذه هي وجهة نظر “من الأفضل أن يفرغوا رغباتهم على الشاشات بدلاً من الناس”. ومع ذلك، تبقى هذه الفكرة نظرية ومليئة بالإشكالات الأخلاقية – فلا يوجد دليل واضح على أن الذكاء الاصطناعي يقلل من الجرائم الفعلية؛ بل قد يشجع عليها (كما يرد النقاد). ومع ذلك، يقول بعض المدافعين عن حرية التعبير إن حتى أكثر التخيلات فظاعة في شكل الذكاء الاصطناعي هي تجارب فكرية لا ينبغي تجريمها طالما لم يتضرر شخص حقيقي بشكل مباشر. هذه الرؤية ليست سائدة، لكنها موجودة في النقاشات حول المحتوى المتطرف reddit.com.
- دعم المجتمعات والهويات المتخصصة: يمكن للذكاء الاصطناعي إنتاج محتوى لمجتمعات لم يكن لها تمثيل كبير في الإباحية التقليدية – مثل بعض تخيلات مجتمع الميم، أو سيناريوهات BDSM بمعايير موافقة محددة، أو فنون إيروتيكية بعناصر خيالية. بعض أعضاء ثقافة الفوري أو الهنتاي، على سبيل المثال، يستخدمون فن الذكاء الاصطناعي لصنع محتوى يستحيل إنتاجه بممثلين حقيقيين. ويُنظر إلى هذا على أنه توسيع نطاق الفن الإيروتيكي. بالإضافة إلى ذلك، يمكن للذكاء الاصطناعي أن يتيح للأشخاص ذوي الإعاقات أو القيود الأخرى اختبار الحميمية الافتراضية بطرق لم تكن ممكنة لهم من قبل. من يواجهون صعوبات في التفاعل الاجتماعي قد يجدون الرفقة في شريك ذكاء اصطناعي لا يحكم عليهم. ويقول مؤيدون مثل مؤسس شركة “AI OnlyFans” الناشئة إن هؤلاء الرفقاء بالذكاء الاصطناعي قد يكونون “إضافة صافية إيجابية” للمجتمع، خاصة لمن يفتقرون لأشكال أخرى من الرفقة sifted.eu. ومن وجهة نظره، إذا كان شخص ما وحيداً أو يستهلك أشكالاً استغلالية من الإباحية، فإن شريك الذكاء الاصطناعي هو بديل مضبوط وربما أكثر صحة sifted.eu.
- موافقة النماذج المُنشأة مقابل النماذج الحقيقية: حجة أخرى مؤيدة للذكاء الاصطناعي في المحتوى الجنسي هي أن استخدام ممثلين تم إنشاؤهم بالذكاء الاصطناعي (والذين لا وجود لهم فعليًا) في الأفلام الإباحية قد يقضي على العديد من مشاكل صناعة البالغين. لا يوجد خطر استغلال ممثل حقيقي إذا كانت الممثلة الإباحية من إنتاج الذكاء الاصطناعي. لا يتعرض جسد أي شخص فعليًا لخطر الأمراض المنقولة جنسيًا أو الإساءة في موقع تصوير بالذكاء الاصطناعي. نظريًا، قد يحل ذلك في النهاية محل بعض الإنتاج الإباحي الحقيقي، وبالتالي يقلل الضرر عن المؤدين البشر في المواقف الخطرة. (بالطبع، وجهة النظر المقابلة هي أن هؤلاء المؤدين غالبًا ما يختارون التواجد هناك وقد يفقدون دخلهم إذا تم استبدالهم، لذا فالأمر معقد.) لكن المستقبليين يتخيلون عالمًا يمكن فيه للإباحية الواقعية تمامًا بالذكاء الاصطناعي أن تلبي الطلب دون أن يضطر أي شخص حقيقي للانخراط في عمل قد يكون مهينًا – أي سلسلة توريد إباحية أكثر أخلاقية. بعض صناع المحتوى البالغين يبتكرون طواعية حتى “توأمًا رقميًا” لأنفسهم (من خلال ترخيص صورهم/أصواتهم) حتى يتمكن الذكاء الاصطناعي من أداء بعض العمل نيابة عنهم – بموافقة وتقاسم الأرباح sifted.eu. هذا النموذج، إذا توسع، قد يسمح للمبدعين البشر بكسب المال مع تفويض بعض إنتاج المحتوى للذكاء الاصطناعي تحت سيطرتهم، وربما يكون ذلك مكسبًا للطرفين.
- حرية التعبير والقيمة الفنية: من منظور الحريات المدنية، يدافع البعض حتى عن الذكاء الاصطناعي في المحتوى الجنسي باعتباره شكلًا من أشكال التعبير. لطالما اعتُبر الفن الإيروتيكي والإباحية خطابًا محميًا (باستثناء الفحش) في العديد من البلدان. الذكاء الاصطناعي يوسع فقط وسيلة التعبير. إذا كان بإمكان الفنان رسم عارٍ أو تصوير مشهد إباحي بالتراضي، فلماذا لا يمكنه أن يطلب من الذكاء الاصطناعي إنشاء عمل فني عارٍ؟ يجادلون بأن الحظر التام للمحتوى الجنسي بالذكاء الاصطناعي سيكون تجاوزًا قد يؤدي إلى رقابة على الفن الإيجابي للجنس أو المساعي الإبداعية المشروعة. طالما أن جميع الأطراف موافقة (وهو أمر معقد عندما يتعلق الأمر بالذكاء الاصطناعي، لكن لنفترض أن العملية بالتراضي)، فإنهم يرون أن البالغين يجب أن يكون لديهم الحرية في إنشاء واستهلاك المحتوى الجنسي الذي يختارونه، سواء بمساعدة الذكاء الاصطناعي أو بدونه. مجموعات مثل مؤسسة الحدود الإلكترونية حذرت من الحظر الواسع لتقنية التزييف العميق، مشيرة إلى أن للتقنية استخدامات مفيدة وأن استهداف المسيئين تحديدًا أفضل من حظر التقنية نفسها klobuchar.senate.gov. هذا التوجه الليبرتاري في النقاش يقول: عاقب الضرر الفعلي (مثل الاستخدام غير التوافقي)، لكن لا تجرّم الأداة أو الخيال التوافقي.
حجج المنتقدين (ضد الذكاء الاصطناعي في المحتوى الجنسي):
- انتهاكات الموافقة وإساءة استخدام الصور: يؤكد النقاد أن الذكاء الاصطناعي المخصص للمحتوى غير اللائق (NSFW AI) قد مكّن بالفعل من إساءة هائلة لموافقة الأفراد وصورتهم الشخصية. وباء التزييف العميق غير التوافقي يتحدث عن نفسه – حيوات دُمّرت، وخصوصية تحطمت. ويقولون إن هذه ليست ظاهرة هامشية بل هي الاستخدام السائد لتقنية التزييف العميق حتى الآن: 96% من التزييفات العميقة كانت إباحية وجميعها تقريبًا دون موافقة theguardian.com. ويقولون إن هذه التقنية بطبيعتها تتيح مثل هذا النوع من الإساءة، مما يجعلها سلاحًا خطيرًا. حتى عندما لا يكون الأشخاص مستهدفين بشكل مباشر، فإن غياب أي قدرة على الموافقة على تضمينهم في بيانات التدريب أو في خيال شخص ما أمر مقلق. يمكن أن يتم تقويض الاستقلالية الجنسية لشخص ما بالكامل من خلال قيام الآخرين بإنشاء صور صريحة له من العدم. ويقول النقاد إن هذا أمر غير أخلاقي من الأساس ويجب إدانته مثل التلصص أو غيره من الجرائم الجنسية. وجود “مئات من تطبيقات الذكاء الاصطناعي التي تخلع الملابس” متاحة بسهولة klobuchar.senate.gov يعني أن أي صورة لامرأة يمكن تحويلها إلى صورة إباحية في ثوانٍ، وهو وضع يصفه الكثيرون بأنه لا يُحتمل ومرعب.
- الضرر العاطفي والنفسي: أن تكون ضحية لصورة إباحية مزيفة بالذكاء الاصطناعي يمكن أن يسبب ضيقًا نفسيًا حادًا – إذلال، قلق، اضطراب ما بعد الصدمة، وحتى أفكار انتحارية. مثال مأساوي: توفي فتى يبلغ من العمر 17 عامًا في الولايات المتحدة منتحرًا في عام 2022 بعد أن استخدم أحد المبتزين صورًا عارية مزيفة لابتزازه klobuchar.senate.gov. العبء النفسي على النساء اللواتي يكتشفن تزييفات عميقة لهن هائل؛ ويُوصف بأنه شكل افتراضي من الاعتداء الجنسي. لذلك، يرى النقاد أن الذكاء الاصطناعي المخصص للمحتوى غير اللائق هو أداة تسهل التحرش والإساءة على نطاق واسع محتمل – “حالة طوارئ” للأشخاص الأكثر عرضة للخطر (خاصة النساء، القُصّر، الأفراد من مجتمع الميم الذين قد يُستهدفون بتزييفات جنسية مدفوعة بالكراهية، إلخ) theguardian.com. ويؤكدون أنه لا توجد أي فوائد مزعومة لهذه التقنية تفوق هذه الأضرار الحقيقية التي تحدث الآن.
- تطبيع المحتوى الاستغلالي: يخشى المنتقدون من أن تدفق المواد الإباحية التي ينتجها الذكاء الاصطناعي، خاصة السيناريوهات المتطرفة أو غير التوافقية، قد يؤدي إلى تطبيع مثل هذه الصور ويقوض العقوبات الاجتماعية المتعلقة بأمور مثل الخصوصية والموافقة. إذا أصبحت الصور العارية المزيفة للمشاهير أو الزملاء “مادة شائعة على الإنترنت”، فقد يصبح الناس أقل حساسية تجاه انتهاك خصوصية الآخرين. كما يمكن أن يغذي ذلك العقليات المعادية للنساء (النظر إلى النساء كأشياء جنسية متاحة يمكن استخدام صورهن حسب الرغبة). من الناحية الأخلاقية، يشبه ذلك الانتقام الإباحي أو التصوير السري – السماح بانتشاره يبعث برسالة مفادها أن أجساد النساء ليست ملكًا لهن. بالإضافة إلى ذلك، يخشى النقاد من أن الذكاء الاصطناعي قد يصعّد الأذواق المنحرفة – على سبيل المثال، قد يصبح الشخص الذي يستهلك مواد إباحية لمحاكاة الاغتصاب عبر الذكاء الاصطناعي أكثر ميلاً لارتكاب العنف، أو قد ينتقل شخص مصاب بالبيدوفيليا من استهلاك صور أطفال مولدة بالذكاء الاصطناعي إلى إيذاء أطفال حقيقيين. وبينما لا يزال الدليل محل نقاش، يحث العديد من علماء النفس على الحذر، نظرًا لتأثير الإعلام في تعزيز السلوك.
- التأثير على العلاقات والمجتمع: يعبر بعض علماء الاجتماع والنسويات عن قلقهم من أن الرفقاء الجنسيين بالذكاء الاصطناعي والإباحية فائقة التخصيص قد تقوض العلاقات الإنسانية الحقيقية. إذا لجأ الكثيرون إلى “صديقات” الذكاء الاصطناعي المطيعات تمامًا، فماذا سيحدث لقدرتهم على تكوين علاقات مع شركاء حقيقيين لديهم احتياجات وحدود مستقلة؟ هناك قلق من زيادة العزلة الاجتماعية وتوقعات مشوهة حول الجنس والرومانسية. حتى مؤسس أحد تطبيقات الرفقاء بالذكاء الاصطناعي وصف الأمر بأنه “مستقبلي بائس جدًا” وقد يخلق “مستقبلًا غريبًا للحميمية” حيث ينفصل الناس عن بعضهم البعض sifted.eu. أما القوالب النمطية المعززة – غالبًا ما تكون “صديقات” الذكاء الاصطناعي شخصيات أنثوية خاضعة – فقد ترسخ المواقف الذكورية لدى المستخدمين. لذلك، يجادل النقاد بأن الذكاء الاصطناعي الإباحي قد يفاقم مشكلات مثل الوحدة، كراهية النساء، وتسليع الحميمية.
- التهديد للفنانين، المؤدين، والعمال: يرى العاملون في المجالات الإبداعية وصناعة البالغين أن الذكاء الاصطناعي الإباحي يشكل تهديدًا لمصادر رزقهم وحقوقهم. الفنانون البصريون (مثل رسامي الإيحاءات الجنسية أو العارضين) يجدون أن الذكاء الاصطناعي يقوم بجمع أعمالهم دون إذن، ثم يولد صورًا جديدة بأسلوبهم أو لشخصهم. هذا يُشعرهم وكأنه سرقة للملكية الفكرية ويقوض سوق الأعمال الفنية المخصصة. المصورون قلقون من أن مولدات الصور بالذكاء الاصطناعي ستحل محل توظيف العارضين لجلسات التصوير. ممثلو الأفلام الإباحية والعاملون بالجنس يخشون من أن “نسخهم” بالذكاء الاصطناعي أو النماذج الخيالية بالكامل ستسحب المستهلكين – أو تغرق السوق بمحتوى يقلل من قيمة عملهم. أبلغ العديد من منشئي OnlyFans عن انخفاض في الدخل وشكاوى من المعجبين، ربما بسبب المنافسة من محتوى الذكاء الاصطناعي الأرخص والمتوفر دائمًا reddit.com. ويقولون إن هذه منافسة غير عادلة لأن الذكاء الاصطناعي استولى فعليًا على صورهم وجاذبيتهم دون جهد أو لمسة بشرية، وأن ذلك سيؤدي إلى خفض الأسعار لمستويات غير مستدامة للعمال الحقيقيين. كما يخشى العاملون بالجنس أن يُضغط عليهم لاستخدام الذكاء الاصطناعي لإنتاج المزيد من المحتوى أو التواجد على مدار الساعة، مما يزيد من تسليع عملهم reddit.com. وتخشى النقابات وجماعات المناصرة من عالم قد تفضل فيه الشركات نجمًا إباحيًا بالذكاء الاصطناعي (دون حقوق أو مطالب أو أجر) على الإنسان – وهو سيناريو قد يقضي على الوظائف ويستغل أشكال المؤدين الذين دربوا هذه النماذج في الأصل. باختصار، يرى المنتقدون أن الذكاء الاصطناعي الإباحي يقوض الإبداع والعمل البشري باستخدام بيانات البشر لإنتاج إمداد لا نهائي من المحتوى المجاني (أو الرخيص).
- المنحدر الأخلاقي والقانوني: من منظور السياسات، يجادل المنتقدون بأن عدم وضع حدود صارمة للذكاء الاصطناعي الإباحي الآن قد يؤدي إلى مستقبل خارج عن السيطرة. إذا قبلنا الإباحية بالذكاء الاصطناعي كـ”مجرد خيال”، ماذا يحدث عندما تتقاطع مع قضايا الحياة الواقعية مثل الموافقة؟ على سبيل المثال، إذا أنشأ شخص ما فيديو إباحيًا بالذكاء الاصطناعي عن شريكه السابق وادعى أنه مجرد خيال، هل يبرر ذلك الفعل؟ معظم الناس سيقولون لا – الشريك السابق تضرر بوضوح. لذا يميل المنتقدون إلى مبدأ الحيطة: رسم الحدود مبكرًا. وقد دعا بعضهم حتى إلى معاملة أدوات إنشاء التزييف العميق كما نتعامل مع أدوات فتح الأقفال أو أدوات الاختراق – ليست غير قانونية بحد ذاتها، ولكن يتم التحكم فيها بشدة، وحظر الأدوات المصممة بوضوح للإساءة (مثل تطبيقات “التعري” التي تهدف فقط لتجريد الصور دون موافقة). ويجادل الأخلاقيون المؤيدون للتنظيم الصارم بأن إمكانية الإساءة تفوق بكثير حالات الاستخدام الإيجابية النادرة. وغالبًا ما يستشهدون بأصوات الضحايا: كما قالت إحدى الأخلاقيات في مجال التكنولوجيا، “فتاة مراهقة ترى نفسها في محتوى إباحي مولد بالذكاء الاصطناعي – تلك التجربة الواحدة، تلك الحياة المدمرة الواحدة، تبرر فرض ضوابط صارمة على هذه التقنية.” حرية التعبير مهمة، كما يقولون، لكنها لا يمكن أن تأتي على حساب وكالة وسلامة الآخرين.
في بعض الأحيان يقع الانقسام بين الداعمين والمنتقدين على خطوط التفاؤل التكنولوجي مقابل الشك الاجتماعي. يرى المتحمسون للتكنولوجيا الذكاء الاصطناعي المخصص للبالغين كحدود مثيرة (مع بعض القضايا التي يجب إدارتها)، بينما يرى المدافعون الاجتماعيون أنه شكل جديد من الإساءة الرقمية يجب الحد منها. كلا المنظورين صحيحان – والتحدي في المستقبل سيكون تعظيم الفوائد (حرية الإبداع، الاستمتاع الخاص، الابتكار الصناعي) مع تقليل الأضرار (الاستغلال غير التوافقي، المعلومات المضللة، إزاحة العمال). أي حل سيتطلب مشاركة من التقنيين، والمشرعين، وعلماء الأخلاق، وصناعة البالغين، والناجين من إساءة استخدام الصور. حتى عام 2025، بدأت هذه المحادثة بالفعل.
(لتلخيص ذلك، إليك مقارنة سريعة بين الجانبين:)
- يقول الداعمون إن الذكاء الاصطناعي المخصص للبالغين يمكّن الإبداع للبالغين، ويوفر تحقيقًا آمنًا للخيال، ويمكن أن يساعد حتى المبدعين الراغبين في تحقيق الدخل أو الأفراد الوحيدين في إيجاد الرفقة – وهو في الأساس تطور تكنولوجي للمواد الإباحية الذي، إذا استُخدم بشكل أخلاقي، لا يضر أحدًا ويعزز الحرية الشخصية globenewswire.com sifted.eu.
- يقول النقاد إن ذلك يغذي موجة من الاعتداءات الجنسية المعتمدة على الصور، ويقوض الموافقة والخصوصية، وقد يشوه نظرة المستخدمين للجنس والعلاقات، ويستغل صور وأعمال أشخاص حقيقيين لتحقيق الربح دون موافقتهم theguardian.com reddit.com. من وجهة نظرهم، فإن تكاليف الذكاء الاصطناعي NSFW على المجتمع (خاصة على النساء والفئات الضعيفة) تفوق بكثير الفوائد الخاصة التي يحصل عليها بعض المستخدمين، مما يستدعي فرض قيود ورقابة صارمة.
مقاومة ذلك: الإشراف على محتوى الذكاء الاصطناعي وضمانات المواد غير الملائمة للعمل (NSFW)
نظراً لمخاطر الذكاء الاصطناعي NSFW، هناك سباق موازٍ لتطوير ضمانات تكنولوجية وسياساتية لإدارته. تدور هذه المواجهة على عدة جبهات: بناء أدوات أفضل لاكتشاف المحتوى الذي أنشأه الذكاء الاصطناعي، وتطبيق مرشحات إشراف على المحتوى، وتعزيز المعايير أو العلامات المائية لتمييز الحقيقي من المزيف. إليك كيف يحاول الذكاء الاصطناعي والمنصات كبح الجانب المظلم من الذكاء الاصطناعي NSFW:
- مرشحات NSFW التلقائية: العديد من مولدات الصور بالذكاء الاصطناعي تتضمن مصنفات للمواد الإباحية تحاول حظر أو تصفية المخرجات الصريحة. على سبيل المثال، يأتي الإصدار الرسمي من Stable Diffusion مع “مدقق الأمان” الذي يحدد ويشوش الصور العارية أو الجنسية arxiv.org. أما DALL·E من OpenAI فيرفض ببساطة أي طلب حتى لو لمح إلى محتوى جنسي. لدى Midjourney قائمة موسعة من الكلمات المحظورة ويستخدم الذكاء الاصطناعي لتفسير سياق الطلب – فهو لا ينتج صوراً إذا اشتبه أن الطلب إباحي أو استغلالي arxiv.org. هذه المرشحات غير مثالية (يجد المستخدمون باستمرار طرقاً للتحايل عليها، مثل استخدام كلمات ملطفة أو أخطاء إملائية للمصطلحات المحظورة arxiv.org). ومع ذلك، فإنها تمنع التوليد العرضي أو غير المقصود لصور NSFW من قبل المستخدم العادي. وتعمل كـخط دفاع أول، خاصة على المنصات الرئيسية التي لا ترغب في استضافة محتوى صريح. بعض النسخ مفتوحة المصدر تزيل هذه المرشحات، لكن حينها تنتقل المسؤولية إلى المستخدم (وأي منصة يُنشر عليها المحتوى). أدوات كشف التزييف العميق: على صعيد البحث، يُبذل جهد كبير في تطوير خوارزميات كشف التزييف العميق. شركات مثل مايكروسوفت وشركات ناشئة مثل Sensity طورت ذكاءً اصطناعيًا يحلل الفيديوهات/الصور بحثًا عن علامات التلاعب (مثل الإضاءة غير المتسقة، أو شوائب الوجه، أو العلامات المائية الرقمية). في أحد التقييمات، كان نموذج Hive Moderation (وهو مجموعة أدوات إشراف بالذكاء الاصطناعي تستخدمها بعض وسائل التواصل الاجتماعي) الأعلى دقة في كشف الشخصيات المولدة بالذكاء الاصطناعي مقابل الحقيقية emerginginvestigators.org. تُستخدم هذه الكواشف من قبل المنصات لفحص التحميلات (على سبيل المثال، قد يفحص فيسبوك صورة بحثًا عن العري وأيضًا لمعرفة ما إذا كانت تزييفًا معروفًا لشخص ما). تطوير الكواشف هو لعبة قط وفأر: مع تحسن النماذج التوليدية، يجب أن تتحسن الكواشف أيضًا. الاتحاد الأوروبي يدفع الشركات لتطبيق مثل هذه الأنظمة – قواعد الشفافية في قانون الذكاء الاصطناعي وتوجيه مكافحة العنف ضد المرأة تفرض فعليًا أن تكون المنصات قادرة على تحديد وإزالة المواد الإباحية المنتجة بالذكاء الاصطناعي euronews.com euronews.com. بعض طرق الكشف تعتمد على البيانات الوصفية أو أنماط معروفة من مولدات معينة (على سبيل المثال، بعض أدوات الذكاء الاصطناعي تترك علامات مائية غير مرئية في أنماط البكسل). كما تدرس الصناعة نهجًا أكثر استباقية: وضع علامات مائية على محتوى الذكاء الاصطناعي وقت الإنشاء. جوجل، على سبيل المثال، تعمل على طرق لوضع علامات على الصور المولدة بالذكاء الاصطناعي بحيث يمكن التعرف على أي نسخة منها كصورة مصنوعة بالذكاء الاصطناعي حتى بعد التعديل. واقترحت OpenAI علامات مائية تشفيرية للنصوص الناتجة عن نماذج اللغة. إذا تم اعتماد ذلك على نطاق واسع، فقد يساعد الفلاتر الآلية في الإبلاغ عن المواد الإباحية المنتجة بالذكاء الاصطناعي قبل انتشارها. ومع ذلك، من غير المرجح أن تضع النماذج مفتوحة المصدر علامات مائية طوعًا على المخرجات، ويمكن للخصوم محاولة إزالة العلامات المائية.
- تجزئة المحتوى وقواعد البيانات: لمواجهة الانتقام الإباحي والتزييف العميق، أنشأت شركات التكنولوجيا والمنظمات غير الحكومية قواعد بيانات للصور المسيئة المعروفة (باستخدام تجزئة تشفيرية مثل PhotoDNA لصور إساءة معاملة الأطفال الحقيقية، على سبيل المثال). ويتم النظر في نهج مماثل للتزييف العميق: إذا تقدم ضحية بصورة مزيفة، يمكن إضافة تجزئتها إلى قاعدة بيانات للإزالة بحيث يمكن التعرف عليها وإزالتها فورًا إذا تم تحميلها في مكان آخر. قد يتضمن النظام القادم في المملكة المتحدة بموجب قانون السلامة على الإنترنت مثل هذا الكشف الاستباقي – حيث يُطلب من المنصات “منع [المحتوى المحظور] من الظهور في المقام الأول” euronews.com. عمليًا، يعني ذلك فحص الصور أو الفيديوهات غير القانونية المعروفة عند التحميل. التحدي مع التزييفات بالذكاء الاصطناعي هو أن الجناة يمكنهم توليد نسخ متنوعة بلا حدود، لذا فإن تجزئة واحدة لن تلتقط التالية. وهنا تأتي الحاجة إلى كشف التشابه القائم على الذكاء الاصطناعي، والذي يمكنه الإبلاغ عن محتوى يشبه إلى حد كبير التزييفات المعروفة أو يطابق شخصًا سجل رغبته بعدم وجود أي صور فاضحة له على الإنترنت. الرقابة على مواقع الإباحية: من المثير للاهتمام أن المواقع الإباحية الرئيسية مثل Pornhub اضطرت إلى ترقية أنظمة الرقابة لديها بسبب التزييف العميق. فقد حظرت Pornhub منذ عام 2018 تحميل أي محتوى تم إنشاؤه بالذكاء الاصطناعي يصور أشخاصاً حقيقيين دون موافقتهم. ويعتمدون على تقارير المستخدمين ومراجعة المشرفين لاكتشاف هذه الحالات، ولكن مع ملايين التحميلات، يكون الأمر صعباً. قانون الخدمات الرقمية في الاتحاد الأوروبي يجلب مساءلة أكثر صرامة: في عام 2024، تم تصنيف Pornhub (ومواقع مماثلة مثل Xvideos وXnxx) كمنصات كبيرة يجب أن تتخذ إجراءات استباقية للتقليل من المحتوى غير القانوني والضار أو مواجهة الغرامات subscriber.politicopro.com. من المرجح أن هذا يعني الاستثمار في أنظمة تصفية آلية. قد تبدأ مواقع الإباحية باستخدام كاشفات التزييف العميق على كل فيديو جديد. لديهم أيضاً الآن تحقق من هوية من يرفعون المحتوى؛ ورغم أنه ليس مضموناً بالكامل (يمكن للمزورين التحقق من هويتهم ورفع فيديو مزيف لشخص آخر)، إلا أنه يضيف إمكانية التتبع.سياسات وسائل التواصل الاجتماعي: قامت شبكات التواصل مثل تويتر (X) وReddit بتحديث سياساتها لحظر مشاركة “الصور الحميمة المنتجة أو المعدلة بالذكاء الاصطناعي” دون موافقة الشخص المعني بشكل صريح. حظرت Reddit التزييف العميق منذ عام 2018 بعد الموجة الأولى. معايير مجتمع فيسبوك تحظر الوسائط الاصطناعية التي من المرجح أن تخدع بطرق ضارة (وهذا يشمل الإباحية المزيفة لشخص ما). ومع ذلك، لا يزال التنفيذ متقطعاً – كما ذُكر، انتشر محتوى التزييف العميق على X في عام 2024 cbsnews.com، واضطرت Meta إلى إزالة إعلانات العري بالذكاء الاصطناعي بعد تعرضها للانتقاد cbsnews.com. ومع ذلك، القوانين الجديدة (قانون Take It Down، وقوانين الاتحاد الأوروبي) تضع عليهم الآن التزامات قانونية. يمكننا أن نتوقع أوقات استجابة أسرع – على سبيل المثال، بموجب القانون الأمريكي، لدى المنصات 48 ساعة لإزالة المحتوى غير التوافقي الذي تم الإبلاغ عنه أو مواجهة العقوبات klobuchar.senate.gov klobuchar.senate.gov. من المرجح أن تميل الشركات إلى إزالة المحتوى عند الشك. قد تدمج أيضاً آليات إبلاغ مثل “هذا تزييف عميق لي” حتى يتمكن المستخدمون من الإبلاغ بسرعة عن الإساءة.
- التحقق من العمر وضوابط الوصول: جانب آخر من جوانب الإشراف هو منع القُصَّر من الوصول إلى الإباحية بالذكاء الاصطناعي. مواقع الإباحية التقليدية لديها فحوصات عمر (يتم تطبيقها بشكل غير كامل)، وبعض الولايات القضائية (مثل فرنسا، يوتا، تكساس) أصدرت قوانين تتطلب تحققًا صارمًا من العمر لمواقع البالغين versustexas.com. أدوات الذكاء الاصطناعي تعقّد الأمر – إذ يمكن استخدام النماذج التوليدية بشكل خاص دون أي حواجز. لكن بعض منصات الذكاء الاصطناعي بدأت تطلب التحقق من الهوية للوصول إلى أوضاع NSFW، لضمان أن المستخدمين بالغون. على سبيل المثال، أكدت منصة Infatuated.ai على بروتوكولات تحقق من العمر قوية وحجب أي طلبات تتعلق بالقُصَّر globenewswire.com. تطبيق Replika (تطبيق دردشة ذكاء اصطناعي) شهد حادثة شهيرة حيث سمح باللعب الأدوار الإيروتيكي وانتهى الأمر باستخدام العديد من القُصَّر له؛ وبعد رد الفعل، قيدوا المحتوى الإيروتيكي للمستخدمين بعمر 18+ من خلال التحقق من العمر عبر الدفع أو الهوية. لذا، على الأقل في الخدمات التجارية، هناك جهد لـفصل محتوى الذكاء الاصطناعي المخصص للبالغين عن الأطفال. هذا مهم لأن الأطفال أنفسهم استخدموا أدوات التزييف العميق للتنمر على أقرانهم (كما رأينا في المدارس) cbsnews.com. تثقيف الشباب حول العواقب الأخلاقية والقانونية جزء من الإشراف أيضًا – بعض المدارس بدأت تضمين التوعية بالتزييف العميق في مناهج المواطنة الرقمية nea.org.
- التعاون وأفضل الممارسات: أدى التصدي لسوء استخدام الذكاء الاصطناعي إلى تعاون بين شركات التكنولوجيا، وجهات إنفاذ القانون، والمنظمات غير الحكومية. مبادرات مثل مجموعة نزاهة الإعلام التابعة لشراكة الذكاء الاصطناعي أو تحالف إثبات وأصالة المحتوى (C2PA) تهدف إلى وضع معايير للمصادقة على المحتوى. قد تدرج الشركات بيانات وصفية حول كيفية إنشاء صورة/فيديو (كاميرا مقابل برنامج ذكاء اصطناعي). في الوقت نفسه، يتم تدريب جهات إنفاذ القانون على التزييف العميق حتى تأخذ تقارير الضحايا على محمل الجد وتعرف كيفية جمع الأدلة. في عام 2023، حذرت يوروبول من الإباحية بالتزييف العميق كتهديد ناشئ وحثت الدول الأعضاء على تخصيص موارد لمكافحته theguardian.com.
- القيود على نماذج الذكاء الاصطناعي: أحد خطوط الدفاع الأكثر مباشرة هو الحد من توزيع النماذج القادرة على إنشاء محتوى ضار. بعض مستودعات نماذج الذكاء الاصطناعي لديها شروط: على سبيل المثال، اختارت شركة Stability AI عدم تضمين أي صور إباحية بشكل واضح في مجموعة تدريب Stable Diffusion 2.0، جزئياً لتجنب أن يكون النموذج جيداً جداً في إنتاج المواد الإباحية (وقد اشتكى المستخدمون من أن النموذج الجديد أصبح “متزمتاً” نتيجة لذلك). أحياناً يرفض موقع Hugging Face (مركز نماذج الذكاء الاصطناعي) استضافة النماذج المصممة بوضوح للإباحية أو يضيف تحذيراً كبيراً يتطلب من المستخدمين الموافقة على عدم إساءة استخدامها. كما كان هناك حالة بارزة: في أواخر عام 2022، حظرت منصة التمويل الجماعي Kickstarter حملة “Unstable Diffusion”، والتي كانت محاولة لجمع الأموال لبناء نموذج ذكاء اصطناعي مُحسَّن للإباحية. استشهدت Kickstarter بسياسة ضد مشاريع الذكاء الاصطناعي الإباحية وأغلقتها arnoldit.com. وقد أبرز هذا الحادث أن حتى التمويل والدعم للذكاء الاصطناعي غير المناسب قد يواجه عقبات. كما أن متاجر التطبيقات مثل متجر Apple معادية أيضاً لتطبيقات الذكاء الاصطناعي غير المفلترة – حيث أزالت Apple بعض تطبيقات توليد الصور بالذكاء الاصطناعي التي يمكن أن تنتج محتوى غير مناسب، مما دفع المطورين لإضافة فلاتر. وهكذا، قد يكون الوصول إلى أكثر نماذج الذكاء الاصطناعي تقدماً مقيداً بسياسة الشركات إلى حد ما. ومع ذلك، لا يمكن احتواء النماذج مفتوحة المصدر الحقيقية بسهولة – فبمجرد إصدارها، تنتشر عبر التورنت والمنتديات. لذا فهذا إجراء محدود.
لا شك أن الإشراف على المحتوى في عصر الإباحية بالذكاء الاصطناعي يمثل تحدياً كبيراً. فحجم المحتوى المحتمل أن يكون مخالفاً هائل ويتزايد باستمرار. لكن التكنولوجيا تواجه التكنولوجيا: يتم استخدام الذكاء الاصطناعي نفسه لمكافحة الذكاء الاصطناعي. على سبيل المثال، يُقال إن شركة Meta تستخدم مصنفات التعلم الآلي لاكتشاف الوجوه المعروفة في الصور العارية للقبض على التزييفات العميقة للمشاهير، ولاكتشاف عيوب الدمج النموذجية للتزييفات العميقة. وتقدم شركات ناشئة مثل Reality Defender خدمات للشركات لمسح وحذف محتوى التزييف العميق في الوقت الفعلي realitydefender.com. كما أن القوانين الجديدة تعطي الآن قوة قانونية، مما يعني أن المنصات التي لا تستثمر في هذه الإجراءات تواجه خطر الغرامات أو الدعاوى القضائية.
أحد المسارات الواعدة هو فكرة الوسائط الموثقة: إذا قام جميع منتجي الإباحية الشرعيين مثلاً بتوقيع مقاطع الفيديو الخاصة بهم رقمياً لإثبات أنها حقيقية، فيمكن اعتبار أي شيء بدون توقيع ويدعي أنه “شريط جنسي لفلان” مشبوهاً. من الصعب تنفيذ ذلك بشكل عالمي، لكن مفهوم الأصل/المصدر قيد الاستكشاف (ليس فقط للإباحية، بل لجميع الوسائط، للحد من المعلومات المضللة).
في النهاية، لن تكون آليات الإشراف محكمة أبدًا – سيظل الكثير يتسرب عبر الإنترنت الجامح. المنصات المشفرة أو اللامركزية ستحتضن أسوأ أنواع المحتوى. لكن على الأقل في الساحات الرئيسية والقانونية، هناك جهد منسق لـالتقليل من ضرر الذكاء الاصطناعي غير المناسب للعمل. الأمل هو خلق بيئة يمكن أن توجد فيها الاستخدامات المشروعة (محتوى البالغين بالتراضي، فنون الخيال، إلخ) ولكن يتم التعرف بسرعة على الاستخدامات الخبيثة وإزالتها. إنها مهمة صعبة – وصفها الضحايا بأنها مثل لعبة “اضرب الخلد” klobuchar.senate.gov – لكن مجموعة القوانين، وكواشف الذكاء الاصطناعي، وسياسات المنصات، وتثقيف المستخدمين تشكل معًا دفاعًا متعمقًا.العواقب والمستقبل: التأثير على المبدعين وصناعة البالغين
بينما يغير الذكاء الاصطناعي غير المناسب للعمل الوضع الراهن، فإنه يؤثر بالفعل على أشخاص حقيقيين في منظومة الترفيه للبالغين – من نجوم الأفلام الإباحية والعاملين بالجنس إلى الفنانين الإيروتيكيين واستوديوهات المحتوى. بعضهم يجد فرصة في التقنية الجديدة، بينما يخشى آخرون أن يصبحوا غير ذوي فائدة أو يُجرفوا فيها دون رغبتهم.
المؤدون البالغون والعاملون بالجنس: ربما يكون التأثير الأكثر مباشرة على أولئك الذين يكسبون رزقهم من إنشاء محتوى للبالغين. من ناحية، بعض المبدعين الأذكياء يتبنون الذكاء الاصطناعي لـتعزيز أعمالهم. على سبيل المثال، يمكن للعارضين البالغين استخدام مولدات الصور بالذكاء الاصطناعي لإنتاج صور محسنة أو ذات طابع فني لأنفسهم للبيع (مما يوفر عليهم الحاجة لجلسات تصوير مكلفة) – طالما أن الصور لا تزال تشبههم وتلتزم بقواعد المنصة reddit.com. وقد تصدر بعض المؤثرين الأخبار بإنشاء “نسخ ذكاء اصطناعي” من أنفسهم: على سبيل المثال، في عام 2023 أطلقت المؤثرة كارين مارغوري روبوت دردشة ذكاء اصطناعي يجسد شخصيتها ويمكن للمعجبين الدفع للدردشة معه بشكل حميمي. وبالمثل، فإن مفهوم شركة Oh الناشئة حول “التوائم الرقمية” يعني أن نجمة إباحية يمكنها ترخيص صورتها لإنشاء صورة رمزية بالذكاء الاصطناعي تدردش أو تؤدي للمعجبين، مما يخلق مصدر دخل جديد بجهد إضافي ضئيل sifted.eu. تشير هذه التحركات إلى أن بعض العاملين في الصناعة يرون الذكاء الاصطناعي كأداة لتوسيع نطاق أنفسهم – حيث يمكنهم نظريًا الترفيه عن عدد أكبر من المعجبين عبر الذكاء الاصطناعي مقارنة بما يمكنهم فعله شخصيًا واحدًا لواحد.
من ناحية أخرى، يقلق العديد من المؤدين. إذا كان بإمكان المعجبين الحصول على محتوى خيالي مُفصل خصيصًا لهم بواسطة الذكاء الاصطناعي، فهل سيتوقفون عن الدفع للأشخاص الحقيقيين؟ هناك تقارير عن ظهور حسابات OnlyFans تم إنشاؤها بواسطة الذكاء الاصطناعي تستخدم نساء خياليات بالكامل (لكن بمظهر واقعي)، وأحيانًا يتم وضع علامة #AI عليها بعد الشك، وتبيع محتوى أرخص أو ترسل رسائل مزعجة للمستخدمين على reddit.com. هذا النوع من المنافسة يمكن أن يضر بدخل المبدعين الحقيقيين. بعض العاملين في مجال الجنس يقولون إن من “المحبط” رؤية معيار جديد ناشئ حيث يعني النجاح إنتاج محتوى على مدار الساعة مثل الخوارزمية – وهو معيار مستحيل على الإنسان، لكنه سهل للذكاء الاصطناعي، مما يضغط على البشر إما لتبني الذكاء الاصطناعي أو التخلف عن الركب reddit.com. هناك أيضًا جانب عاطفي: كما كتبت إحدى المبدعات المخضرمات، فإن استخدام الذكاء الاصطناعي لـ”الغش” فعليًا من خلال توليد جسد مثالي أو إنتاج لا نهائي يشعر بأنه يقلل من قيمة الجهد الحقيقي والأصالة التي يضعها المبدعون البشر reddit.com. “هذه حركة حقيرة – وإساءة لمعجبيّ… وللعمل الشاق الذي بذلته في جسدي [ومحتواي]”، هكذا وصفت من يستخدم الذكاء الاصطناعي لتزييف المحتوى reddit.com.نحن نشهد بالفعل بعض ردود الفعل والتكيف: يتكاتف المبدعون معًا للإبلاغ عن الحسابات المزيفة التي أنشأها الذكاء الاصطناعي، وتقوم المنصات بتعديل سياساتها لطمأنة المبدعين الحقيقيين بأن الذكاء الاصطناعي لن ينتحل شخصياتهم. OnlyFans، كما ذُكر، تحظر استخدام صورة شخص آخر وتتطلب وضع علامة على المحتوى الذي أنشأه الذكاء الاصطناعي reddit.com. حتى أن هناك حديثًا عن سعي المبدعين لاتخاذ إجراءات قانونية ضد الحسابات المزيفة – على سبيل المثال، شائعة عن دعوى قضائية للقضاء على حسابات الروبوتات على OnlyFans reddit.com. بالإضافة إلى ذلك، يقلق المؤدون بشأن الموافقة وحقوق الصورة – على سبيل المثال، قد تجد ممثلة أفلام إباحية معتزلة أن مشاهدها السابقة تُستخدم لتدريب الذكاء الاصطناعي الذي ينتج الآن مقاطع فيديو جديدة صريحة لـ”شخصيتها” دون موافقتها أو أي مقابل مادي. هذا يشبه مخاوف ممثلي هوليوود بشأن استخدام الذكاء الاصطناعي لصورتهم – باستثناء أن ممثلي الأفلام الإباحية لديهم ما هو أكثر على المحك لأن صورتهم مرتبطة بشيء شديد الحساسية. قد يحتاج القطاع إلى تطوير شيء مشابه لموقف نقابة ممثلي الشاشة، حيث يمكن للممثلين التفاوض حول كيفية السماح للذكاء الاصطناعي بمحاكاتهم أو عدمه. في الواقع، نهج الدنمارك في منح الأفراد حقوق الطبع والنشر لصورتهم قد يمكّن المؤدين حول العالم من المطالبة بملكية وجوههم/أجسادهم في هذه السياقات euronews.com.
الاستوديوهات والمنتجون: قد تتعرض استوديوهات الأفلام الإباحية التقليدية أيضًا للاضطراب. إذا كان بإمكان فريق صغير مزود بأدوات الذكاء الاصطناعي إنتاج فيديو إباحي مقبول دون توظيف ممثلين، فإن الاستوديوهات الكبرى ستفقد ميزتها. ومع ذلك، فإن الفيديوهات المنتجة بالذكاء الاصطناعي حاليًا لم تصل بعد إلى جودة الاستوديوهات الاحترافية للمحتوى الطويل – فهي غالبًا مقاطع قصيرة أو تتطلب الدمج مع لقطات حقيقية. قد تبدأ بعض الاستوديوهات باستخدام الذكاء الاصطناعي في المؤثرات الخاصة أو مرحلة ما بعد الإنتاج (مثل إعادة الشباب للمؤدين، تحسين المرئيات، أو حتى إزالة الوشوم المميزة للحفاظ على الخصوصية). استخدام آخر محتمل: إنتاج رسوم متحركة إباحية واقعية كانت مكلفة يدويًا. لكن الاستوديوهات تواجه أيضًا تهديد سلوكيات شبيهة بالقرصنة: قد يستخدم بعض الأشخاص الذكاء الاصطناعي لصنع نسخ مقلدة من محتوى أو عارضين مميزين. على سبيل المثال، إذا كان لدى الاستوديو نجم شهير بعقد حصري، قد يقوم شخص ما بعمل deepfake لهذا النجم في مشاهد جديدة وتسريبها. هذا قد يؤثر على أرباح الاستوديو وسمعة النجم. قد ترد الاستوديوهات بتطبيق قوي للعلامات التجارية أو حقوق الشخصية لمواهبها المتعاقدة. قد نشهد تعاون استوديوهات الأفلام الإباحية مع شركات تقنية لإنتاج محتوى ذكاء اصطناعي مصرح به لنجومهم (مع تقاسم الأرباح) قبل أن يفعل القراصنة ذلك، كخطوة دفاعية.
الفنانون والكتّاب الإيروتيكيون: بعيدًا عن مؤدي الفيديو، هناك من يبدعون القصص المصورة أو الرسوم أو الأدب الإيروتيكي. الذكاء الاصطناعي قادر بالفعل على تقليد الأساليب الفنية – فقد شهد مجتمع فن الهنتاي تحديدًا تدفقًا كبيرًا من الرسوم الإباحية المنتجة بالذكاء الاصطناعي بحلول أواخر 2022، مما تسبب في انقسامات. بدأ بعض العملاء باستخدام الذكاء الاصطناعي بدلًا من دفع المال للفنانين البشريين، بحجة التكلفة والسهولة. وقد احتج الفنانون على منصات مثل DeviantArt (التي واجهت انتقادات لإدخال ميزات الذكاء الاصطناعي). هناك خوف من أن سوق الفن والقصص الإيروتيكية المخصصة قد ينهار عندما يصبح بإمكان أي شخص توليد قصة أو كوميك مخصص مجانًا. ومع ذلك، يشير المتحمسون إلى أن الذكاء الاصطناعي لا يزال يواجه صعوبة في السرد المعقد والفن المتقن حقًا – فالفنانون البشريون يقدمون مستوى من الإبداع والعاطفة قد يفتقر إليه الذكاء الاصطناعي. النتيجة المرجحة هي نهج هجين: الفنانون يستخدمون الذكاء الاصطناعي لمسودات أو تلوين الأعمال، ثم يضيفون لمساتهم الخاصة. لكن الفنانين الأقل شهرة قد يجدون صعوبة في منافسة نتائج الذكاء الاصطناعي السريعة التي يعتبرها كثير من المشاهدين “جيدة بما يكفي”. هذا يثير الحاجة ربما إلى قيمة جديدة “للأعمال اليدوية الأصلية” في الفن الإيروتيكي، مثلما يدفع بعض المعجبين مبلغًا إضافيًا لمجرد معرفة أن إنسانًا هو من أنجز العمل.
موقف صناعة البالغين: من المثير للاهتمام أن شركات الترفيه للبالغين الكبرى كانت هادئة نسبيًا علنًا بشأن الذكاء الاصطناعي. ربما لأنها تدرس استراتيجياتها داخليًا أو لأن لفت الانتباه قد يجلب المزيد من التدقيق. تاريخيًا، كانت صناعة البالغين سريعة في تبني التكنولوجيا (فقد تبنت الإنترنت، وكاميرات الويب، والواقع الافتراضي الإباحي، إلخ، في وقت مبكر). نشهد بالفعل مواقع إباحية تبيع محتوى “deepfake لمشاهير شبيهين” (وهو منطقة قانونية رمادية في بعض الأماكن) وتجرب التوصيات المدعومة بالذكاء الاصطناعي. في عالم الكاميرات المباشرة، جربت بعض المواقع روبوتات دردشة بالذكاء الاصطناعي لإبقاء العملاء متفاعلين عندما يكون العارضون غير متصلين. لكن لم يحدث بعد استبدال كامل للمؤدين البشريين بالذكاء الاصطناعي على المنصات الكبرى، ويرجع ذلك جزئيًا إلى عدم نضج التكنولوجيا وتفضيل المستخدمين للتفاعل الحقيقي.
ومع ذلك، قد يفرض الضغط الاقتصادي التكيف. إذا افترضنا جدلاً أنه خلال سنتين أو ثلاث سنوات يمكن للذكاء الاصطناعي أن ينتج فيديو إباحي كامل عالي الدقة لأي نجمين مشهورين عند الطلب، فقد يتراجع سوق الأفلام الإباحية الاحترافية التي تضم ممثلين غير معروفين – لماذا يدفع الناس أو يشتركون بينما تتوفر لهم خيالات لا نهائية مجاناً؟ قد يتجه القطاع للتركيز على الأصالة، التفاعل الحي، والمجتمع – وهي أمور لا يستطيع الذكاء الاصطناعي توفيرها. قد نرى تسويق الأفلام الإباحية بعلامات مثل “100% بشري، متعة حقيقية” كميزة تسويقية، بشكل ساخر. وعلى العكس، قد يتبنى القطاع الذكاء الاصطناعي لتقليل التكاليف – مثلاً، يتم تصوير ممثل واحد ثم يُستخدم الذكاء الاصطناعي لتغيير وجهه لإنتاج عدة فيديوهات “مختلفة” من جلسة تصوير واحدة (بموافقته، من الناحية المثالية). هذا السيناريو سيثير قضايا أخلاقية (هل يعرف المشاهدون أنه نفس الشخص تم تغيير ملامحه؟ هل يحصل المؤدي على أجر عن كل فيديو معدل أم مرة واحدة فقط؟).قد يكون هناك أثر إيجابي على السلامة: إذا استطاع الذكاء الاصطناعي محاكاة المشاهد الخطرة، قد تستخدمه الاستوديوهات لتجنب تعريض المؤدين للخطر. على سبيل المثال، بدلاً من جعل المؤدين ينفذون حركات خطيرة، يمكن تصوير شيء بسيط ويقوم الذكاء الاصطناعي بتوليد الجزء المكثف. أو كما ذُكر، يمكن للمؤدي أن يصور وهو مرتدٍ ملابسه ويقوم الذكاء الاصطناعي بتوليد نسخة عارية، مما قد يكون وسيلة للسماح لشخص بالظهور في أفلام إباحية دون أن يكون عارياً فعلياً في موقع التصوير (رغم أن هذه الفكرة تثير نقاشاً حول الأصالة والموافقة).
تجزئة السوق: من المرجح أن يتجزأ سوق المحتوى الجنسي إلى مستويات:
- محتوى بشري عالي الجودة يركز على التفاعل الحقيقي (فيديوهات مخصصة، OnlyFans مع تواصل مباشر مع المبدعين، عروض كاميرا مباشرة – أشياء يكون فيها الحضور البشري هو الأساس).
- محتوى مولد بالذكاء الاصطناعي قد يكون رخيصاً جداً أو مجانياً، يغمر مواقع الفيديو أو القنوات الخاصة. قد يُرضي هذا المستهلكين العاديين أو من لديهم خيالات محددة جداً (المشاهير، إلخ). إذا بقيت الإباحية المزيفة (deepfake) شبه غير قانونية، فقد تظل أكثر انتشاراً في المنتديات غير التجارية أو تحت الأرض.
- محتوى هجين حيث يستخدم المبدعون الذكاء الاصطناعي لكنهم يظلون مشاركين. على سبيل المثال، قد تبيع عارضة مجموعات صور معدلة بالذكاء الاصطناعي – أي صورتها لكن محسنة أو موضوعة في مشاهد خيالية بواسطة الذكاء الاصطناعي. طالما أن الأمر شفاف وبموافقة، قد يقدر المعجبون هذا التنوع.
التأثير النفسي والاجتماعي على المبدعين: لا يمكن تجاهل العبء العاطفي على المبدعين عند رؤية وجوههم تُستخدم ربما دون موافقتهم، أو حتى مجرد الضغط للتنافس مع الآلات. تعليقات Reddit من منشئي OnlyFans كشفت عن بعض القلق وحتى اليأس reddit.com reddit.com. هذا يعكس ما يحدث في قطاعات إبداعية أخرى (الفنانين، الممثلين) حول الذكاء الاصطناعي – لكن في العمل الجنسي، يمكن أن تجعل الوصمة ونقص الدعم المؤسسي من الصعب عليهم التعبير عن مخاوفهم أو طلب الحماية. قد نرى مجموعات الدفاع عن العاملين في الجنس توسع تركيزها لتشمل الحقوق الرقمية والذكاء الاصطناعي، وتكافح من أجل أشياء مثل الحق في إزالة بياناتهم من مجموعات التدريب أو حظر التزييف العميق للمؤدين دون موافقة. قد تتفاوض النقابات (مثل نقابة ممثلي الأداء الجنسي في الولايات المتحدة) على بنود الذكاء الاصطناعي في العقود. على سبيل المثال، قد تصر المؤدية على ألا يستخدم الاستوديو لقطاتها لتدريب الذكاء الاصطناعي الذي قد يستبدل صورتها لاحقًا، أو على الأقل أن يدفعوا لها إذا فعلوا ذلك.
فيما يتعلق بـسلوك المستهلك، تشير الأدلة القصصية المبكرة إلى أن العديد من مشاهدي الإباحية لا يزالون يفضلون معرفة أن شيئًا ما حقيقي – هناك جاذبية في المؤدين البشريين الفعليين. أحيانًا يشعر البعض أن الإباحية المنتجة بالذكاء الاصطناعي “بلا روح” أو أقل إرضاءً، حسب تقارير بعض المستخدمين، بعد أن يزول عامل الجِدّة. لذا قد يحتفظ المبدعون البشريون بجمهورهم من خلال التأكيد على أصالتهم وصلتهم الشخصية، وهو ما لا يستطيع الذكاء الاصطناعي تقليده حقًا. ومع ذلك، مع تحسن الذكاء الاصطناعي، قد يتقلص هذا الفارق، وقد لا يميز الجيل الأصغر الذي نشأ مع الذكاء الاصطناعي بين الاثنين.
فرصة للمواهب الجديدة؟ هناك جانب آخر مثير للاهتمام: يمكن للذكاء الاصطناعي خفض الحواجز أمام دخول مجال المحتوى الجنسي بطريقة مُتحكم بها. قد ينشئ شخص لا يرغب أبدًا في مشاركة جسده أو وجهه الحقيقي شخصية افتراضية بالذكاء الاصطناعي – صورة رمزية خيالية مثيرة – ويبيع محتوى لتلك الصورة الرمزية. في الأساس، أن تكون فتاة كام أو عارضة OnlyFans عبر وكيل ذكاء اصطناعي. بعض المستخدمين جربوا ذلك بنجاح متفاوت. هذا يفتح الباب أمام أشخاص لتحقيق دخل من الخيال دون كشف هويتهم أو أجسادهم. ومع ذلك، تتطلب المنصات حاليًا التحقق من الهوية لمنع الاحتيال والمشاكل المتعلقة بالقُصّر، لذا سيظل على الفرد التسجيل ومن المرجح الإشارة إلى أن المحتوى مولّد بالذكاء الاصطناعي لشخصية خيالية. إذا تم السماح بذلك، فقد يظهر نوع جديد من صانعي المحتوى: مبدعو محتوى جنسي مدعومون بالذكاء الاصطناعي وهم رجال أعمال حقيقيون لكن منتجهم شخصية افتراضية بالكامل. سيتنافسون مع العارضات الحقيقيات. هل سيدفع المستخدمون مقابل “عارضة مزيفة”؟ ربما، إذا كانت جذابة وتفاعلية بما فيه الكفاية، وخاصة إذا لم يدركوا في البداية أنها مزيفة. يمكن للمرء أن يتخيل أن بعض المستخدمين قد يفضلون بالفعل عارضة ذكاء اصطناعي “متاحة دائمًا ولا تمر بيوم سيئ أبدًا”. هذا أمر مقلق للمؤدين البشريين لأسباب واضحة.
التأثير التنظيمي والقانوني على الصناعة: مع القوانين الجديدة حول الديب فيك، أصبحت لدى المنصات الإباحية حوافز قانونية لحظر أي محتوى غير قائم على الموافقة. قد يؤدي ذلك بشكل ساخر إلى تقوية موقف الشركات الإباحية الراسخة والمنظمة (التي تتعامل فقط مع المؤدين الموافقين) مقابل مواقع الذكاء الاصطناعي الخارجة عن القانون. إذا كان التنفيذ قويًا، فقد يجد المستخدمون الذين يرغبون في محتوى ديب فيك إباحي صعوبة في الحصول عليه، مما قد يدفعهم إما إلى مصادر غير قانونية على الدارك ويب أو يثنيهم عن هذه العادة. في المقابل، قد تصبح الإبداعات القائمة على موافقة المؤدين (مثل عارضة توافق على نسخة ذكاء اصطناعي منها) فئة جديدة من المنتجات المرخصة. سيتطلب ذلك توضيحًا قانونيًا: على سبيل المثال، هل يمكن لعارضة أن تحصل على حقوق نشر أو علامة تجارية لوجهها حتى تتمكن من مقاضاة من يصنع نسخة ذكاء اصطناعي منها دون إذنها؟ بعض الدول مثل الدنمارك وربما قوانين الولايات الأمريكية القادمة تتجه نحو هذه الفكرة euronews.com. هذا سيساعد المؤدين على حماية علامتهم التجارية.
تلخيص التأثير: صناعة المحتوى الإباحي في بداية تحول جذري محتمل. من يتكيف – من خلال الاستفادة من الذكاء الاصطناعي بشكل أخلاقي وشفاف – قد يزدهر أو على الأقل ينجو. أما من يتجاهله فقد يواجه صعوبة أمام موجة المحتوى وعادات المستهلكين المتغيرة. كما قال أحد رواد الأعمال في مجال الذكاء الاصطناعي عن رفقاء الذكاء الاصطناعي: “أي ابتكار جديد قد يبدو تغييرًا جذريًا… إنه تطور” sifted.eu. السؤال هو ما إذا كان هذا التطور سيكمل أو يلتهم النظام البيئي الحالي للمبدعين.
الخلاصة: حدود إيروتيكية جديدة مليئة بالمآزق
لقد فتح صعود الذكاء الاصطناعي الإباحي بلا شك صندوق باندورا. في غضون سنوات قليلة فقط، شهدنا الذكاء الاصطناعي ينتقل من توليد صور قطط مضحكة إلى توليد صور عارية مزيفة يمكن أن تدمر حياة شخص ما. هذه التقنية قوية، ذات حدين، وجاءت لتبقى. من جهة، تتيح للأشخاص العاديين إنشاء أي صورة أو سيناريو إيروتيكي يمكنهم تخيله، مما يطمس الخطوط الفاصلة بين المستهلك والمبدع في الترفيه الجنسي. وتحمل وعدًا بالمتعة الشخصية، والاستكشاف الإبداعي، وربما نماذج أعمال جديدة في صناعة بمليارات الدولارات غالبًا ما كانت راكدة تقنيًا. من جهة أخرى، غذى الذكاء الاصطناعي الإباحي أشكالًا جديدة من الإساءة – يسميها البعض “الاغتصاب الرقمي” – من خلال تجريد الأفراد (معظمهم من النساء) من السيطرة على صورهم وأجسادهم في العالم الرقمي. إنه يتحدى أنظمتنا القانونية، التي تسارع لتحديث تعريفات الانتحال، والإباحية، والموافقة لعصر الذكاء الاصطناعي. ويجبر المجتمع على مواجهة أسئلة غير مريحة حول طبيعة الجنس، وحرية التعبير، والاتصال البشري عندما يتم تعزيزه أو محاكاته بواسطة الذكاء الاصطناعي.
اعتبارًا من أواخر عام 2025، يتجه البندول نحو المزيد من الضوابط والمساءلة. التشريعات الرئيسية في الولايات المتحدة والاتحاد الأوروبي، والحملات الصارمة في آسيا، وتغييرات سياسات المنصات كلها تشير إلى أن الإباحية غير التوافقية المنتجة بالذكاء الاصطناعي يُنظر إليها على نطاق واسع على أنها أمر مرفوض تمامًا. بالتوازي مع ذلك، يتم تطوير تقنيات للكشف عن الانتهاكات وردعها، حتى مع تحسن تقنيات التوليد نفسها. يمكننا أن نتوقع استمرار لعبة القط والفأر: فكل إجراء أمان جديد قد يقابله تقنيات تحايل جديدة من قبل الجهات السيئة. لكن الوعي الجماعي أصبح أعلى بكثير الآن – لم تعد الإباحية المنتجة بالذكاء الاصطناعي ظاهرة غريبة على الإنترنت؛ بل أصبحت موضوعًا رئيسيًا يثير القلق في البرلمانات وغرف الأخبار. هذا الوعي العام يمكن أن يمكّن الضحايا من التحدث والمطالبة بالعدالة، ويدفع الشركات لتحمل المسؤولية.عند النظر إلى المستقبل، سيكون التعاون العالمي أمرًا أساسيًا. فهذه القضايا لا تتوقف عند الحدود – إذ يمكن لتزييف عميق تم إنتاجه في بلد ما أن يدمر حياة شخص في بلد آخر. سيكون من المهم أن تتبادل الحكومات أفضل الممارسات (كما يُظهر استطلاع يورونيوز حول القوانين الأوروبية، فإن العديد من الدول تتعلم من تجارب بعضها البعض euronews.com euronews.com). وربما يظهر إطار أو معاهدة دولية لمكافحة الاعتداء الجنسي القائم على الصور في السنوات القادمة، بحيث تُعامل أسوأ الانتهاكات كجرائم ضد حقوق الإنسان. في هذه الأثناء، سيحتاج المجتمع المدني والمربون إلى مواصلة رفع الوعي، وتعليم مهارات الثقافة الإعلامية (حتى يفكر الناس مرتين قبل تصديق أو مشاركة محتوى حميمي “مسرب”)، ودعم الضحايا.
رغم كل الجوانب المظلمة المرتبطة بالذكاء الاصطناعي المخصص للبالغين، من الجدير بالذكر أن ليس كل شيء كئيبًا ومظلمًا. ففي سياقات توافقية، يستمد بعض الأشخاص سعادة حقيقية منه – سواء كان ذلك زوجين يضيفان الإثارة إلى علاقتهما عبر سيناريوهات تمثيل أدوار مولدة بالذكاء الاصطناعي، أو منشئ محتوى للبالغين يستخدم شخصية ذكاء اصطناعي لكسب الدخل بأمان من المنزل، أو حتى أفراد يجدون أخيرًا خيالهم الخاص ممثلًا في عمل فني أو قصة من إنتاج الذكاء الاصطناعي. يجب ألا تضيع هذه الاستخدامات في النقاش؛ فهي تؤكد أن التكنولوجيا نفسها ليست شريرة بطبيعتها. إنها أداة – تضخم النوايا البشرية، سواء كانت جيدة أو سيئة. مهمتنا هي توجيه استخدامها نحو أهداف توافقية وإبداعية، وحمايتها بقوة من الأهداف الخبيثة.
من المرجح أن يواصل الفنانون والمبدعون والعاملون في مجال الجنس – وهم الأشخاص الذين يعيشون في عالم المحتوى المخصص للبالغين – التكيف وخلق مساحات لهم في هذا المجال الجديد. كثيرون منهم يناضلون لضمان أن “أخلاقيات الذكاء الاصطناعي” تشمل أصواتهم، ويطالبون بآليات للموافقة والتعويض. إنهم يطلبون في الواقع شيئًا بسيطًا: لا تأخذوا منا دون أن تطلبوا الإذن. المجتمع ككل يواجه هذا المبدأ في جميع مجالات الذكاء الاصطناعي، من الفن إلى الأخبار إلى الإباحية.
في الختام، تقف NSFW AI عند تقاطع التكنولوجيا والجنس والقانون والأخلاقيات. إنها تدفعنا لإعادة تعريف مفاهيم الموافقة، الخصوصية، وحتى الواقع نفسه في العصر الرقمي. ستكون النصف الثاني من عشرينيات القرن الحالي حاسمة في وضع المعايير والقواعد التي تحكم هذا المجال. هل نتجه نحو مستقبل تصبح فيه الإباحية بالذكاء الاصطناعي منتشرة ولكن منظمة بشكل صارم، وتستخدم في الغالب لأغراض جيدة أو محايدة؟ أم سنشهد تفتتاً، حيث تقوم المنصات الرئيسية بإزالتها بينما تزدهر في الزوايا المظلمة، على غرار تجارة غير مشروعة؟ النتيجة تعتمد على القرارات التي تُتخذ الآن – من قبل المشرعين، وشركات التكنولوجيا، والمستخدمين.شيء واحد مؤكد: لقد خرج المارد من القمقم. لا يمكننا إلغاء اختراع NSFW AI. لكن يمكننا ويجب علينا أن نتعلم كيف نتعايش معها بمسؤولية. كمستخدمين، يعني ذلك احترام كرامة الآخرين عند استخدام هذه الأدوات؛ وكشركات، بناء الأمان منذ البداية؛ وكحكومات، وضع حدود واضحة؛ وكمجتمعات، عدم التسامح مع الانتهاكات. مع اليقظة والتعاطف، الأمل أن مرحلة “الغرب المتوحش” لإباحية الذكاء الاصطناعي ستتطور إلى ساحة أكثر تحضراً – حيث يمكن للبالغين بموافقتهم الاستمتاع بأشكال جديدة من الفن الإيروتيكي والتواصل، بينما يُبقى المسيئون للتقنية بعيدين. لا يزال تاريخ NSFW AI يُكتب، ومنتصف 2025 ليس سوى الفصل الأول. استجابة المجتمع الآن ستحدد ما إذا كانت هذه التقنية ستثري أو تعرضنا للخطر في مجال المحتوى الحميمي.
المصادر:
- أوريموس، ويل. “الكونغرس يمرر مشروع قانون لمكافحة الصور العارية المزيفة والانتقام الإباحي.” واشنطن بوست (عبر موقع مجلس الشيوخ لكلوبوشار)، 28 أبريل 2025 klobuchar.senate.gov klobuchar.senate.gov.
- فوكس، فيوليت. “أفضل 8 مولدات صور NSFW AI – المتعة عند تقاطع الشيفرة والموافقة.” شيكاغو ريدر، 13 أبريل 2025 chicagoreader.com chicagoreader.com.
- مهدوي، أروى. “الإباحية العميقة غير التوافقية حالة طوارئ تدمر الحياة.” الغارديان، 1 أبريل 2023 theguardian.com theguardian.com.
- فيريس، ليلى. “موقع الإباحية المُنتجة بالذكاء الاصطناعي Mr. Deepfakes يُغلق بعد سحب مزود الخدمة دعمه.” سي بي إس نيوز، 5 مايو 2025 cbsnews.com cbsnews.com.
- سي بي إس نيوز/وكالة الصحافة الفرنسية. “فضيحة إباحية بالذكاء الاصطناعي تهز جامعة هونغ كونغ بعد أن زُعم أن طالب قانون أنشأ ديب فيك لـ20 امرأة.” سي بي إس نيوز، 15 يوليو 2025 cbsnews.com cbsnews.com.
- ليونز، إيميت. “كوريا الجنوبية تستعد لتجريم حيازة أو مشاهدة مقاطع ديب فيك جنسية صريحة.” سي بي إس نيوز، 27 سبتمبر 2024 cbsnews.com cbsnews.com.
- ويثينغتون، كاليب. “قوانين جديدة لمكافحة الديب فيك وإباحية الأطفال المنتجة بالذكاء الاصطناعي تدخل حيز التنفيذ في تينيسي.” WSMV نيوز ناشفيل، 30 يونيو 2025 wsmv.com wsmv.com.
- ديسماريس، آنا. “الدنمارك تقاوم الديب فيك بحماية حقوق النشر. ما هي القوانين الأخرى الموجودة في أوروبا؟” يورونيوز، 30 يونيو 2025 euronews.com euronews.com.
- نيكول-شفارتز، كاي. “تعرف على OnlyFans الذكاء الاصطناعي: كيف جمعت شركة ناشئة ملايين لبناء منصة ‘رفقاء إيروتيكيين’.” سيفتد، 13 مارس 2025 sifted.eu sifted.eu. ويلسون، كلوديا. “مجلس الشيوخ يمرر قانون التحدي (DEFIANCE).” مركز سياسات الذكاء الاصطناعي (CAIP)، 1 أغسطس 2024 centeraipolicy.org centeraipolicy.org.أرنولد، ستيفن. “جوجل تتخذ موقفاً — ضد المحتوى المشكوك فيه. هل ستنجح الذكاء الاصطناعي في ذلك؟” مدونة Beyond Search، 24 مايو 2024 arnoldit.com arnoldit.com.هولاند، أوسكار. “لين تشي-لينغ من تايوان حول محنتها مع التزييف العميق والمعركة ضد التضليل بالذكاء الاصطناعي.” سي إن إن، 5 أكتوبر 2023 (للسياق حول التزييف العميق للمشاهير).
- (وثائق سياسات إضافية، بيانات صحفية، وتقارير كما وردت في النص.)