LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

„Пикантният“ AI режим на Илон Мъск предизвиква скандал с NSFW дийпфейкове – защо жените са мишена на новата AI порно криза

„Пикантният“ AI режим на Илон Мъск предизвиква скандал с NSFW дийпфейкове – защо жените са мишена на новата AI порно криза

Grok 4: Inside Elon Musk’s Most Powerful (and Controversial) AI Chatbot Yet

Новото AI начинание на Илон Мъск е подложено на критика заради генериране на неразрешени голи дийпфейкове на знаменитости – и то по обезпокоително полово пристрастен начин. Последно разследване на Gizmodo разкрива, че инструментът на Мъск Grok Imagine, с режима си „Spicy“, лесно създава NSFW видеа на известни жени (като Тейлър Суифт или Мелания Тръмп), но отказва да направи същото за мъже gizmodo.com gizmodo.com. Този доклад разглежда откритията на Gizmodo относно спорната функция на Grok, анализира бързия възход на AI-генерирано порнографско съдържание и дийпфейкове, и изследва етичните, правните и социалните последици. Също така разглеждаме актуалните развития към август 2025 г. – от общественото възмущение и експертните предупреждения до новите закони, насочени към ограничаване на AI „revenge porn“. Целта: да разберем как „Spicy Mode“ се превърна в поредната гореща точка в продължаващата криза с NSFW AI съдържание и какво може да се направи по въпроса.

„Spicy Mode“ на Grok – NSFW дийпфейкове и вграден пристрастеност

Grok Imagine е генераторът на изображения и видеа на xAI (достъпен за абонати, плащащи в платформата X на Мъск) и забележително позволява на потребителите да създават съдържание за възрастни чрез режим „Spicy“ gizmodo.com. Докато основните AI инструменти като Veo на Google и Sora на OpenAI забраняват експлицитни или изображения на знаменитости, Spicy режимът на Grok активно го насърчава avclub.com avclub.com. Тестването на The Verge показа, че AI „не се поколеба да генерира напълно нецензурирани видеа с голи гърди на Тейлър Суифт“ още при първия опит – без дори да е поискано голо съдържание theverge.com. По подобен начин, Deadline установи, че е изключително лесно Grok да генерира изображение на Скарлет Йохансон, показваща бельото си avclub.com. За разлика от това, опитите да се създаде мъжка голота не доведоха до нищо. Както съобщава Gizmodo, „генерираше наистина неприлични изображения само когато ставаше дума за жени. Видеата с мъже бяха от типа, който едва ли би направил впечатление.“ gizmodo.com На практика, Spicy режимът на Grok може най-много да покаже мъж без риза, докато жените се изобразяват с голи гърди или напълно голи.

Този явен двоен стандарт предизвика тревога. Grok ще генерира клип в стил софтпорно с публична личност жена само с едно натискане на бутон gizmodo.com, но същият „Spicy“ филтър очевидно спира само до гол торс при мъжете gizmodo.com. Мат Новак от Gizmodo дори опита да подаде заявка за генеричен, неизвестен мъж срещу генерична жена: мъжкият аватар неловко дърпаше панталоните си, но остана облечен, докато женският аватар веднага разкри гърдите си gizmodo.com. Такива резултати предполагат полово пристрастие, вградено в модерирането на съдържанието от ИИ (дали умишлено или като страничен продукт от обучението му). Самият Мъск има история с мизогинистки изказвания – от това да разпространява твърдения, че жените са „слаби“ gizmodo.com до шеги за забременяване на Тейлър Суифт – което засилва подозренията, че това пристрастие е по-скоро функция, отколкото бъг gizmodo.com.

Възможности и ограничения: Струва си да се отбележи, че дийпфейковете на Grok са често с лошо качество. Сходствата с известни личности, които създава, често са неубедителни или с бъгове gizmodo.com gizmodo.com. (Например, изображения, предназначени да бъдат актрисата Сидни Суини или политикът Дж.Д. Ванс, изобщо не приличаха на реалните им лица gizmodo.com.) Странни грешки в последователността – като мъж с различни крачоли на панталона в едно видео – са често срещани gizmodo.com. Grok също така автоматично генерира обща фонова музика или аудио за всеки клип, което допринася за сюрреалистичната атмосфера на „зловещата долина“ gizmodo.com. Тези технически недостатъци може да са спасителна благодат за xAI в момента, тъй като наистина правдоподобни голи фалшификати на известни личности почти сигурно биха предизвикали съдебни дела и забрани gizmodo.com. Както се пошегува Gizmodo, най-добрата защита на Мъск срещу съдебни действия може да е, че „изображенията дори не са близо“ до истинските знаменитости gizmodo.com. Но технологията бързо се подобрява, и дори тези несъвършени дийпфейкове са достатъчно разпознаваеми, за да бъдат обезпокоителни avclub.com.

Обществена реакция: Пускането на „Spicy Mode“ незабавно предизвика възмущение в социалните мрежи и медиите. Само дни след старта на Grok Imagine, X (Twitter) беше залят с генерирани от изкуствен интелект изображения на голи жени, като потребителите с ентусиазъм споделяха съвети как да увеличат голотата в своите заявки gizmodo.com. Това предизвика широка критика, че Мъск на практика е отворил шлюзовете за сексуален тормоз и експлоатация, задвижвани от изкуствен интелект. „Голяма част от съдържанието на Grok Imagine, което Мъск е споделял или препубликувал, са клипове с генерични, пищни блондинки или жени в разголени фентъзи костюми“, отбелязва A.V. Club, като подчертава, че изглежда Мъск има намерение да навлезе на територията на Pornhub avclub.com avclub.com. Технологични блогъри и коментатори подигравателно предполагат, че Мъск „буквално моли за съдебен иск от Тейлър Суифт“ заради автоматично генерираните от Grok голи снимки avclub.com. Наистина, някои коментатори призовават известни личности като Суифт да заведат дело срещу Мъск и „да направят света по-безопасен за други жени и момичета“ avclub.com. До момента няма публична индикация за правни действия от страна на Суифт или други – но призивите за отговорност стават все по-силни.

Дори извън спора около Grok, 2024 г. беше белязана от сериозно обществено възмущение относно порнография, генерирана от изкуствен интелект в X. В един случай дълбоко фалшифицирани порнографски изображения на Тейлър Суифт се разпространиха масово в платформата, като една фалшива снимка събра 47 милиона гледания преди да бъде премахната theguardian.com. Феновете се мобилизираха масово, за да докладват изображенията, а дори и Белият дом се намеси, наричайки ситуацията „тревожна“ theguardian.com. Случаят на Суифт е изключителен само поради вниманието, което получи; безброй жени (известни или не) са видели своите образи превърнати в експлицитно съдържание, което платформите не успяват да премахнат бързо theguardian.com theguardian.com. Общественият гняв около тези инциденти – а сега и около вградения NSFW режим на Grok – отразява нарастващ консенсус, че AI инструментите, които позволяват сексуални deepfake-ове, преминават етични граници.

Бързият възход на NSFW съдържание и deepfake-ове, генерирани от изкуствен интелект

Случаят с Grok е последната глава в тревожна тенденция: порнографията, генерирана от изкуствен интелект („deepfake porn“), експлодира по разпространение през последните няколко години. Феноменът за първи път стана печално известен през 2017 г., когато любители в Reddit започнаха да използват ранни deep-learning алгоритми, за да заменят лицата на знаменитости с тези на порноактьори. До 2018 г. така наречените „deepfake“ видеа с Гал Гадот, Ема Уотсън, Скарлет Йохансон и други се разпространяваха в сайтове за възрастни – което доведе до забрани от платформи като Reddit, Twitter и Pornhub за такова не-съгласувано съдържание theguardian.com theverge.com.

Въпреки тези ранни забрани, индустрията за deepfake порнография се премести в сянка и продължи да расте. До края на 2019 г. знаков доклад на фирмата за киберсигурност Deeptrace установи, че 96% от всички deepfake видеа, циркулиращи онлайн, са порнографски, не по взаимно съгласие face-swap-ове, почти изцяло с жени като мишени regmedia.co.uk. Четирите най-големи deepfake порно сайта, изследвани в доклада, са натрупали над 134 милиона гледания на видеа, насочени към „стотици жени знаменитости по целия свят.“ regmedia.co.uk Този дисбаланс беше очевиден: жертвите бяха предимно жени, а потребителите – предимно заинтересовани от жени като сексуални обекти. „99% от deepfake секс видеата включват жени, обикновено жени знаменитости,“ отбелязва професорът по право Даниел Ситрон, подчертавайки как тези творения „те превръщат в сексуален обект по начини, които не си избрал“ nymag.com. „Няма нищо лошо в порнографията, стига сам да си я избрал,“ добавя Ситрон – ужасът на deepfake-овете е, че тези жени никога не са избирали да бъде използван техният образ в експлицитни сцени nymag.com.

В началото deepfake-овете със знаменитости доминираха, но сега обикновени хора все по-често стават мишени. През януари 2023 г. Twitch общността беше разтърсена от скандал, когато популярният стриймър Брандън „Atrioc“ Юинг случайно разкри, че е гледал deepfake порно сайт, който продава експлицитни видеа с жени стриймъри – като монтира лицата им върху телата на порно актриси polygon.com. Жените (някои от които бяха лични приятелки на Atrioc) бяха съсипани и бяха подложени на вълни от тормоз, след като deepfake-овете излязоха наяве polygon.com. Една от жертвите, стриймърката QTCinderella, направи емоционално изявление, осъждайки нарушението, и по-късно помогна за организирането на правни действия за премахване на такова съдържание polygon.com polygon.com. „Twitch deepfake“ скандалът подчерта, че не е нужно да си холивудска звезда, за да ти се случи това – всеки човек с изображения онлайн е потенциално уязвим да бъде „разсъблечен“ от ИИ против волята си.

Появата на лесни за използване AI инструменти само ускори тази тенденция. През 2019 г. приложение, наречено DeepNude, стана временно вирусно, използвайки AI, за да „съблича“ снимки на жени с едно натискане на бутон, създавайки фалшиви голи изображения onezero.medium.com. Въпреки че създателят на DeepNude го спря след обществена реакция, духът вече беше изпуснат от бутилката. До 2023–2025 г. отворените генератори на изображения (като производни на Stable Diffusion) и специализирани deepfake услуги направиха тривиално за всеки с няколко снимки и минимални технически умения да създаде голи или сексуални изображения на други хора. Някои форуми открито търгуват с AI-генерирани голи снимки на жени, взети от социалните мрежи. Както една жертва – Twitch стриймър – се оплака, след като открила порнографски фалшификати със себе си: „Това няма нищо общо с мен. И все пак е тук с моето лице.“ theguardian.com Чувството за посегателство и безсилие е осезаемо сред тези, които са били „дигитално виктимизирани“.

Накратко, AI демократизира способността да се създават порнографски фалшификати, а тази възможност е непропорционално използвана като оръжие срещу жените. Не само знаменитостите са „мишена“ – това е всеки, от журналисти и активисти (които може да бъдат атакувани с цел сплашване или дискредитиране) до бивши партньори и частни лица (обекти на отмъстителни злонамерени действия или изнудване). Появата на функции като Spicy режима на Grok – които поставят официален, лесен за ползване печат върху това, което преди беше подземна практика – показва, че NSFW генеративният AI наистина е навлязъл в мейнстрийма, носейки със себе си цялата си етична тежест.

Етични, правни и социални последици от AI-генерираното порно

Етичният възмущение срещу deepfake порнографията е широко разпространено. В основата си, създаването или споделянето на сексуално съдържание на някого без негово съгласие е дълбоко нарушение на личната неприкосновеност, достойнството и автономията. Както твърдят Citron и други етици, това е повече от злоупотреба с изображения – това е форма на сексуална експлоатация. Жертвите описват чувства на „безпомощност, унижение и ужас“, знаейки, че непознати (или насилници) гледат фалшиви видеа с тях в сексуални актове, които никога не са извършвали. Това може да се равнява на виртуална форма на сексуално насилие, оставяйки трайна травма. Не е изненадващо, че жените и момичетата понасят най-голямата тежест: „Неконсенсуалните интимни deepfake-и“ са „текуща, сериозна и нарастваща заплаха, която непропорционално засяга жените“, заключават изследователите sciencedirect.com.

Има и мизогинистичен подтекст в голяма част от това съдържание. Експерти отбелязват, че дийпфейк порнографията често се използва като оръжие за унижаване на жени, които са на властови позиции или които отхвърлят нечии ухажвания. „Порнография, генерирана от изкуствен интелект и подхранвана от мизогиния, залива интернет,“ отбеляза The Guardian по време на скандала с дийпфейк изображенията на Тейлър Суифт theguardian.com. Самият акт на събличане на жена чрез изкуствен интелект може да се разглежда като опит да бъде „поставена на мястото си“. „Това са мъже, които казват на силна жена да се върне в кутията си,“ както един наблюдател описа атмосферата около случая със Суифт. Независимо дали са анонимни тролове, които създават голи изображения на жена политик, или обсебен фен, който прави фалшиви секс записи на поп звезда, посланието е сходно – форма на дигитална обективизация и сплашване.

Отвъд индивидуалната вреда, общественият ефект е тревожен. Ако всеки може да бъде поставен в порнографски материал, визуалните медии вече не могат да бъдат доверени. Дийпфейковете застрашават с мащабни репутационни щети и изнудване. Жените в публичното пространство може да започнат да се самоцензурират или да се оттеглят от онлайн активност от страх да не станат мишена. Има и охлаждащ ефект върху свободата на словото: представете си журналистка, критична към даден режим, която се оказва обект на реалистично фалшиво секс видео, разпространено с цел да я опозори. В обобщение, нормализирането на „дизайнерска порнография“ с нежелаещи участници повдига въпроси за съгласието, сексуалната експлоатация и комодифицирането на човешкия облик. Дори при консенсусно съдържание за възрастни, някои се притесняват, че генерирани от ИИ изпълнители могат да заменят истински модели – но когато тези ИИ изпълнители носят лицата на истински хора, откраднати от Facebook или Instagram, границата на съгласието е ясно прекрачена.

Свобода на словото срещу поверителността: Съществува напрежение между онези, които настояват за забрана на всички порнографски дийпфейкове, и защитниците на свободата на словото, които се притесняват от прекомерни мерки. Може ли дийпфейк с известна личност някога да се счита за легитимна пародия или изкуство? Теоретично – да; сатирата и пародията са защитени форми на изразяване, дори когато се използва образът на публични личности. Някои защитници на AI технологиите отбелязват, че променени изображения на публични личности отдавна са част от популярната култура (например корици на списания, обработени с Photoshop), като твърдят, че импулсивната криминализация може да потисне креативността. Въпреки това, дори повечето експерти по свобода на словото поставят граница при несъгласуваните сексуални изображения. Щетата за индивида е толкова силна и лична, че вероятно надделява над обществения интерес. Юридически експерти посочват, че законите за клевета или тормоз могат да обхванат някои случаи, но не всички. Нараства консенсусът, че са необходими нови правни защити, които да се справят конкретно с дийпфейк порнографията, без да подкопават легитимното изразяване apnews.com apnews.com. Изработването на такива закони – така че да наказват явните злоупотреби, без да засягат сатирата или съгласната еротика – е предизвикателство, с което политиците сега се сблъскват apnews.com apnews.com.

Текущи развития (към август 2025): От технологичен отпор до нови закони

Спорът около “Spicy” режима на Grok идва в момент, когато правителства и платформи по целия свят най-накрая започват да се борят с епидемията от AI-генерирани интимни изображения. Ето някои от последните развития:

  • Национално възмущение и активизъм: Вирусните инциденти с участието на Тейлър Суифт и други мобилизираха общественото мнение. Дори Белият дом на САЩ коментира дийпфейковете със Суифт, както беше отбелязано, наричайки ги „тревожни“ theguardian.com. Групи за застъпничество като Националния център за сексуална експлоатация изразиха открито мнение, осъждайки xAI на Мъск за „насърчаване на сексуалната експлоатация чрез позволяване на AI видеа да създават голота“ и призовавайки за премахване на такива функции time.com. „xAI трябва да търси начини за предотвратяване на сексуално насилие и експлоатация,“ каза Хейли Макнамара от NCOSE в изявление, отразявайки по-широкия натиск от страна на гражданското общество time.com.
  • Проучванията показват огромна обществена подкрепа за забрани: Последните проучвания показват, че обществото твърдо подкрепя по-строга регулация. Анкета от януари 2025 г. на Института за политика в областта на изкуствения интелект установи, че 84% от американците подкрепят изричното криминализиране на неволевия дийпфейк порн, и също така искат AI компаниите да „ограничат [AI] моделите, за да предотвратят използването им за създаване на дийпфейк порнография.“ time.com. Проучване на Pew Research от 2019 г. също установи, че около три четвърти от възрастните в САЩ са за ограничения върху дигитално променени видеа/изображения time.com. Накратко, избирателите от целия спектър изглежда искат действия срещу тази форма на злоупотреба.
  • Нови закони и законопроекти: Законодателите чуха призива. В САЩ, Законът Take It Down беше подписан през май 2025 г., отбелязвайки първото федерално законодателство, насочено срещу дийпфейк порнографията time.com. Този двупартиен закон прави незаконно „съзнателно публикуване или заплаха за публикуване“ на интимни изображения без съгласие – включително създадени от изкуствен интелект дийпфейкове – и изисква платформите да премахнат такъв материал в рамките на 48 часа след уведомление от жертвата apnews.com apnews.com. Санкциите са строги, а законът дава възможност на жертвите бързо да премахнат съдържанието apnews.com apnews.com. „Трябва да осигурим на жертвите на онлайн злоупотреба правната защита, от която се нуждаят, особено сега, когато дийпфейковете създават ужасяващи нови възможности за злоупотреба,“ каза сенатор Ейми Клобучар, съвносител на закона, наричайки го „голяма победа за жертвите на онлайн злоупотреба.“ apnews.com apnews.com Още преди федералния закон, над 15 щата в САЩ бяха забранили създаването или разпространението на експлицитни дийпфейкове (често чрез актуализиране на законите срещу „порното за отмъщение“). Сега се оформя единен федерален стандарт. Други държави също предприемат действия. Британското правителство, например, криминализира споделянето на дийпфейк порнография в Закона за онлайн безопасност (в сила от началото на 2024 г.) и прокарва законодателство за криминализиране дори на създаването на сексуално експлицитни дийпфейкове без съгласие hsfkramer.com hsfkramer.com. През януари 2025 г. Обединеното кралство отново внесе предложение за криминализиране на създаването на дийпфейк голи снимки, подчертавайки го като „знаково развитие за защитата на жените и момичетата.“ <a href=“https://www.hsfkramer.com/notes/tmt/2024-05/criminalising-deepfakes-the-uks-new-offences-following-the-online-safety-act#:~:text=Further%20update%3A%20On%207%20January,Act%2020hsfkramer.com hsfkramer.com Австралия прие закон през 2024 г., който забранява както създаването, така и разпространението на дийпфейк сексуален материал, а Южна Корея дори предложи криминализиране дори на притежанието или гледането на такова дийпфейк порно (не само производството му) hsfkramer.com. Глобалната тенденция е ясна: неконсенсуалните AI сексуални изображения се разглеждат като престъпление. Законодателите признават, че тези изображения „могат да съсипят животи и репутации,“ както се изрази Клобучар apnews.com, и предприемат действия – макар че организации за защита на свободата на изразяване като EFF предупреждават, че зле формулирани закони могат да доведат до прекомерна цензура или злоупотреби apnews.com apnews.com.
  • Политики на технологичните платформи: Основните технологични платформи започнаха да актуализират своите политики (поне на хартия), за да се справят със сексуално съдържание, създадено от изкуствен интелект. Facebook, Instagram, Reddit и традиционният Twitter официално забраняват неволно споделени интимни изображения, включително deepfakes theguardian.com theverge.com. Pornhub и други сайтове за възрастни също въведоха забрани за съдържание, генерирано от ИИ, включващо реални лица без съгласие още през 2018 г. theguardian.com theverge.com. На практика, прилагането остава непоследователно – решителен потребител все още може да намери или сподели незаконни deepfakes в много платформи. Все пак има признаци на напредък: например, след инцидента със Суифт, X (Twitter) в крайна сметка реагира, като блокира търсенията на нейното име, за да спре разпространението theguardian.com theguardian.com. Reddit не само забранява deepfake порнографията, но и закри цели общности, които търгуват с такъв материал. YouTube и TikTok също имат политики, забраняващи експлицитни изображения, манипулирани с ИИ. Предизвикателството е мащабът и откриването – именно тук се прилагат нови технологии.
  • Откриване и предпазни мерки: Разрастваща се нишова индустрия от технологични решения цели да открива и премахва deepfake порнография. AI компании като Sensity (преди Deeptrace) и стартъпи като Ceartas разработват алгоритми за откриване, които сканират интернет за лицето на даден човек в порнографско съдържание и отбелязват съвпадения polygon.com polygon.com. Всъщност, след скандала с Twitch, Atrioc си партнира с Ceartas, за да помогне на пострадалите стриймъри: компанията използва своя AI, за да открие deepfake съдържание с тези жени и да подаде DMCA искания за премахване polygon.com polygon.com. OnlyFans, платформа с пряк интерес да защитава създателите, също е въвела такива инструменти за контрол на фалшиво съдържание с нейните модели polygon.com. Работи се и по вграждане на водни знаци или метаданни в AI-генерирани изображения, за да се улесни разпознаването на фалшификати, както и по предложения за изискване на криптографско удостоверяване на истински изображения (така че немаркираните изображения да се считат за фалшиви). Освен това, Законът за AI на Европейския съюз (приет през 2024 г.) включва разпоредби, че разработчиците на deepfake инструменти трябва да гарантират, че резултатите са ясно обозначени като генерирани от AI bioid.com. Няколко щата в САЩ (и ЕС) обмислят изисквания всяко AI-променено съдържание да бъде придружено от разкриване при публикуване cjel.law.columbia.edu bioid.com. Макар че такива етикети няма да спрат злонамерени лица да ги премахват, те представляват опит да се установят норми на прозрачност около синтетичните медии.
  • Платформи срещу X на Мъск: Заслужава си да се подчертае колко необичаен е подходът на Мъск с X и xAI. Докато повечето платформи затягат ограниченията, Мъск на практика ги е разхлабил, привличайки потребителска база, която желае „остри“ AI възможности. X не само че не е забранил изходните данни на Grok; това е домът на Grok. Това разминаване поставя X в противоречие с много експерти. През август 2024 г. група демократически законодатели специално посочиха Grok на Мъск в писмо до регулаторите, предупреждавайки, че слабите политики относно дийпфейкове (включително експлицитни такива на фигури като Камала Харис или Тейлър Суифт) могат да предизвикат хаос на избори и отвъд тях time.com. Изглежда, че Мъск залага на това, че задоволяването на търсенето на AI-генерирана еротика (и дори AI чат спътници, които флиртуват или се събличат, както показват новите функции на xAI time.com) ще донесе приходи и потребители. Но ответната реакция – правна, социална и потенциално финансова (чрез опасения на рекламодатели) – може в дългосрочен план да разкаже различна история.

Политически предложения и пътят напред: Можем ли да ограничим дийпфейк порнографията?

Консенсусът сред политици и етици е, че е необходима многостранна намеса, за да се справим с AI-генерираното NSFW съдържание. Ключови предложения и идеи включват:

  • По-строги закони и прилагане: Както беше отбелязано, закони като Take It Down Act са начало. Експертите предлагат допълнителни подобрения, като например да се направи създаването на фалшив сексуален образ на някого без съгласие престъпление, а не само разпространението му. (Великобритания върви в тази посока hsfkramer.com hsfkramer.com.) Ясни правни санкции за извършителите – и за тези, които съзнателно хостват или печелят от такова съдържание – могат да действат като възпиращ фактор. Важно е всяко законодателство да бъде внимателно формулирано, за да се избегне неволно криминализиране на консенсусно еротично изкуство или легитимна политическа сатира apnews.com apnews.com. Гражданските средства също са от съществено значение: жертвите трябва да имат лесни начини да съдят за обезщетения и да получават съдебни разпореждания за премахване на съдържание. Много защитници искат да видят изключения в Раздел 230 (американският закон, който предпазва платформите от отговорност за потребителско съдържание), така че уебсайтовете да могат да бъдат държани отговорни, ако не реагират на искания за премахване на дийпфейк порнография. Това би оказало натиск върху платформите да бъдат много по-бдителни.
  • Технологични предпазни мерки: От страна на разработката, предложенията предполагат, че създателите на AI модели трябва да вграждат превантивни защити. Например, компаниите могат да обучат филтри за съдържание да разпознават, когато потребителският промпт включва името или образа на реален човек, и да блокират всякакъв експлицитен изход, свързан с този човек. (Някои AI генератори на изображения вече отказват промпти, които изглежда се отнасят до частни лица или създават голота на публични личности – Grok на xAI е изключение, тъй като не го прави avclub.com.) Друга идея е изискването за потвърждение на съгласие за експлицитни генерирания: например AI услуга може да генерира голо изображение само ако потребителят докаже, че субектът е самият той или съгласен модел. Разбира се, злонамерени лица могат просто да използват open-source модели без такива филтри, но ако големите платформи приемат строги предпазни мерки, това може да ограничи масовото разпространение. Потвърждаване на възраст също е проблем – единствената проверка на Grok беше лесно заобиколим въпрос за дата на раждане gizmodo.com – затова има призиви за по-строги възрастови ограничения, за да се гарантира, че непълнолетни (които често са мишени на тормоз чрез фалшиви голи снимки) не могат да използват тези инструменти или да бъдат изобразявани от тях.
  • Изследвания и откриване: Правителствата финансират изследвания за откриване на deepfake, а компаниите си сътрудничат по стандарти за удостоверяване на медии. Целта е да се улесни бързото идентифициране и премахване на фалшиво порно, когато се появи. Въпреки това, откриването винаги ще бъде игра на котка и мишка, тъй като AI фалшификатите стават все по-усъвършенствани. Някои експерти смятат, че фокусът трябва да се измести към предотвратяване на вреди (чрез законови санкции и образование), вместо да се разчита на технически „детектор на фалшификати“, който да улавя всичко. Все пак, напредъкът в AI за добро – като по-добро хеширане на изображения за проследяване на известни фалшификати или инструменти за хората да открият дали техният образ е бил злоупотребен – ще играе роля в ограничаването на проблема.
  • Отговорност на платформите: Групи за застъпничество настояват социалните мрежи и платформите за съдържание за възрастни да следят проактивно AI порно съдържание. Това може да означава инвестиране в екипи за модериране на съдържание, обучени да разпознават deepfake, сътрудничество с органите на реда при разпореждания за премахване и забрана на рецидивисти, които създават или споделят несъгласуван материал. Някои също призовават за системи за отказ или регистър, където хората могат да регистрират своя образ (или този на децата си) и платформите трябва да гарантират, че не се допуска AI съдържание, изобразяващо тях – макар че административно това би било трудно за прилагане. Най-малкото, протоколи за бърза реакция – като изискването за премахване в рамките на 48 часа според американския закон apnews.com – трябва да станат стандартна практика във всички платформи по света.
  • Образование и норми: Накрая, част от решението е в промяната на социалните норми. Както обществото започна масово да осъжда „revenge porn“ и да го разпознава като насилие, така надеждата е deepfake порнографията да стане универсално стигматизирана. Ако обикновеният човек разбира вредата и отказва да споделя или консумира такова съдържание, търсенето ще намалее. Технологичните етици подчертават важността на медийната грамотност – да се учат хората, че не всичко, което виждат, е истина, и че провокативна снимка на Знаменитост X може да е фалшива. Овластяването на по-младите поколения да се ориентират критично в свят на медии, променени от изкуствен интелект, ще бъде от решаващо значение. Също толкова важни ще са кампаниите, които информират потенциалните извършители, че създаването на тези фалшификати не е шега – това е сериозно нарушение с потенциално наказателни последици.

Заключение

Появата на „Spicy Mode“ на Grok наля масло в огъня на вече разгорялата се дискусия около AI и сексуално експлицитните deepfake-ове. Инструментът на Илон Мъск за изкуствен интелект, като прави създаването на голи двойници на знаменитости лесно и дори „официално“, предизвика бърза реакция – и хвърли светлина върху по-широката криза с deepfake порнографията. От залите на Конгреса до коментарите във форумите за технологии, нараства съгласието, че трябва да се направи нещо, за да се защитят хората (особено жените) от тъмните приложения на тази технология.

Както видяхме, NSFW съдържанието, генерирано от AI, не е изолиран феномен – това е нарастващо обществено предизвикателство. То противопоставя творческата свобода и технологичните иновации на личната неприкосновеност, съгласието и сигурността. Джинът вече е изпуснат от бутилката, но чрез умна политика, отговорно технологично развитие и културна промяна можем да се надяваме да ограничим вредата. Предстоят още съдебни дела, нови закони и подобрени AI защити. Grok на Мъск или ще се адаптира под натиск, или ще се превърне в поучителен пример за AI проект, който е пренебрегнал етичните граници на свой риск.

Засега посланието от експерти и общественост е категорично: deepfake порнографията е граница, която AI не трябва да преминава. И ако компании като xAI не я очертаят сами, регулаторите и обществото са все по-готови да го направят вместо тях. Както каза един защитник на технологичната етика, „Да превърнат твоя образ в порнография без съгласие е опустошително – време е да го третираме като сериозното насилие, което е, а не като неизбежност на технологиите.“ Дебатът вече не е дали са нужни действия, а колко бързо и ефективно можем да ограничим сексуалната експлоатация, подхранвана от AI, преди още животи да бъдат объркани от следващата „пикантна“ иновация.

Източници:

  • Новак, Мат. “Grok’s ‘Spicy’ Mode Makes NSFW Celebrity Deepfakes of Women (But Not Men).Gizmodo, 6 август 2025 gizmodo.com gizmodo.com.
  • Weatherbed, Джес. “Настройката ‘Spicy’ на Grok веднага ми направи дийпфейкове на Тейлър Суифт гола.The Verge, 5 авг. 2025 theverge.com.
  • Кар, Мери Кейт. “Илон Мъск буквално се моли за дело от Тейлър Суифт с голи дийпфейкове от Grok AI.AV Club, 7 авг. 2025 avclub.com avclub.com.
  • Санер, Емин. “Вътре в скандала с дийпфейковете на Тейлър Суифт: ‘Това са мъже, които казват на силна жена да си знае мястото’.The Guardian, 31 ян. 2024 theguardian.com theguardian.com.
  • Кларк, Никол. “Стриймърът, който предизвика скандала с дийпфейк порното в Twitch, се завръща.Polygon, 16 март 2023 polygon.com polygon.com.
  • Патрини, Джорджо. “Състоянието на дийпфейковете.” Доклад на Deeptrace Labs, окт. 2019 regmedia.co.uk.
  • Ситрон, Даниел. Интервю в NYMag Intelligencer, окт. 2019 nymag.com.
  • Ортути, Барбара. “Президентът Тръмп подписва Take It Down Act, насочен към неразрешени дийпфейкове. Какво е това?AP News, авг. 2025 apnews.com apnews.com.
  • Бурга, Солсайр. “Grok на Илон Мъск скоро ще позволи на потребителите да създават AI видеа, включително с експлицитно съдържание.TIME, август 2025 time.com time.com.
  • Адвокатска кантора Herbert Smith Freehills. “Криминализиране на дийпфейковете – новите престъпления във Великобритания…,” 21 май 2024 hsfkramer.com hsfkramer.com.

Tags: , ,