LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

«Острый» режим ИИ Илона Маска спровоцировал скандал с NSFW дипфейками — почему женщины становятся жертвами нового кризиса ИИ-порно

«Острый» режим ИИ Илона Маска спровоцировал скандал с NSFW дипфейками — почему женщины становятся жертвами нового кризиса ИИ-порно

Grok 4: Inside Elon Musk’s Most Powerful (and Controversial) AI Chatbot Yet

Новый проект Илона Маска в сфере ИИ подвергся критике за создание обнажённых дипфейков знаменитостей без их согласия — причём делает это с тревожно выраженной гендерной предвзятостью. Недавнее расследование Gizmodo показало, что инструмент Маска Grok Imagine с режимом «Spicy» легко создаёт NSFW-видео известных женщин (например, Тейлор Свифт или Мелании Трамп), но отказывается делать то же самое для мужчин gizmodo.com gizmodo.com. В этом материале рассматриваются выводы Gizmodo о спорной функции Grok, анализируется стремительный рост порнографического контента и дипфейков, созданных ИИ, а также исследуются этические, правовые и социальные последствия. Мы также рассматриваем текущие события на август 2025 года — от общественного возмущения и предупреждений экспертов до новых законов, направленных на ограничение ИИ-«порномести». Цель: понять, как «Spicy Mode» стал очередной точкой напряжения в продолжающемся кризисе NSFW-контента, созданного ИИ, и что можно с этим сделать.

«Spicy Mode» Grok — NSFW-дипфейки и встроенная предвзятость

Grok Imagine — это генератор изображений и видео от xAI (доступен платным подписчикам на платформе X Маска) и примечателен тем, что позволяет пользователям создавать контент для взрослых через режим “Spicy” gizmodo.com. В то время как основные инструменты ИИ, такие как Veo от Google и Sora от OpenAI, запрещают откровенные или изображения знаменитостей, режим Spicy в Grok активно поощряет это avclub.com avclub.com. Тестирование от The Verge показало, что ИИ «не колеблясь выдавал полностью нецензурированные топлес-видео с Тейлор Свифт» с первой попытки — даже без запроса на наготу theverge.com. Аналогично, Deadline обнаружил, что получить от Grok изображение Скарлетт Йоханссон, демонстрирующей нижнее белье, было крайне просто avclub.com. В резком контрасте, попытки создать мужскую наготу ни к чему не приводили. Как сообщает Gizmodo, «он делал по-настоящему непристойные изображения только с женщинами. Видео с мужчинами были такими, что вряд ли кого-то бы шокировали.» gizmodo.com На практике, в режиме Spicy Grok максимум может изобразить мужчину без рубашки, в то время как женщины изображаются топлес или полностью обнаженными.

Этот вопиющий двойной стандарт вызвал тревогу. Grok сгенерирует клип в стиле софт-порно с участием женщины-публичной фигуры по нажатию кнопки gizmodo.com, но тот же фильтр “Spicy”, по-видимому, останавливается на простой обнажённой груди у мужчин gizmodo.com. Мэтт Новак из Gizmodo даже попробовал ввести запрос для обычного, не знаменитого мужчины и обычной женщины: мужской аватар неловко тянулся к штанам, но оставался одетым, тогда как женский аватар тут же обнажил грудь gizmodo.com. Такие результаты указывают на гендерную предвзятость, заложенную в модерацию контента ИИ (намеренно или как побочный продукт обучения). Сам послужной список Маска с мизогинными высказываниями — от распространения утверждений, что женщины “слабы” gizmodo.com до шуток о том, чтобы “забеременеть от Тейлор Свифт”, — усиливает подозрения, что этот перекос скорее функция, чем ошибка gizmodo.com.

Возможности и ограничения: Стоит отметить, что дипфейки Grok часто низкого качества. Сходство с известными личностями, которое он создает, часто неубедительно или содержит сбои gizmodo.com gizmodo.com. (Например, изображения, которые должны были изображать актрису Сидни Суини или политика Дж. Д. Вэнса, совсем не были похожи на реальных людей gizmodo.com.) Странные ошибки в непрерывности — например, мужчина в видео с разными штанинами — встречаются часто gizmodo.com. Grok также автоматически создает стандартную фоновую музыку или аудио для каждого клипа, что добавляет сюрреалистичности и эффекту «зловещей долины» gizmodo.com. Эти технические недостатки могут быть спасением для xAI на данный момент, поскольку действительно реалистичные подделки обнаженных знаменитостей почти наверняка вызвали бы иски и судебные запреты gizmodo.com. Как пошутил Gizmodo, лучшая защита Маска от судебных исков может заключаться в том, что «изображения даже близко не похожи» на настоящих знаменитостей gizmodo.com. Но технология быстро совершенствуется, и даже эти несовершенные дипфейки достаточно узнаваемы, чтобы вызывать беспокойство avclub.com.

Реакция общественности: Запуск “Spicy Mode” немедленно вызвал волну возмущения в социальных сетях и прессе. В течение нескольких дней после запуска Grok Imagine, X (Twitter) был наводнен сгенерированными ИИ изображениями обнажённых женщин, пользователи с энтузиазмом делились советами, как добиться максимальной наготы в своих запросах gizmodo.com. Это вызвало широкую критику, что Маск фактически открыл шлюзы для сексуальных домогательств и эксплуатации с помощью ИИ. «Большая часть контента Grok Imagine, которым Маск делился или репостил, — это клипы с типичными пышногрудыми блондинками или женщинами в откровенных фэнтезийных нарядах», — отмечает A.V. Club, указывая, что Маск, похоже, намерен потеснить Pornhub avclub.com avclub.com. Техноблогеры и комментаторы с насмешкой предположили, что Маск «практически умоляет о судебном иске от Тейлор Свифт» из-за автосгенерированных обнажённых изображений Grok avclub.com. Действительно, некоторые комментаторы призывают известных личностей, таких как Свифт, подать на Маска в суд и «сделать мир безопаснее для других женщин и девочек» avclub.com. Пока что нет публичных признаков судебных действий со стороны Свифт или других — но призывы к ответственности становятся всё громче.

Даже помимо споров вокруг Grok, в 2024 году на X произошёл крупный общественный резонанс из-за порнографии, сгенерированной ИИ. В одном из случаев порнографические дипфейки с изображением Тейлор Свифт стремительно распространились на платформе, и одна из поддельных фотографий собрала 47 миллионов просмотров до удаления theguardian.com. Поклонники массово объединились, чтобы пожаловаться на изображения, и даже Белый дом вмешался, назвав ситуацию «тревожной» theguardian.com. Случай Свифт выделяется только масштабом внимания; бесчисленное количество женщин (знаменитых и нет) сталкивались с тем, что их образы превращали в откровенный контент, который платформы не спешили удалять theguardian.com theguardian.com. Общественное возмущение по поводу этих инцидентов — и теперь по поводу встроенного NSFW-режима Grok — отражает растущее согласие с тем, что ИИ-инструменты, позволяющие создавать сексуальные дипфейки, переходят этические границы.

Стремительный рост NSFW-контента и дипфейков, сгенерированных ИИ

Эпизод с Grok — это последняя глава тревожной тенденции: порнография, сгенерированная ИИ («дипфейк-порно»), резко выросла по распространённости за последние несколько лет. Явление впервые стало печально известным ещё в 2017 году, когда энтузиасты на Reddit начали использовать ранние алгоритмы глубокого обучения для подмены лиц знаменитостей на телах порноактёров. К 2018 году так называемые «дипфейк»-видео с Галь Гадот, Эммой Уотсон, Скарлетт Йоханссон и другими стали массово появляться на сайтах для взрослых — что привело к запретам такого неконсенсуального контента на платформах вроде Reddit, Twitter и Pornhub theguardian.com theverge.com.

Несмотря на эти ранние запреты, индустрия дипфейк-порно ушла в тень и продолжила расти. К концу 2019 года знаковый отчет компании по кибербезопасности Deeptrace показал, что 96% всех дипфейк-видео, циркулирующих в интернете, были порнографическими, неконсенсуальными заменами лиц, почти исключительно с женщинами-жертвами regmedia.co.uk. Четыре крупнейших сайта дипфейк-порно, изученных в отчете, собрали более 134 миллионов просмотров на видео, нацеленных на “сотни женщин-знаменитостей по всему миру.” regmedia.co.uk Этот дисбаланс был очевиден: жертвами были преимущественно женщины, а потребители — в подавляющем большинстве интересовались женщинами как сексуальными объектами. “99% дипфейк-сексуальных видео связаны с женщинами, обычно с женщинами-знаменитостями,” отметила профессор права Даниэль Ситрон, подчеркивая, что эти материалы “делают вас сексуальным объектом так, как вы не выбирали” nymag.com. “В порнографии нет ничего плохого, если вы выбрали это сами,” добавила Ситрон — ужас дипфейков в том, что эти женщины никогда не выбирали использовать свой облик в откровенных сценах nymag.com.

Изначально доминировали дипфейки со знаменитостями, но теперь все чаще жертвами становятся обычные люди. В январе 2023 года сообщество стримеров Twitch потряс скандал, когда популярный стример Брендон “Atrioc” Юинг случайно показал, что просматривал сайт дипфейк-порно, который продавал откровенные видео с женщинами-стримерами — подставляя их лица на тела порноактрис polygon.com. Женщины (некоторые из которых были личными подругами Atrioc) были потрясены и столкнулись с волнами травли, когда дипфейки стали достоянием общественности polygon.com. Одна из жертв, стример QTCinderella, выступила с эмоциональным заявлением, осудив это нарушение, а позже помогла организовать юридические усилия по удалению такого контента polygon.com polygon.com. “Twitch-дипфейк”-скандал показал, что не нужно быть голливудской звездой, чтобы с вами это случилось — любой человек, чьи изображения есть в интернете, потенциально уязвим для “раздевания” ИИ против своей воли.

Рост числа удобных для пользователя инструментов ИИ только ускорил эту тенденцию. В 2019 году приложение под названием DeepNude на короткое время стало вирусным благодаря использованию ИИ для «раздевания» фотографий женщин одним нажатием кнопки, создавая поддельные обнажённые изображения onezero.medium.com. Хотя создатель DeepNude закрыл его из-за общественного возмущения, джин уже вырвался из бутылки. К 2023–2025 годам открытые генераторы изображений (например, производные от Stable Diffusion) и специализированные сервисы дипфейков сделали тривиальным для любого, у кого есть несколько фотографий и минимальные технические навыки, создавать обнажённые или сексуальные изображения других людей. Некоторые форумы открыто обмениваются созданными ИИ обнажёнными изображениями женщин, взятыми из социальных сетей. Как пожаловалась одна жертва среди стримеров Twitch, обнаружив порнографические фейки с собой: «Это не имеет ко мне никакого отношения. И всё же это здесь с моим лицом.» theguardian.com Ощущение нарушения и беспомощности ощутимо среди тех, кто стал «цифровой жертвой».

Короче говоря, ИИ демократизировал возможность создавать порнографические фейки, и эта возможность была непропорционально использована против женщин. Теперь «мишенью» становятся не только знаменитости — это любой человек, от журналистов и активистов (которых могут преследовать с целью запугивания или дискредитации) до бывших партнёров и частных лиц (на которых нападают мстительные извращенцы или ради вымогательства). Появление таких функций, как Spicy mode в Grok — которые ставят официальную, удобную для пользователя печать на том, что раньше было подпольной практикой — свидетельствует о том, что NSFW-генеративный ИИ действительно вышел в мейнстрим, принеся с собой весь свой этический багаж.

Этические, правовые и социальные последствия порнографии, созданной ИИ

Этическое возмущение по поводу дипфейк-порнографии носит массовый характер. В своей основе создание или распространение сексуального контента о человеке без его согласия — это глубокое нарушение приватности, достоинства и автономии. Как утверждают Ситрон и другие этики, это не просто злоупотребление изображениями — это форма сексуальной эксплуатации. Жертвы описывают чувства «беспомощности, унижения и ужаса», зная, что незнакомцы (или обидчики) смотрят поддельные видео с их участием в сексуальных актах, которых они никогда не совершали. Это может быть виртуальной формой сексуального насилия, оставляющей длительную травму. Неудивительно, что основную тяжесть несут женщины и девушки: «Несогласованные интимные дипфейки» — это «актуальная, серьёзная и растущая угроза, непропорционально затрагивающая женщин», заключают исследователи sciencedirect.com.

В этом контенте также присутствует мизогинистический подтекст. Эксперты отмечают, что дипфейк-порно часто используется как оружие для унижения женщин, занимающих властные позиции или отвергающих чьи-то ухаживания. «Порно, созданное ИИ и подпитываемое мизогинией, наводняет интернет», — отмечает The Guardian на фоне скандала с дипфейками Тейлор Свифт theguardian.com. Сам акт раздевания женщины с помощью ИИ можно рассматривать как попытку «поставить её на место». «Это мужчины говорят сильной женщине вернуться в свою коробку», — так один из наблюдателей описал атмосферу вокруг инцидента со Свифт. Будь то анонимные тролли, создающие обнажённые изображения женщины-политика, или одержимый фанат, делающий фальшивые секс-видео с поп-звездой, посыл схожий — это форма цифровой объективации и запугивания.

Помимо индивидуального вреда, общественные последствия вызывают тревогу. Если кого угодно можно поместить в порнографию, визуальным медиа больше нельзя доверять. Дипфейки угрожают репутации и создают возможности для масштабного шантажа. Женщины, находящиеся в центре внимания, могут начать самоцензурироваться или уходить из онлайн-пространства из-за страха стать мишенью. Это также оказывает сдерживающее влияние на свободу слова: представьте журналистку, критикующую режим, которая становится героиней реалистичного фейкового секс-видео, распространяемого с целью её опозорить. В целом, нормализация «дизайнерского порно» с участием невольных жертв ставит вопросы о согласии, сексуальной эксплуатации и коммерциализации человеческого облика. Даже в случае согласия взрослых на съёмки, некоторые опасаются, что исполнители, созданные ИИ, могут заменить настоящих моделей — но когда эти ИИ-исполнители используют лица реальных людей, украденные из Facebook или Instagram, граница согласия явно нарушена.

Свобода слова против конфиденциальности: Существует напряжённость между теми, кто призывает запретить все порнографические дипфейки, и сторонниками свободы слова, обеспокоенными чрезмерным регулированием. Может ли дипфейк с участием знаменитости когда-либо считаться легитимной пародией или искусством? Теоретически да – сатира и пародия являются защищёнными формами выражения, даже при использовании образа публичных фигур. Некоторые защитники ИИ-технологий отмечают, что изменённые изображения публичных лиц давно являются частью популярной культуры (например, обложки журналов, отредактированные в Photoshop), утверждая, что импульсивная криминализация может подавить креативность. Однако даже большинство специалистов по свободе слова проводят черту на несогласованных сексуальных изображениях. Вред для личности настолько силён и личный, что, возможно, перевешивает любой общественный интерес. Юридические эксперты отмечают, что законы о клевете или домогательствах могут охватывать некоторые случаи, но не все. Существует растущий консенсус, что необходимы новые правовые гарантии, чтобы специально регулировать дипфейк-порнографию, не подрывая легитимное выражение мнения apnews.com apnews.com. Разработка таких законов – чтобы наказывать явные злоупотребления, не затрагивая сатиру или согласованную эротику – это задача, с которой сейчас сталкиваются законодатели apnews.com apnews.com.

Текущие события (на август 2025): от технологического отторжения к новым законам

Время, когда споры вокруг режима “Spicy” в Grok разгораются, совпадает с тем, что правительства и платформы по всему миру наконец начинают бороться с эпидемией интимных изображений, созданных ИИ. Вот некоторые из последних событий:

  • Национальное возмущение и активизм: Вирусные инциденты с участием Тейлор Свифт и других вызвали волну общественного негодования. Даже Белый дом США прокомментировал дипфейки со Свифт, как отмечалось, назвав их «тревожными» theguardian.com. Правозащитные организации, такие как Национальный центр по борьбе с сексуальной эксплуатацией, выступили с осуждением, обвиняя xAI Маска в «содействии сексуальной эксплуатации путем предоставления возможности создавать обнажённые изображения с помощью ИИ» и призывая удалить такие функции time.com. «xAI должен искать способы предотвращения сексуального насилия и эксплуатации», — заявила Хейли Макнамара из NCOSE, отражая более широкий призыв гражданского общества time.com.
  • Опросы показывают подавляющую общественную поддержку запретов: Недавние опросы показывают, что общественность решительно выступает за ужесточение регулирования. Согласно опросу Института политики в области искусственного интеллекта в январе 2025 года, 84% американцев поддерживают явный запрет на несанкционированную дипфейк-порнографию, а также хотят, чтобы компании, занимающиеся ИИ, «ограничивали [ИИ] модели, чтобы предотвратить их использование для создания дипфейк-порно» time.com. Аналогичный опрос Pew Research 2019 года показал, что около трех четвертей взрослых жителей США выступают за ограничения на цифрово изменённые видео/изображения time.com. Короче говоря, избиратели по всему спектру, похоже, хотят принять меры против этой формы злоупотреблений.
  • Новые законы и законопроекты: Законодатели услышали призыв. В США Закон Take It Down был подписан в мае 2025 года, став первым федеральным законом, направленным против дипфейк-порнографии time.com. Этот двухпартийный закон делает незаконным «умышленно публиковать или угрожать публикацией» интимных изображений без согласия — включая созданные ИИ дипфейки — и требует от платформ удалить такой контент в течение 48 часов после уведомления жертвы apnews.com apnews.com. Наказания суровы, и закон дает жертвам возможность быстро добиться удаления контента apnews.com apnews.com. «Мы должны предоставить жертвам онлайн-насилия необходимые правовые гарантии, особенно сейчас, когда дипфейки создают ужасающие новые возможности для злоупотреблений», — заявила сенатор Эми Клобушар, соавтор закона, назвав его «большой победой для жертв онлайн-насилия». apnews.com apnews.com Еще до принятия федерального закона более чем в 15 штатах США уже был запрещен создание или распространение откровенных дипфейков (часто путем обновления статей о «порномести»). Теперь формируется единый федеральный стандарт. Другие страны движутся в том же направлении. Правительство Великобритании, например, криминализировало распространение дипфейк-порнографии в своем законе о безопасности в интернете (вступил в силу в начале 2024 года) и продвигает законопроект о криминализации даже создания сексуально откровенных дипфейков без согласия hsfkramer.com hsfkramer.com. В январе 2025 года Великобритания вновь внесла предложение сделать создание дипфейк-нюдов незаконным, подчеркнув это как «знаковое событие для защиты женщин и девочек». hsfkramer.com hsfkramer.com Австралия приняла закон в 2024 году, запрещающий как создание, так и распространение дипфейк-сексуальных материалов, а Южная Корея пошла еще дальше, предложив криминализировать даже хранение или просмотр такого дипфейк-порно (не только его производство) hsfkramer.com. Глобальная тенденция очевидна: несогласованные ИИ-сексуальные изображения рассматриваются как преступление. Законодатели признают, что эти изображения «могут разрушить жизни и репутацию», как выразилась Клобучар apnews.com, и принимают меры — хотя правозащитные организации, такие как EFF, предупреждают, что плохо составленные законы могут привести к чрезмерной цензуре или злоупотреблениям apnews.com apnews.com.
  • Политика технологических платформ: Крупные технологические платформы начали обновлять свои политики (по крайней мере, на бумаге), чтобы решать проблему сексуального контента, созданного ИИ. Facebook, Instagram, Reddit и традиционный Twitter официально запрещают несанкционированные интимные изображения, включая дипфейки theguardian.com theverge.com. Pornhub и другие сайты для взрослых также ввели запрет на контент, созданный ИИ с участием реальных людей без их согласия, еще в 2018 году theguardian.com theverge.com. На практике соблюдение остается нерегулярным — решительный пользователь все еще может найти или распространить незаконные дипфейки на многих платформах. Однако есть признаки прогресса: например, после инцидента со Свифт X (Twitter) все же отреагировал, заблокировав поиск по ее имени, чтобы остановить распространение theguardian.com theguardian.com. Reddit не только запрещает дипфейк-порнографию, но и закрыл целые сообщества, которые обменивались такими материалами. YouTube и TikTok также имеют политику, запрещающую откровенные изображения, измененные с помощью ИИ. Проблема заключается в масштабе и обнаружении — именно здесь применяются новые технологии.
  • Обнаружение и меры защиты: Растущая индустрия технических решений стремится обнаруживать и удалять дипфейк-порнографию. AI-компании, такие как Sensity (ранее Deeptrace), и стартапы, такие как Ceartas, разрабатывают алгоритмы обнаружения, которые сканируют интернет на наличие лица человека в порнографическом контенте и отмечают совпадения polygon.com polygon.com. На самом деле, после скандала на Twitch, Atrioc сотрудничал с Ceartas, чтобы помочь пострадавшим стримерам: компания использовала свой ИИ для поиска дипфейк-контента с этими женщинами и подачи запросов на удаление по DMCA polygon.com polygon.com. OnlyFans, платформа, заинтересованная в защите создателей, также привлекла такие инструменты для контроля поддельного контента своих моделей polygon.com. Также ведется работа по внедрению водяных знаков или метаданных в изображения, созданные ИИ, чтобы помочь выявлять подделки, а также предлагается требовать криптографическую аутентификацию реальных изображений (чтобы изображения без маркировки считались поддельными). Кроме того, Закон ЕС об ИИ (согласован в 2024 году) содержит положения, согласно которым разработчики дипфейк-инструментов должны обеспечивать четкую маркировку результатов как созданных ИИ bioid.com. Несколько штатов США (и ЕС) рассматривают возможность введения обязательства сопровождать любой измененный ИИ контент раскрытием информации при публикации cjel.law.columbia.edu bioid.com. Хотя такие метки не остановят злоумышленников от их удаления, они представляют собой попытку установить нормы прозрачности в отношении синтетических медиа.
  • Платформа против X Маска: Стоит отметить, насколько необычен подход Маска с X и xAI. В то время как большинство платформ ужесточают ограничения, Маск фактически ослабил их, привлекая аудиторию, желающую получить «острые» возможности ИИ. X не только не запретил результаты Grok; это дом Grok. Такое расхождение поставило X в противоречие со многими экспертами. В августе 2024 года группа демократов-законодателей специально упомянула Grok Маска в письме к регуляторам, предупредив, что слабая политика в отношении дипфейков (включая откровенные дипфейки с такими фигурами, как Камала Харрис или Тейлор Свифт) может нанести ущерб выборам и не только time.com. Похоже, Маск делает ставку на то, что удовлетворение спроса на эротический контент, созданный ИИ (и даже ИИ-чат-компаньоны, которые флиртуют или раздеваются, как показывают новые функции xAI time.com), принесет доход и пользователей. Но ответная реакция — юридическая, социальная и, возможно, финансовая (из-за опасений рекламодателей) — в долгосрочной перспективе может рассказать другую историю.

Политические предложения и путь вперед: можно ли обуздать дипфейк-порнографию?

Общий вывод среди политиков и этиков заключается в том, что для борьбы с NSFW-контентом, созданным ИИ, необходимы многоуровневые меры. Ключевые предложения и идеи включают:

  • Более строгие законы и их исполнение: Как отмечалось выше, такие законы, как Take It Down Act, — это только начало. Эксперты предлагают дальнейшие уточнения, например, сделать сам факт создания фальшивого сексуального изображения человека без его согласия преступлением, а не только его распространение. (Великобритания движется в этом направлении hsfkramer.com hsfkramer.com.) Четкие юридические санкции для нарушителей — и для тех, кто сознательно размещает или получает прибыль от такого контента — могут служить сдерживающим фактором. Важно, чтобы любое законодательство было тщательно сформулировано, чтобы случайно не криминализировать согласованное эротическое искусство или легитимную политическую сатиру apnews.com apnews.com. Гражданско-правовые меры также крайне важны: жертвам нужны простые способы подать в суд на возмещение ущерба и получить судебные приказы на удаление контента. Многие активисты хотят видеть исключения из Раздела 230 (закона США, защищающего платформы от ответственности за пользовательский контент), чтобы сайты можно было привлекать к ответственности, если они не реагируют на запросы об удалении дипфейк-порнографии. Это заставит платформы быть гораздо более бдительными.
  • Технологические ограничители: Со стороны разработки предлагается, чтобы создатели ИИ-моделей изначально внедряли предотвращающие меры безопасности. Например, компании могли бы обучать фильтры контента распознавать, когда пользовательский запрос содержит имя или изображение реального человека, и блокировать любой откровенный результат, связанный с этим человеком. (Некоторые генераторы изображений на базе ИИ уже отказываются выполнять запросы, которые, по-видимому, касаются частных лиц, или создавать обнажённые изображения публичных фигур — Grok от xAI является исключением и этого не делает avclub.com.) Другая идея — требовать проверку согласия для откровенных генераций: например, сервис ИИ может создавать обнажённое изображение только в том случае, если пользователь докажет, что на нём изображён он сам или согласившаяся модель. Конечно, злоумышленники могут просто использовать открытые модели без таких фильтров, но если крупные платформы внедрят строгие ограничители, это может сдержать массовое распространение. Проверка возраста также вызывает беспокойство — единственной проверкой у Grok был легко обходимый запрос даты рождения gizmodo.com — поэтому звучат призывы к более надёжным возрастным ограничениям, чтобы несовершеннолетние (которые часто становятся жертвами травли через фейковые обнажённые фото) не могли использовать эти инструменты или быть изображёнными с их помощью.
  • Исследования и обнаружение: Правительства финансируют исследования по обнаружению дипфейков, а компании сотрудничают в разработке стандартов аутентификации медиа. Цель — упростить быструю идентификацию и удаление фейковой порнографии при её появлении. Однако обнаружение всегда будет игрой в кошки-мышки, поскольку ИИ-фейки становятся всё более сложными. Некоторые эксперты считают, что акцент стоит сместить на предотвращение вреда (через юридические санкции и просвещение), а не надеяться на технический «детектор фейков», который поймает всё. Тем не менее, достижения в ИИ на благо — например, улучшенное хеширование изображений для отслеживания известных фейков или инструменты для поиска случаев неправомерного использования своего изображения — сыграют роль в смягчении последствий.
  • Ответственность платформ: Правозащитные организации настаивают, что социальные сети и платформы для взрослых должны проактивно контролировать контент с ИИ-порнографией. Это может означать инвестиции в команды модераторов, умеющих выявлять дипфейки, сотрудничество с правоохранительными органами по запросам на удаление и блокировку рецидивистов, создающих или распространяющих несогласованный контент. Некоторые также призывают к созданию систем отказа или реестров, где люди могут зарегистрировать свою внешность (или своих детей), и платформы должны гарантировать, что никакой ИИ-контент с их изображением не допускается — хотя с административной точки зрения это будет сложно реализовать. Как минимум, протоколы быстрого реагирования — например, требование об удалении в течение 48 часов по закону США apnews.com — должны стать стандартной практикой на всех платформах по всему миру.
  • Образование и нормы: Наконец, часть решения заключается в изменении социальных норм. Так же, как общество в целом осудило «порноместь» и признало это формой насилия, есть надежда, что deepfake-порно станет повсеместно стигматизировано. Если обычный человек будет понимать вред и откажется распространять или потреблять такой контент, спрос уменьшится. Этики в сфере технологий подчеркивают важность медиаграмотности – обучения людей тому, что увиденное не всегда является правдой, и что провокационное фото Знаменитости X может быть подделкой. Очень важно дать молодому поколению инструменты для критического восприятия мира, наполненного медиа, изменёнными ИИ. Не менее важны кампании, информирующие потенциальных нарушителей о том, что создание таких фейков – не шутка, а серьёзное нарушение с возможными уголовными последствиями.

Заключение

Появление «Spicy Mode» в Grok подлило масла в уже бушующий костёр вокруг ИИ и откровенных deepfake-изображений. Инструмент ИИ Илона Маска, сделавший создание обнажённых двойников знаменитостей простым и даже «официальным», вызвал быструю волну негодования — и привлёк внимание к более широкой проблеме deepfake-порно. От залов Конгресса до веток комментариев на технических форумах всё больше людей соглашаются, что необходимо что-то предпринять, чтобы защитить людей (особенно женщин) от тёмных сторон этой технологии.

Как мы увидели, NSFW-контент, созданный ИИ, — это не единичная новинка, а нарастающая общественная проблема. Здесь сталкиваются творческая свобода и технологические инновации с вопросами приватности, согласия и безопасности. Джин уже выпущен из бутылки, но с помощью разумной политики, ответственной разработки технологий и культурных изменений мы можем надеяться ограничить вред. В ближайшие месяцы и годы, вероятно, появится больше судебных исков, новых законов и улучшенных средств защиты от ИИ. Grok Маска либо адаптируется под давлением, либо станет предостерегающим примером ИИ-проекта, проигнорировавшего этические границы и поплатившегося за это.

На данный момент посыл от экспертов и общества звучит однозначно: deepfake-порно — это черта, которую ИИ не должен переступать. И если такие компании, как xAI, не проведут эту черту сами, регуляторы и общество всё больше готовы сделать это за них. Как выразился один из защитников этики в технологиях: «Когда твоё изображение превращают в порно без согласия — это разрушительно. Пора относиться к этому как к серьёзному насилию, а не как к неизбежности технологий». Дебаты уже не о том, нужно ли действовать, а о том, насколько быстро и эффективно мы сможем обуздать сексуальную эксплуатацию с помощью ИИ, прежде чем очередная «острая» инновация разрушит ещё чью-то жизнь.

Источники:

  • Новак, Мэтт. «Spicy Mode Grok создаёт NSFW deepfake-изображения знаменитостей-женщин (но не мужчин).» Gizmodo, 6 августа 2025 г. gizmodo.com gizmodo.com.
  • Уэзербед, Джесс. “Настройка ‘Spicy’ в Grok мгновенно создала для меня дипфейки с обнажённой Тейлор Свифт.The Verge, 5 августа 2025 theverge.com.
  • Карр, Мэри Кейт. “Илон Маск практически умоляет о судебном иске от Тейлор Свифт из-за дипфейков с обнажёнкой от Grok AI.AV Club, 7 августа 2025 avclub.com avclub.com.
  • Санер, Эмин. “Внутри скандала с дипфейками Тейлор Свифт: ‘Это мужчины говорят влиятельной женщине вернуться на своё место’.The Guardian, 31 января 2024 theguardian.com theguardian.com.
  • Кларк, Николь. “Стример, спровоцировавший скандал с дипфейк-порно на Twitch, возвращается.Polygon, 16 марта 2023 polygon.com polygon.com.
  • Патрини, Джорджо. “Состояние дипфейков.” Отчёт Deeptrace Labs, окт. 2019 regmedia.co.uk.
  • Ситрон, Даниэль. Интервью в NYMag Intelligencer, окт. 2019 nymag.com.
  • Ортути, Барбара. “Президент Трамп подписал закон Take It Down, касающийся неконсенсуальных дипфейков. Что это такое?AP News, август 2025 apnews.com apnews.com.
  • Бурга, Солсайр. “Grok Илона Маска вскоре позволит пользователям создавать AI-видео, включая откровенного характера.TIME, август 2025 time.com time.com.
  • Юридическая фирма Herbert Smith Freehills. “Криминализация дипфейков — новые правонарушения в Великобритании…,” 21 мая 2024 hsfkramer.com hsfkramer.com.

Tags: