LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

„Pikanty” tryb AI Elona Muska wywołuje skandal z deepfake’ami NSFW – dlaczego kobiety są celem nowego kryzysu AI w pornografii

„Pikanty” tryb AI Elona Muska wywołuje skandal z deepfake’ami NSFW – dlaczego kobiety są celem nowego kryzysu AI w pornografii

Grok 4: Inside Elon Musk’s Most Powerful (and Controversial) AI Chatbot Yet

Nowe przedsięwzięcie AI Elona Muska jest krytykowane za generowanie niekonsensualnych nagich deepfake’ów celebrytów – i to w niepokojąco stronniczy pod względem płci sposób. Najnowsze śledztwo Gizmodo ujawnia, że narzędzie Muska Grok Imagine, z trybem „Spicy”, chętnie tworzy niecenzuralne filmy znanych kobiet (np. Taylor Swift czy Melania Trump), ale odmawia zrobienia tego samego w przypadku mężczyzn gizmodo.com gizmodo.com. Ten raport zagłębia się w ustalenia Gizmodo dotyczące kontrowersyjnej funkcji Groka, analizuje gwałtowny wzrost pornograficznych treści generowanych przez AI i deepfake’ów oraz bada implikacje etyczne, prawne i społeczne. Przeglądamy także aktualne wydarzenia na sierpień 2025 – od oburzenia opinii publicznej i ostrzeżeń ekspertów po nowe przepisy mające na celu ograniczenie AI „revenge porn”. Cel: zrozumieć, jak „Spicy Mode” stał się najnowszym punktem zapalnym w trwającym kryzysie niecenzuralnych treści AI i co można z tym zrobić.

„Spicy Mode” Groka – niecenzuralne deepfake’i i wbudowana stronniczość

Grok Imagine to generator obrazów i wideo firmy xAI (dostępny dla płacących subskrybentów na platformie X Muska) i co istotne, pozwala użytkownikom tworzyć treści dla dorosłych za pomocą trybu „Spicy” gizmodo.com. Podczas gdy główne narzędzia AI, takie jak Veo Google’a i Sora OpenAI, zakazują treści jednoznacznych lub z wizerunkiem celebrytów, tryb Spicy Groka aktywnie do tego zachęca avclub.com avclub.com. Testy The Verge wykazały, że AI „nie wahała się wygenerować w pełni ocenzurowanych topless wideo z Taylor Swift” już za pierwszym razem – nawet bez wyraźnej prośby o nagość theverge.com. Podobnie Deadline uznał, że niezwykle łatwo było nakłonić Groka do wygenerowania obrazu Scarlett Johansson pokazującej bieliznę avclub.com. W wyraźnym kontraście, próby wygenerowania męskiej nagości nie przynosiły efektu. Jak donosi Gizmodo, „tworzył naprawdę niecenzuralne obrazy tylko z kobietami. Wideo z mężczyznami to coś, co raczej nie wzbudziłoby większego zainteresowania.” gizmodo.com W praktyce, w trybie Spicy Groka mężczyzna może co najwyżej być bez koszulki, podczas gdy kobiety są przedstawiane topless lub całkowicie nago.

Ta rażąca podwójna moralność wzbudziła niepokój. Grok wygeneruje klip w stylu softcore porno z udziałem kobiecej postaci publicznej za jednym kliknięciem gizmodo.com, ale ten sam filtr „Spicy” najwyraźniej zatrzymuje się na samym toplessie w przypadku mężczyzn gizmodo.com. Matt Novak z Gizmodo spróbował nawet podać prompt z udziałem zwykłego, nieznanego mężczyzny i zwykłej kobiety: męski awatar niezręcznie ciągnął za spodnie, ale pozostał zakryty, podczas gdy kobiecy awatar od razu obnażył piersi gizmodo.com. Takie wyniki sugerują uprzedzenie ze względu na płeć zakorzenione w moderacji treści AI (czy to celowo, czy jako efekt uboczny treningu). Własna historia Muska związana z mizoginistycznymi uwagami – od nagłaśniania twierdzeń, że kobiety są „słabe” gizmodo.com po żarty o zapłodnieniu Taylor Swift – potęguje podejrzenia, że to uprzedzenie jest raczej cechą niż błędem gizmodo.com.

Możliwości i ograniczenia: Warto zauważyć, że deepfake’i Groka są często słabej jakości. Podobizny celebrytów, które generuje, są często nieprzekonujące lub mają błędy gizmodo.com gizmodo.com. (Na przykład obrazy mające przedstawiać aktorkę Sydney Sweeney lub polityka J.D. Vance’a w ogóle nie przypominały ich prawdziwego wyglądu gizmodo.com.) Dziwaczne błędy ciągłości – jak mężczyzna w filmie mający spodnie z niepasujących nogawek – są powszechne gizmodo.com. Grok automatycznie generuje także ogólną muzykę lub dźwięk w tle do każdego klipu, co potęguje surrealistyczny efekt „doliny niesamowitości” gizmodo.com. Te techniczne niedociągnięcia mogą być obecnie ratunkiem dla xAI, ponieważ naprawdę realistyczne nagie fałszerstwa znanych osób niemal na pewno wywołałyby pozwy i nakazy sądowe gizmodo.com. Jak żartował Gizmodo, najlepszą linią obrony Muska przed pozwami może być to, że „te obrazy nawet nie są podobne” do prawdziwych celebrytów gizmodo.com. Jednak technologia szybko się rozwija, a nawet te niedoskonałe deepfake’i są wystarczająco rozpoznawalne, by budzić niepokój avclub.com.

Reakcja publiczna: Wprowadzenie „Spicy Mode” natychmiast wywołało oburzenie w mediach społecznościowych i prasie. W ciągu kilku dni od uruchomienia Grok Imagine, X (Twitter) został zalany wygenerowanymi przez AI obrazami nagich kobiet, a użytkownicy chętnie dzielili się wskazówkami, jak uzyskać jak najwięcej nagości w swoich promptach gizmodo.com. To wywołało powszechną krytykę, że Musk de facto otworzył drzwi dla napędzanego przez AI molestowania seksualnego i wykorzystywania. „Większość treści Grok Imagine, które Musk udostępniał lub podawał dalej, to klipy przedstawiające generyczne, biuściaste blondynki lub kobiety w skąpych, fantastycznych strojach” – zauważył A.V. Club, podkreślając, że Musk wydaje się mieć zamiar wejść na teren Pornhuba avclub.com avclub.com. Blogerzy technologiczni i komentatorzy kpiąco sugerowali, że Musk „praktycznie błaga o pozew od Taylor Swift” z powodu automatycznie generowanych nagich zdjęć przez Grok avclub.com. Rzeczywiście, niektórzy komentatorzy nawoływali znane osoby, takie jak Swift, aby pozwały Muska do sądu i „uczyniły świat bezpieczniejszym dla innych kobiet i dziewcząt” avclub.com. Jak dotąd nie ma publicznych informacji o działaniach prawnych ze strony Swift lub innych – ale wezwania do rozliczenia stają się coraz głośniejsze.

Nawet poza kontrowersją wokół Groka, rok 2024 przyniósł ogromne publiczne oburzenie związane z pornografią generowaną przez AI na platformie X. W jednym z incydentów pornograficzne obrazy deepfake z Taylor Swift rozprzestrzeniały się masowo na platformie, a jedno fałszywe zdjęcie osiągnęło 47 milionów wyświetleń przed usunięciem theguardian.com. Fani masowo zgłaszali te obrazy, a nawet Biały Dom zabrał głos, nazywając sytuację „niepokojącą” theguardian.com. Przypadek Swift jest wyjątkowy jedynie ze względu na uwagę, jaką przyciągnął; niezliczone kobiety (znane i nieznane) widziały, jak ich wizerunki zostały przekształcone w treści o charakterze erotycznym, których platformy nie usuwają wystarczająco szybko theguardian.com theguardian.com. Publiczny gniew wokół tych incydentów – a teraz także wokół wbudowanego trybu NSFW w Groku – odzwierciedla rosnący konsensus, że narzędzia AI umożliwiające tworzenie seksualnych deepfake’ów przekraczają granice etyczne.

Gwałtowny wzrost treści NSFW i deepfake’ów generowanych przez AI

Afera wokół Groka to najnowszy rozdział niepokojącego trendu: pornografia generowana przez AI („deepfake porn”) gwałtownie się rozpowszechniła w ostatnich latach. Zjawisko to po raz pierwszy zyskało złą sławę w 2017 roku, gdy hobbyści na Reddicie zaczęli używać wczesnych algorytmów deep learning do podmieniania twarzy celebrytów na ciała aktorów porno. Do 2018 roku tzw. filmy „deepfake” z Gal Gadot, Emmą Watson, Scarlett Johansson i innymi zaczęły pojawiać się masowo na stronach dla dorosłych – co skłoniło platformy takie jak Reddit, Twitter i Pornhub do wprowadzenia zakazu tego typu niekonsensualnych treści theguardian.com theverge.com.

Pomimo tych wczesnych zakazów, przemysł deepfake pornografii przeniósł się do cienia i nadal rósł. Pod koniec 2019 roku przełomowy raport firmy zajmującej się cyberbezpieczeństwem Deeptrace wykazał, że 96% wszystkich deepfake’owych filmów krążących w internecie to pornograficzne, niekonsensualne zamiany twarzy, niemal wyłącznie z udziałem kobiet jako ofiar regmedia.co.uk. Cztery największe badane strony z deepfake pornografią zgromadziły ponad 134 miliony wyświetleń filmów wymierzonych w „setki celebrytek na całym świecie” regmedia.co.uk. Ta nierównowaga była uderzająca: ofiarami były przytłaczająco kobiety, a odbiorcy byli przytłaczająco zainteresowani kobietami jako obiektami seksualnymi. „99% deepfake’owych filmów erotycznych dotyczy kobiet, zazwyczaj celebrytek,” zauważyła profesor prawa Danielle Citron, podkreślając, że te kreacje „czynią cię obiektem seksualnym w sposób, którego nie wybrałaś” nymag.com. „Nie ma nic złego w pornografii, o ile sama ją wybierasz,” dodała Citron – przerażające w deepfake’ach jest to, że te kobiety nigdy nie wybrały, by ich wizerunek był używany w scenach erotycznych nymag.com.

Na początku dominowały deepfake’i z celebrytami, ale obecnie coraz częściej celem stają się zwykłe osoby. W styczniu 2023 roku społeczność streamerów Twitcha wstrząsnął skandal, gdy popularny streamer Brandon „Atrioc” Ewing przypadkowo ujawnił, że oglądał stronę z deepfake pornografią, która sprzedawała filmy erotyczne z udziałem streamerek – montując ich twarze na ciałach aktorek porno polygon.com. Kobiety (niektóre były prywatnymi znajomymi Atrioca) były zdruzgotane i spotkały się z falą nękania, gdy deepfake’i wyszły na jaw polygon.com. Jedna z ofiar, streamerka QTCinderella, wygłosiła płaczliwe oświadczenie potępiające naruszenie i później pomogła zorganizować działania prawne mające na celu usunięcie takich treści polygon.com polygon.com. Skandal „Twitch deepfake” podkreślił, że nie trzeba być gwiazdą Hollywood, by coś takiego cię spotkało – każda osoba, której zdjęcia są w internecie, jest potencjalnie narażona na „rozebranie” przez AI wbrew swojej woli.

Wzrost liczby przyjaznych użytkownikowi narzędzi AI tylko przyspieszył ten trend. W 2019 roku aplikacja o nazwie DeepNude na krótko stała się viralem, wykorzystując AI do „rozbierania” zdjęć kobiet za pomocą jednego kliknięcia, tworząc fałszywe nagie zdjęcia onezero.medium.com. Chociaż twórca DeepNude zamknął ją w obliczu publicznej krytyki, dżin już wydostał się z butelki. Do lat 2023–2025 otwartoźródłowe generatory obrazów (takie jak pochodne Stable Diffusion) i dedykowane serwisy deepfake sprawiły, że każdy, kto ma kilka zdjęć i minimalną wiedzę techniczną, może z łatwością tworzyć nagie lub seksualne wizerunki innych osób. Niektóre fora otwarcie wymieniają się wygenerowanymi przez AI nagimi zdjęciami kobiet pobranymi z mediów społecznościowych. Jak ubolewała jedna z ofiar, streamerka Twitch, po odkryciu pornograficznych fałszywek ze swoim wizerunkiem: „To nie ma ze mną nic wspólnego. A jednak to tutaj jest z moją twarzą.” theguardian.com Poczucie naruszenia i bezsilności jest wyraźnie odczuwalne wśród osób, które zostały „cyfrowo skrzywdzone”.

Krótko mówiąc, AI zdemokratyzowała możliwość tworzenia pornograficznych fałszywek, a ta zdolność została w nieproporcjonalny sposób użyta przeciwko kobietom. Nie tylko celebryci są na celowniku – to każdy, od dziennikarzy i aktywistów (którzy mogą być celem zastraszania lub dyskredytacji) po byłych partnerów i osoby prywatne (atakowane przez mściwych prześladowców lub w ramach szantażu). Pojawienie się funkcji takich jak tryb Spicy w Groku – który nadał oficjalny, przyjazny użytkownikowi charakter temu, co wcześniej było praktyką podziemną – sygnalizuje, że NSFW generatywna AI naprawdę weszła do głównego nurtu, ciągnąc za sobą cały bagaż etyczny.

Etyczne, prawne i społeczne implikacje pornografii generowanej przez AI

Oburzenie etyczne związane z deepfake pornografią jest powszechne. W istocie, tworzenie lub udostępnianie treści seksualnych z czyimś udziałem bez jego zgody to głębokie naruszenie prywatności, godności i autonomii. Jak argumentują Citron i inni etycy, to coś więcej niż nadużycie wizerunku – to forma wykorzystywania seksualnego. Ofiary opisują uczucia „bezsilności, upokorzenia i przerażenia”, wiedząc, że obcy (lub oprawcy) oglądają fałszywe filmy z ich udziałem w aktach seksualnych, których nigdy nie popełniły. Może to stanowić wirtualną formę napaści seksualnej, pozostawiając trwałą traumę. Nic dziwnego, że to kobiety i dziewczęta ponoszą największe konsekwencje: „Nielegalne, intymne deepfake’i” są „aktualnym, poważnym i narastającym zagrożeniem, które w nieproporcjonalny sposób dotyka kobiety”, podsumowują badacze sciencedirect.com.

Istnieje również mizoginistyczny podtekst w dużej części tych treści. Eksperci zauważają, że deepfake pornografię często wykorzystuje się jako broń do poniżania kobiet będących u władzy lub odrzucających czyjeś zaloty. „Pornografia generowana przez AI, napędzana mizoginią, zalewa internet” – zauważył The Guardian w związku z aferą deepfake’ów Taylor Swift theguardian.com. Sam akt rozbierania kobiety za pomocą AI można postrzegać jako próbę „postawienia jej na swoim miejscu”. „To mężczyźni mówiący silnej kobiecie, żeby wróciła do swojego pudełka” – tak jeden z obserwatorów opisał atmosferę wokół incydentu ze Swift. Niezależnie od tego, czy to anonimowi trolle produkujący nagie zdjęcia polityczki, czy obsesyjny fan tworzący fałszywe sekstaśmy gwiazdy pop, przekaz jest podobny – to forma cyfrowej uprzedmiotowienia i zastraszania.

Poza indywidualną krzywdą, społeczne implikacje są niepokojące. Jeśli każdego można umieścić w pornografii, nie można już ufać mediom wizualnym. Deepfake’i grożą masową skalą niszczenia reputacji i szantażu. Kobiety będące w centrum uwagi mogą się autocenzurować lub wycofywać z aktywności online w obawie przed atakiem. Występuje także efekt mrożący na wolność słowa: wyobraź sobie dziennikarkę krytykującą reżim, która staje się bohaterką realistycznego, fałszywego filmu pornograficznego rozsyłanego w celu jej skompromitowania. W szerszej perspektywie normalizacja „projektowanej pornografii” z udziałem osób nieświadomych i niezgadzających się na to rodzi pytania o zgodę, seksploatację i komercjalizację ludzkiego wizerunku. Nawet w przypadku konsensualnej rozrywki dla dorosłych, niektórzy obawiają się, że generowane przez AI postacie mogą zastąpić prawdziwe modelki – ale gdy te postacie AI mają prawdziwe twarze ludzi ukradzione z Facebooka czy Instagrama, granica zgody jest wyraźnie przekroczona.

Wolność słowa kontra prywatność: Istnieje napięcie pomiędzy tymi, którzy domagają się zakazania wszystkich pornograficznych deepfake’ów, a zwolennikami wolności słowa obawiającymi się nadmiernej ingerencji. Czy deepfake z udziałem celebryty mógłby być kiedykolwiek uznany za legalną parodię lub sztukę? Teoretycznie tak – satyra i parodia są chronionymi formami wyrazu, nawet jeśli wykorzystują wizerunek osób publicznych. Niektórzy obrońcy technologii AI zauważają, że przekształcone obrazy osób publicznych od dawna są częścią kultury popularnej (np. okładki magazynów przerabiane w Photoshopie), argumentując, że pochopna kryminalizacja mogłaby zahamować kreatywność. Jednak nawet większość badaczy wolności słowa wyznacza granicę przy niekonsensualnych przedstawieniach seksualnych. Szkoda wyrządzona jednostce jest tak intensywna i osobista, że prawdopodobnie przeważa nad interesem publicznym. Eksperci prawni wskazują, że prawo dotyczące zniesławienia lub nękania może obejmować niektóre przypadki, ale nie wszystkie. Coraz powszechniejszy jest konsensus, że potrzebne są nowe zabezpieczenia prawne, które będą konkretnie dotyczyć pornografii deepfake, nie podważając przy tym legalnej ekspresji apnews.com apnews.com. Odpowiednie skonstruowanie tych przepisów – tak, by karać oczywiste nadużycia, ale nie obejmować satyry czy erotyki za zgodą – to wyzwanie, z którym obecnie mierzą się decydenci apnews.com apnews.com.

Aktualne wydarzenia (stan na sierpień 2025): Od sprzeciwu wobec technologii do nowych przepisów

Kontrowersje wokół trybu „Spicy” w Groku pojawiają się w momencie, gdy rządy i platformy na całym świecie wreszcie zaczynają przeciwdziałać epidemii intymnych obrazów generowanych przez AI. Oto niektóre z najnowszych wydarzeń:

  • Ogólnonarodowe oburzenie i aktywizm: Wirusowe incydenty z udziałem Taylor Swift i innych zmobilizowały opinię publiczną. Nawet Biały Dom USA skomentował deepfake’i Swift, jak zauważono, nazywając je „niepokojącymi” theguardian.com. Organizacje rzecznicze, takie jak National Center on Sexual Exploitation, były bardzo stanowcze, potępiając xAI Muska za „pogłębianie wykorzystywania seksualnego poprzez umożliwienie tworzenia nagości w filmach AI” i wzywając do usunięcia takich funkcji time.com. „xAI powinno szukać sposobów zapobiegania nadużyciom seksualnym i wykorzystywaniu”, powiedziała Haley McNamara z NCOSE w oświadczeniu, odzwierciedlając szerszy nacisk ze strony społeczeństwa obywatelskiego time.com.
  • Sondaże pokazują ogromne poparcie społeczne dla zakazów: Najnowsze badania pokazują, że społeczeństwo zdecydowanie opowiada się za surowszymi regulacjami. W styczniu 2025 roku sondaż Artificial Intelligence Policy Institute wykazał, że 84% Amerykanów popiera uczynienie niekonsensualnej pornografii deepfake wyraźnie nielegalną, a podobnie chcą, aby firmy AI „ograniczały [modele AI], by zapobiec ich wykorzystaniu do tworzenia deepfake’owej pornografii.” time.com. Podobnie sondaż Pew Research z 2019 roku wykazał, że około trzy czwarte dorosłych Amerykanów opowiada się za ograniczeniami dotyczącymi cyfrowo zmienianych filmów/obrazów time.com. Krótko mówiąc, wyborcy z całego spektrum wydają się oczekiwać działań przeciwko tej formie nadużyć.
  • Nowe ustawy i projekty ustaw: Ustawodawcy usłyszeli wezwanie. W USA ustawa Take It Down została podpisana w maju 2025 roku, co stanowi pierwsze federalne przepisy wymierzone w pornografię deepfake time.com. Ta ponadpartyjna ustawa czyni nielegalnym „świadome publikowanie lub grożenie publikacją” intymnych zdjęć bez zgody – w tym deepfake’ów stworzonych przez AI – i wymaga od platform usunięcia takiego materiału w ciągu 48 godzin od zgłoszenia przez ofiarę apnews.com apnews.com. Kary są surowe, a ustawa umożliwia ofiarom szybkie usunięcie treści apnews.com apnews.com. „Musimy zapewnić ofiarom nadużyć w internecie ochronę prawną, której potrzebują, zwłaszcza teraz, gdy deepfake’i tworzą przerażające nowe możliwości nadużyć,” powiedziała senator Amy Klobuchar, współautorka ustawy, nazywając ją „wielkim zwycięstwem dla ofiar nadużyć w internecie.” apnews.com apnews.com Jeszcze przed ustawą federalną, ponad 15 stanów USA zakazało tworzenia lub rozpowszechniania wyraźnych deepfake’ów (często poprzez aktualizację przepisów dotyczących „pornografii zemsty”). Teraz wyłania się jednolity federalny standard. Inne kraje działają równolegle. Rząd Wielkiej Brytanii, na przykład, uznał za przestępstwo udostępnianie pornografii deepfake w ustawie o bezpieczeństwie w internecie (obowiązującej od początku 2024 roku) i pracuje nad przepisami kryminalizującymi nawet tworzenie seksualnie wyraźnych deepfake’ów bez zgody hsfkramer.com hsfkramer.com. W styczniu 2025 roku Wielka Brytania ponownie przedstawiła propozycję uznania tworzenia nagich deepfake’ów za nielegalne, podkreślając to jako „przełomowy krok w ochronie kobiet i dziewcząt.” <a href=”https://www.hsfkramer.com/notes/tmt/2024-05/criminalising-deepfakes-the-uks-new-offences-following-the-online-safety-act#:~:text=Further%20update%3A%20On%207%20January,Act%2020hsfkramer.com hsfkramer.com Australia w 2024 roku uchwaliła ustawę zakazującą zarówno tworzenia, jak i dystrybucji deepfake’ów o charakterze seksualnym, a Korea Południowa posunęła się nawet do zaproponowania penalizacji samego posiadania lub oglądania takiej deepfake’owej pornografii (nie tylko jej produkcji) hsfkramer.com. Globalny trend jest jasny: niekonsensualne obrazy seksualne tworzone przez AI są postrzegane jako przestępstwo. Ustawodawcy przyznają, że takie obrazy „mogą zrujnować życie i reputację”, jak ujęła to Klobuchar apnews.com, i podejmują działania – choć organizacje broniące wolności słowa, takie jak EFF, ostrzegają, że źle napisane prawo może prowadzić do nadmiernej cenzury lub być nadużywane apnews.com apnews.com.
  • Zasady platform technologicznych: Główne platformy technologiczne zaczęły aktualizować swoje zasady (przynajmniej na papierze), aby przeciwdziałać treściom seksualnym tworzonym przez AI. Facebook, Instagram, Reddit i tradycyjny Twitter oficjalnie zakazują niekonsensualnych intymnych obrazów, w tym deepfake’ów theguardian.com theverge.com. Pornhub i inne strony dla dorosłych również wprowadziły zakazy dotyczące treści generowanych przez AI z udziałem prawdziwych osób bez ich zgody już w 2018 roku theguardian.com theverge.com. W praktyce egzekwowanie tych zasad pozostaje nierówne – zdeterminowany użytkownik wciąż może znaleźć lub udostępnić nielegalne deepfake’i na wielu platformach. Jednak pojawiają się oznaki postępu: na przykład po incydencie ze Swift, X (Twitter) ostatecznie zareagował, blokując wyszukiwania jej imienia, aby powstrzymać rozprzestrzenianie się treści theguardian.com theguardian.com. Reddit nie tylko zakazuje deepfake’owego porno, ale zamknął całe społeczności, które wymieniały się takimi materiałami. YouTube i TikTok również mają zasady zakazujące AI-manipulowanych obrazów o charakterze erotycznym. Wyzwanie stanowi skala i wykrywanie – i tu właśnie stosuje się nowe technologie.
  • Wykrywanie i zabezpieczenia: Rosnąca branża technologicznych rozwiązań ma na celu wykrywanie i usuwanie deepfake’owej pornografii. Firmy AI, takie jak Sensity (dawniej Deeptrace) oraz startupy jak Ceartas, opracowują algorytmy wykrywające, które przeszukują internet w poszukiwaniu twarzy danej osoby w treściach pornograficznych i oznaczają zgodności polygon.com polygon.com. W rzeczywistości, po skandalu na Twitchu, Atrioc nawiązał współpracę z Ceartas, aby pomóc poszkodowanym streamerkom: firma wykorzystała swoje AI do zlokalizowania deepfake’owych treści z udziałem tych kobiet i złożenia wniosków o usunięcie na podstawie DMCA polygon.com polygon.com. OnlyFans, platforma szczególnie zainteresowana ochroną twórców, również wdrożyła takie narzędzia do monitorowania fałszywych treści dotyczących swoich modelek polygon.com. Trwają także prace nad osadzaniem znaków wodnych lub metadanych w obrazach generowanych przez AI, aby ułatwić identyfikację fałszywek, a także pojawiają się propozycje wprowadzenia wymogu kryptograficznego uwierzytelniania prawdziwych obrazów (tak aby obrazy bez oznaczenia uznawać za fałszywe). Ponadto, unijna ustawa o AI (przyjęta w 2024 roku) zawiera przepisy, zgodnie z którymi deweloperzy narzędzi deepfake muszą zapewnić, że ich wyniki są wyraźnie oznaczone jako wygenerowane przez AI bioid.com. Kilka stanów USA (oraz UE) rozważa wprowadzenie obowiązku, by każda treść zmodyfikowana przez AI była opatrzona odpowiednim oznaczeniem przy publikacji cjel.law.columbia.edu bioid.com. Choć takie etykiety nie powstrzymają złośliwych osób przed ich usuwaniem, stanowią próbę ustanowienia norm przejrzystości wokół mediów syntetycznych.
  • Platforma vs. X Muska: Warto podkreślić, jak nietypowe jest podejście Muska do X i xAI. Podczas gdy większość platform zaostrza ograniczenia, Musk zasadniczo je poluzował, przyciągając użytkowników pragnących „kontrowersyjnych” możliwości AI. X nie tylko nie zakazał wyników Groka; to właśnie tam Grok ma swój dom. Ta rozbieżność postawiła X w opozycji do wielu ekspertów. W sierpniu 2024 roku grupa demokratycznych ustawodawców powołała się konkretnie na Groka Muska w liście do regulatorów, ostrzegając, że luźne zasady dotyczące deepfake’ów (w tym tych przedstawiających postacie takie jak Kamala Harris czy Taylor Swift w sposób jednoznaczny) mogą siać spustoszenie podczas wyborów i poza nimi time.com. Wygląda na to, że Musk stawia na zaspokojenie popytu na erotykę generowaną przez AI (a nawet czatowych towarzyszy AI, którzy flirtują lub się rozbierają, jak pokazują nowe funkcje xAI time.com), co ma przynieść przychody i użytkowników. Jednak reakcja zwrotna – prawna, społeczna i potencjalnie finansowa (ze strony reklamodawców) – może w dłuższej perspektywie wyglądać zupełnie inaczej.

Propozycje polityczne i dalsza droga: czy możemy powstrzymać deepfake’ową pornografię?

Zgodnie z konsensusem wśród decydentów i etyków, potrzebne są wielotorowe działania, by poradzić sobie z NSFW treściami generowanymi przez AI. Kluczowe propozycje i pomysły obejmują:

  • Silniejsze prawo i egzekwowanie: Jak wspomniano, ustawy takie jak Take It Down Act to dopiero początek. Eksperci sugerują dalsze doprecyzowania, takie jak uznanie tworzenia fałszywego wizerunku seksualnego osoby bez jej zgody za przestępstwo, a nie tylko jego rozpowszechnianie. (W tym kierunku zmierza Wielka Brytania hsfkramer.com hsfkramer.com.) Jasne sankcje prawne dla sprawców – oraz dla tych, którzy świadomie hostują lub czerpią zyski z takich treści – mogą działać odstraszająco. Co ważne, każde ustawodawstwo musi być precyzyjnie określone, by nie doprowadzić przypadkowo do kryminalizacji konsensualnej erotyki artystycznej lub legalnej satyry politycznej apnews.com apnews.com. Istotne są także środki cywilne: ofiary muszą mieć łatwe możliwości dochodzenia odszkodowań i uzyskania nakazów sądowych usunięcia treści. Wielu zwolenników chce, by pojawiły się wyłączenia w Sekcji 230 (amerykańskie prawo chroniące platformy przed odpowiedzialnością za treści użytkowników), tak by strony internetowe mogły być pociągnięte do odpowiedzialności, jeśli nie reagują na żądania usunięcia deepfake’owej pornografii. To zmusiłoby platformy do znacznie większej czujności.
  • Zasady technologiczne: Po stronie rozwoju pojawiają się propozycje, aby twórcy modeli AI wbudowywali zabezpieczenia zapobiegawcze. Na przykład firmy mogłyby szkolić filtry treści, aby wykrywały, gdy zapytanie użytkownika dotyczy prawdziwego imienia lub wizerunku osoby i blokowały wszelkie wyjście o charakterze explicit dotyczącym tej osoby. (Niektóre generatory obrazów AI już odmawiają realizacji zapytań, które wydają się odnosić do osób prywatnych lub generować nagość osób publicznych – Grok firmy xAI jest wyjątkiem, który tego nie robi avclub.com.) Innym pomysłem jest wprowadzenie weryfikacji zgody dla generowania treści explicit: np. usługa AI mogłaby wygenerować nagi obraz tylko wtedy, gdy użytkownik udowodni, że przedstawioną osobą jest on sam lub model wyrażający zgodę. Oczywiście, osoby o złych intencjach mogą po prostu używać modeli open-source bez takich filtrów, ale jeśli główne platformy przyjmą rygorystyczne zasady, może to ograniczyć rozprzestrzenianie się tego zjawiska w głównym nurcie. Weryfikacja wieku to także kwestia – jedyną kontrolą w Groku było łatwe do obejścia pytanie o datę urodzenia gizmodo.com – dlatego pojawiają się wezwania do wprowadzenia bardziej solidnych zabezpieczeń wiekowych, aby nieletni (którzy często są celem nękania poprzez fałszywe nagie zdjęcia) nie mogli korzystać z tych narzędzi ani być przez nie przedstawiani.
  • Badania i wykrywanie: Rządy finansują badania nad wykrywaniem deepfake’ów, a firmy współpracują nad standardami uwierzytelniania mediów. Celem jest ułatwienie szybkiej identyfikacji i usuwania fałszywej pornografii, gdy się pojawi. Jednak wykrywanie zawsze będzie wyścigiem zbrojeń, ponieważ fałszywki AI stają się coraz bardziej zaawansowane. Niektórzy eksperci uważają, że należy skupić się na zapobieganiu szkodom (poprzez sankcje prawne i edukację), zamiast liczyć na techniczne „wykrywacze fałszywek”, które wychwycą wszystko. Mimo to postępy w AI dla dobra – takie jak lepsze haszowanie obrazów do śledzenia znanych fałszywek czy narzędzia umożliwiające osobom prywatnym sprawdzenie, czy ich wizerunek został wykorzystany bez zgody – odegrają rolę w ograniczaniu szkód.
  • Odpowiedzialność platform: Organizacje rzecznicze apelują, by platformy społecznościowe i strony z treściami dla dorosłych musiały proaktywnie monitorować treści pornograficzne generowane przez AI. Może to oznaczać inwestowanie w zespoły moderacji treści wyspecjalizowane w wykrywaniu deepfake’ów, współpracę z organami ścigania przy nakazach usunięcia oraz banowanie recydywistów tworzących lub udostępniających materiały bez zgody. Niektórzy postulują także systemy rejestracji lub opt-out, w których osoby mogą zarejestrować swój wizerunek (lub swoich dzieci), a platformy muszą zapewnić, że żadne treści AI ich nie przedstawiają – choć administracyjnie byłoby to trudne do egzekwowania. Co najmniej szybkie procedury reagowania – jak wymóg usunięcia w ciągu 48 godzin w amerykańskim prawie apnews.com – powinny stać się standardem na wszystkich platformach na świecie.
  • Edukacja i normy społeczne: Ostatecznie część rozwiązania leży w zmianie norm społecznych. Tak jak społeczeństwo zaczęło powszechnie potępiać „pornografię zemsty” i uznawać ją za formę przemocy, istnieje nadzieja, że deepfake pornografia zostanie powszechnie napiętnowana. Jeśli przeciętna osoba zrozumie szkodliwość i odmówi udostępniania lub konsumowania takich treści, popyt zmaleje. Etycy technologii podkreślają znaczenie edukacji medialnej – uczenia ludzi, że to, co widzą, nie zawsze jest prawdą, a pikantne zdjęcie Gwiazdy X może być fałszywe. Wzmocnienie młodszych pokoleń w krytycznym poruszaniu się po świecie mediów zmienionych przez AI będzie kluczowe. Równie ważne będą kampanie informujące potencjalnych sprawców, że tworzenie takich fałszywek to nie żart – to poważne naruszenie, które może mieć konsekwencje karne.

Podsumowanie

Pojawienie się „Spicy Mode” w Groku dolało oliwy do ognia w już i tak gorącej debacie wokół AI i pornografii deepfake. Narzędzie AI Elona Muska, umożliwiając łatwe, a nawet „oficjalne” generowanie nagich sobowtórów celebrytów, wywołało natychmiastową krytykę – i zwróciło uwagę na szerszy kryzys deepfake pornografii. Od sal Kongresu po wątki na forach technologicznych rośnie zgoda, że trzeba coś zrobić, by chronić jednostki (zwłaszcza kobiety) przed mrocznymi zastosowaniami tej technologii.

Jak widzieliśmy, treści NSFW generowane przez AI to nie odosobniona nowinka – to narastające wyzwanie społeczne. Ściera się tu wolność twórcza i innowacja technologiczna z prywatnością, zgodą i bezpieczeństwem. Dżin nie wróci już do butelki, ale dzięki mądrej polityce, odpowiedzialnemu rozwojowi technologii i zmianom kulturowym możemy mieć nadzieję na ograniczenie szkód. Nadchodzące miesiące i lata przyniosą zapewne więcej pozwów, więcej przepisów i lepsze zabezpieczenia AI. Grok Muska może albo dostosować się pod presją, albo stać się przestrogą dla przedsięwzięć AI, które zignorowały granice etyczne na własne ryzyko.

Na razie przekaz od ekspertów i opinii publicznej jest jednoznaczny: deepfake pornografia to granica, której AI nie może przekroczyć. A jeśli firmy takie jak xAI same jej nie wyznaczą, regulatorzy i społeczeństwo są coraz bardziej gotowi zrobić to za nie. Jak ujęła to jedna z działaczek na rzecz etyki technologii, „Przerobienie twojego wizerunku na pornografię bez zgody jest druzgocące – najwyższy czas, by traktować to jako poważną przemoc, a nie nieunikniony skutek rozwoju technologii.” Debata nie dotyczy już tego, czy potrzebne są działania, lecz jak szybko i skutecznie możemy powstrzymać seksualną eksploatację napędzaną przez AI, zanim kolejne osoby zostaną dotknięte przez następną „pikantną” innowację.

Źródła:

  • Novak, Matt. „Tryb ‘Spicy’ w Groku tworzy NSFW deepfake’i celebrytek (ale nie celebrytów).Gizmodo, 6 sierpnia 2025 gizmodo.com gizmodo.com.
  • Weatherbed, Jess. „Ustawienie wideo ‘Spicy’ w Groku natychmiast stworzyło mi deepfake’i Taylor Swift nago.The Verge, 5 sierpnia 2025 theverge.com.
  • Carr, Mary Kate. „Elon Musk praktycznie błaga o pozew od Taylor Swift za deepfake’i nago z Grok AI.AV Club, 7 sierpnia 2025 avclub.com avclub.com.
  • Saner, Emine. „Wewnątrz skandalu z deepfake’ami Taylor Swift: ‘To mężczyźni mówiący potężnej kobiecie, żeby wróciła na swoje miejsce’.The Guardian, 31 stycznia 2024 theguardian.com theguardian.com.
  • Clark, Nicole. „Streamer, który wywołał skandal z deepfake’owym porno na Twitchu, wraca.Polygon, 16 marca 2023 polygon.com polygon.com.
  • Patrini, Giorgio. „Stan deepfake’ów.” Raport Deeptrace Labs, październik 2019 regmedia.co.uk.
  • Citron, Danielle. Wywiad w NYMag Intelligencer, październik 2019 nymag.com.
  • Ortutay, Barbara. „Prezydent Trump podpisuje ustawę Take It Down, dotyczącą niekonsensualnych deepfake’ów. Co to jest?AP News, sierpień 2025 apnews.com apnews.com.
  • Burga, Solcyre. “Grok Elona Muska wkrótce pozwoli użytkownikom tworzyć filmy AI, w tym o charakterze explicit.TIME, sierpień 2025 time.com time.com.
  • Herbert Smith Freehills Law Firm. “Kryminalizacja deepfake’ów – nowe przestępstwa w Wielkiej Brytanii…,” 21 maja 2024 hsfkramer.com hsfkramer.com.

Tags: , ,