Elon Muskův „pikantní“ režim AI vyvolal skandál s NSFW deepfaky – proč jsou ženy terčem nové krize AI porna

Nový AI projekt Elona Muska čelí kritice za generování nevyžádaných nahých deepfake snímků celebrit – a to znepokojivě genderově zaujatým způsobem. Nedávné vyšetřování serveru Gizmodo odhaluje, že Muskův nástroj Grok Imagine s funkcí „Spicy“ ochotně vytváří NSFW videa slavných žen (například Taylor Swift nebo Melanie Trump), ale odmítá totéž udělat u mužů gizmodo.com gizmodo.com. Tato zpráva se zabývá zjištěními Gizmoda ohledně kontroverzní funkce Groku, zkoumá rychlý nárůst pornografického obsahu generovaného AI a deepfake videí a rozebírá etické, právní a společenské důsledky. Také mapujeme aktuální vývoj k srpnu 2025 – od veřejného pobouření a varování expertů po nové zákony zaměřené na omezení AI „revenge porn“. Cílem je pochopit, jak se „Spicy Mode“ stal dalším ohniskem krize NSFW AI obsahu a co se s tím dá dělat.
„Spicy Mode“ Groku – NSFW deepfaky a zabudovaná zaujatost
Grok Imagine je generátor obrázků a videí od xAI (dostupný platícím předplatitelům na platformě X Elona Muska) a je pozoruhodné, že umožňuje uživatelům vytvářet obsah pro dospělé prostřednictvím režimu „Spicy“ gizmodo.com. Zatímco běžné AI nástroje jako Google Veo a OpenAI Sora zakazují explicitní nebo celebritní obrázky, Spicy režim Groku to aktivně podporuje avclub.com avclub.com. Testování serveru The Verge ukázalo, že AI „neváhala vyplivnout zcela necenzurovaná topless videa Taylor Swift“ hned na první pokus – aniž by byla výslovně požádána o nahotu theverge.com. Podobně server Deadline zjistil, že je triviálně snadné nechat Grok vygenerovat obrázek Scarlett Johansson, jak ukazuje své spodní prádlo avclub.com. Naopak pokusy vytvořit mužskou nahotu nikam nevedly. Jak uvádí Gizmodo, „skutečně nevhodné pro práci byly jen obrázky zobrazující ženy. Videa mužů byla taková, že by sotva někoho pohoršila.“ gizmodo.com. V praxi může Spicy režim Groku zobrazit muže maximálně bez trička, zatímco ženy jsou vykresleny nahoře bez nebo zcela nahé.
Tato do očí bijící dvojí metr vyvolal poplach. Grok vygeneruje softcore porno klip ve stylu známé ženy na jedno kliknutí gizmodo.com, ale stejný „Spicy“ filtr zjevně končí u pouhé nahé hrudi u mužů gizmodo.com. Matt Novak z Gizmoda dokonce zkusil zadat generického, neznámého muže oproti generické ženě: mužský avatar si rozpačitě tahal za kalhoty, ale zůstal zahalený, zatímco ženský avatar okamžitě odhalil prsa gizmodo.com. Takové výsledky naznačují genderovou zaujatost zabudovanou v moderaci obsahu AI (ať už úmyslně, nebo jako vedlejší produkt jejího tréninku). Muskova vlastní historie misogynních poznámek – od zesilování tvrzení, že ženy jsou „slabé“ gizmodo.com až po vtipkování o oplodnění Taylor Swift – posiluje podezření, že tato zaujatost je spíše vlastností než chybou gizmodo.com.Schopnosti a omezení: Stojí za zmínku, že deepfaky Groku jsou často nekvalitní. Podoba celebrit, kterou vytváří, je často nepřesvědčivá nebo chybná gizmodo.com gizmodo.com. (Například obrázky, které měly zobrazovat herečku Sydney Sweeney nebo politika J.D. Vance, se vůbec nepodobaly jejich skutečné podobě gizmodo.com.) Bizarní chyby v kontinuitě – například muž s nesourodými nohavicemi v jednom videu – jsou běžné gizmodo.com. Grok také automaticky generuje generickou hudbu na pozadí nebo zvuk pro každý klip, což přispívá k surrealistickému „efektu uncanny valley“ gizmodo.com. Tyto technické nedostatky mohou být v tuto chvíli spásou pro xAI, protože skutečně realistické nahé padělky slavných osobností by téměř jistě vyvolaly soudní spory a soudní příkazy gizmodo.com. Jak poznamenal Gizmodo, Muskova nejlepší obrana proti právním krokům může být, že „ty obrázky se ani zdaleka nepodobají“ skutečným celebritám gizmodo.com. Ale technologie se rychle zlepšuje a i tyto nedokonalé deepfaky jsou dostatečně rozpoznatelné, aby byly znepokojující avclub.com.
Reakce veřejnosti: Zavedení „Spicy Mode“ okamžitě vyvolalo pobouření na sociálních sítích i v tisku. Během několika dnů po spuštění Grok Imagine bylo X (Twitter) zaplaveno AI-generovanými obrázky nahých žen, přičemž uživatelé si nadšeně vyměňovali tipy, jak ve svých zadáních maximalizovat nahotu gizmodo.com. To vyvolalo širokou kritiku, že Musk v podstatě otevřel stavidla AI-poháněnému sexuálnímu obtěžování a zneužívání. „Většina obsahu Grok Imagine, který Musk sdílel nebo repostoval, jsou klipy generických prsatých blondýn nebo žen v odhalujících fantasy kostýmech,“ poznamenal A.V. Club a dodal, že se zdá, že Musk má v úmyslu konkurovat Pornhubu avclub.com avclub.com. Tech blogeři a komentátoři posměšně naznačují, že Musk „prakticky žadoní o žalobu od Taylor Swift“ kvůli Grokovým automaticky generovaným nahotinám avclub.com. Někteří komentátoři dokonce vyzývají známé osobnosti jako Swift, aby zažalovaly Muska a „učinily svět bezpečnějším pro ostatní ženy a dívky“ avclub.com. Zatím neexistují žádné veřejné náznaky právních kroků ze strany Swift nebo jiných – ale volání po odpovědnosti sílí.
I mimo kontroverze kolem Groku vyvolal rok 2024 velkou veřejnou vlnu nevole kvůli AI-generovanému pornu na platformě X. V jednom incidentu se deepfake pornografické snímky Taylor Swift masivně rozšířily na této platformě, přičemž jedna falešná fotografie získala 47 milionů zhlédnutí před jejím odstraněním theguardian.com. Fanoušci se ve velkém mobilizovali k nahlášení těchto snímků a dokonce i Bílý dům se k situaci vyjádřil a označil ji za „znepokojující“ theguardian.com. Případ Swiftové je výjimečný pouze pozorností, kterou získal; nespočet žen (slavných i neznámých) se stal obětí zneužití své podoby v explicitním obsahu, který platformy nedokážou rychle odstranit theguardian.com theguardian.com. Veřejný hněv kolem těchto incidentů – a nyní i kolem vestavěného NSFW režimu Groku – odráží rostoucí shodu, že AI nástroje umožňující sexuální deepfaky překračují etické hranice.
Rychlý nárůst AI-generovaného NSFW obsahu a deepfaků
Epizoda s Grokem je poslední kapitolou znepokojivého trendu: AI-generované porno („deepfake porno“) v posledních letech explodovalo v četnosti. Tento fenomén se poprvé proslavil v roce 2017, kdy nadšenci na Redditu začali používat rané algoritmy hlubokého učení k nasazování tváří celebrit na těla pornoherců. Do roku 2018 se takzvaná „deepfake“ videa s Gal Gadot, Emmou Watson, Scarlett Johansson a dalšími šířila na pornografických stránkách – což vedlo platformy jako Reddit, Twitter a Pornhub k zákazu takového nevyžádaného obsahu theguardian.com theverge.com.
Navzdory těmto raným zákazům se průmysl deepfake porna přesunul do stínu a nadále rostl. Koncem roku 2019 zjistila průlomová zpráva kyberbezpečnostní firmy Deeptrace, že 96 % všech deepfake videí kolujících online bylo pornografických, nevyžádaných face-swapů, téměř výhradně s ženskými oběťmi regmedia.co.uk. Čtyři největší deepfake porno weby, které byly zkoumány, nasbíraly přes 134 milionů zhlédnutí na videích zaměřených na „stovky ženských celebrit po celém světě.“ regmedia.co.uk Tato nerovnováha byla zřejmá: oběťmi byly drtivě ženy a spotřebitelé měli drtivý zájem o ženy jako sexuální objekty. „99 % deepfake sexuálních videí zahrnuje ženy, obvykle ženské celebrity,“ poznamenala profesorka práva Danielle Citron a zdůraznila, jak tyto výtvory „dělají z vás sexuální objekt způsoby, které jste si nevybrali“ nymag.com. „Na pornografii není nic špatného, pokud jste si ji vybrali sami,“ dodala Citron – hrůza deepfake videí spočívá v tom, že tyto ženy si nikdy nevybraly, aby byla jejich podoba použita v explicitních scénách nymag.com.Zpočátku dominovaly deepfaky celebrit, ale nyní jsou stále častěji terčem obyčejní lidé. V lednu 2023 otřásl komunitou streamerů na Twitchi skandál, když populární streamer Brandon „Atrioc“ Ewing omylem odhalil, že navštěvoval deepfake porno web, který prodával explicitní videa ženských streamerek – jejichž tváře byly upraveny na těla pornohereček polygon.com. Ženy (některé z nich byly Atriocovy osobní kamarádky) byly zdrcené a čelily vlnám obtěžování, když deepfaky vyšly najevo polygon.com. Jedna z obětí, streamerka QTCinderella, vydala dojemné prohlášení odsuzující toto narušení a později pomohla organizovat právní kroky k odstranění takového obsahu polygon.com polygon.com. Skandál „Twitch deepfake“ ukázal, že nemusíte být hollywoodská hvězda, aby se vám to stalo – kdokoli, kdo má své obrázky online, je potenciálně zranitelný vůči tomu, že ho AI „svlékne“ proti jeho vůli.
Vzestup uživatelsky přívětivých AI nástrojů tento trend jen urychlil. V roce 2019 se aplikace DeepNude na krátkou dobu stala virální díky tomu, že pomocí AI „svlékala“ fotografie žen na jedno kliknutí a vytvářela falešné nahotiny onezero.medium.com. Přestože tvůrce DeepNude aplikaci po vlně veřejné kritiky zrušil, džin už byl z láhve venku. V letech 2023–2025 je díky open-source generátorům obrázků (jako jsou deriváty Stable Diffusion) a specializovaným deepfake službám triviální, aby kdokoli s několika fotografiemi a minimálními technickými znalostmi mohl vytvářet nahé nebo sexuální snímky jiných osob. Některá fóra otevřeně obchodují s AI-generovanými nahotami žen staženými ze sociálních sítí. Jak si postěžovala jedna oběť, streamerka z Twitch, poté co objevila pornografické padělky sebe samé: „Tohle se mě vůbec netýká. A přesto je to tady s mým obličejem.“ theguardian.com Pocit narušení a bezmoci je mezi těmi, kdo byli „digitálně obětí“, hmatatelný.
Stručně řečeno, AI zdemokratizovala schopnost vytvářet pornografické padělky a tato schopnost byla nepoměrně často zneužívána proti ženám. Nejsou to jen celebrity, kdo je „fér terčem“ – je to kdokoli, od novinářek a aktivistek (které mohou být cíleny kvůli zastrašování nebo diskreditaci) po bývalé partnery a soukromé osoby (terčem pomstychtivých jedinců nebo vyděračských schémat). Zavedení funkcí jako Spicy mode v Groku – které daly oficiální, uživatelsky přívětivou pečeť tomu, co bylo dříve podzemní praktikou – signalizuje, že NSFW generativní AI skutečně vstoupila do hlavního proudu a přináší s sebou veškerou etickou zátěž.
Etické, právní a společenské důsledky AI-generovaného porna
Etické pobouření nad deepfake pornem je široce rozšířené. V jádru vytváření nebo sdílení sexuálního obsahu někoho bez jeho souhlasu je hlubokým narušením soukromí, důstojnosti a autonomie. Jak tvrdí Citron a další etici, nejde jen o zneužití obrazu – je to forma sexuálního vykořisťování. Oběti popisují pocity „bezmoci, ponížení a hrůzy“, když vědí, že cizí lidé (nebo agresoři) sledují falešná videa, na kterých vystupují v sexuálních aktech, které nikdy neudělaly. Může to představovat virtuální formu sexuálního napadení, která zanechává trvalé trauma. Není překvapením, že nejvíce trpí ženy a dívky: „Nesouhlasné intimní deepfaky“ jsou „aktuální, závažnou a rostoucí hrozbou, která nepoměrně dopadá na ženy,“ uzavírají výzkumníci sciencedirect.com.
V mnoha těchto obsazích je také patrný misogynní podtón. Odborníci upozorňují, že deepfake porno je často používáno jako zbraň k ponižování žen, které jsou v mocenských pozicích nebo které odmítají něčí návrhy. „AI-generované porno, poháněné misogynií, zaplavuje internet,“ poznamenal The Guardian uprostřed aféry s deepfaky Taylor Swift theguardian.com. Samotný akt svlečení ženy pomocí AI lze vnímat jako pokus „ukázat jí její místo“. „Jsou to muži, kteří říkají mocné ženě, aby se vrátila do své krabičky,“ jak popsal atmosféru incidentu se Swift jedním z pozorovatelů. Ať už jde o anonymní trolly, kteří vytvářejí nahé snímky političky, nebo posedlého fanouška, který vyrábí falešná sexuální videa popové hvězdy, sdělení je podobné – jde o formu digitálního zneužití a zastrašování.
Kromě individuální újmy jsou společenské důsledky znepokojivé. Pokud může být kdokoli vložen do pornografie, nelze již věřit vizuálním médiím. Deepfaky ohrožují pověst a umožňují vydírání ve velkém měřítku. Ženy na veřejnosti se mohou začít autocenzurovat nebo se stáhnout z online prostoru ze strachu, že se stanou terčem. Dochází také k ochlazení svobody projevu: představte si novinářku kritickou vůči režimu, která se stane předmětem realistického falešného sexuálního videa šířeného za účelem její diskreditace. Celkově vzato, normalizace „designového porna“ s neochotnými účastníky vyvolává otázky ohledně souhlasu, sexuálního zneužívání a komodifikace lidské podoby. I v případě konsensuální zábavy pro dospělé se někteří obávají, že AI-generovaní herci by mohli nahradit skutečné modely – ale když tyto AI postavy mají skutečné tváře lidí ukradené z Facebooku nebo Instagramu, hranice souhlasu je zjevně překročena.
Svoboda projevu vs. soukromí: Existuje napětí mezi těmi, kdo volají po zákazu veškerých pornografických deepfaků, a zastánci svobody projevu, kteří se obávají přílišného zásahu. Mohl by být deepfake celebrit někdy považován za legitimní parodii nebo umění? Teoreticky ano – satira a parodie jsou chráněným projevem, i když využívají podobu veřejných osobností. Někteří obhájci AI technologií poukazují na to, že upravené obrázky veřejných osobností jsou již dlouho součástí populární kultury (např. upravené obálky časopisů), a tvrdí, že unáhlená kriminalizace by mohla potlačit kreativitu. I většina odborníků na svobodu projevu však stanovuje hranici u nepovolených sexuálních zobrazení. Újma pro jednotlivce je natolik intenzivní a osobní, že pravděpodobně převáží jakýkoli veřejný zájem. Právní experti upozorňují, že zákony o pomluvě nebo obtěžování mohou pokrýt některé případy, ale ne všechny. Roste shoda na tom, že jsou zapotřebí nové právní záruky, které by se konkrétně zabývaly deepfake pornografií, aniž by podkopávaly legitimní projevy apnews.com apnews.com. Vytvořit takové zákony přesně – aby trestaly jasné zneužití, ale nezahrnovaly satiru nebo souhlasnou erotiku – je výzva, se kterou se nyní zákonodárci potýkají apnews.com apnews.com.
Aktuální vývoj (k srpnu 2025): Od odporu vůči technologiím k novým zákonům
kontroverze kolem „kořeněného“ režimu Groku přichází v době, kdy vlády a platformy po celém světě konečně začínají bojovat s epidemií AI-generovaných intimních snímků. Zde jsou některé z nejnovějších událostí:
- Národní pobouření a aktivismus: Virální incidenty zahrnující Taylor Swift a další podnítily veřejné mínění. Dokonce i Bílý dům USA se vyjádřil k deepfakům se Swift, jak bylo uvedeno, označil je za „znepokojující“ theguardian.com. Advokační skupiny jako National Center on Sexual Exploitation se hlasitě ozývají, odsuzují xAI od Muska za „podporu sexuálního vykořisťování umožněním tvorby nahoty pomocí AI videí“ a vyzývají k odstranění těchto funkcí time.com. „xAI by mělo hledat způsoby, jak zabránit sexuálnímu zneužívání a vykořisťování,“ uvedla Haley McNamara z NCOSE ve svém prohlášení, což odráží širší tlak občanské společnosti time.com.
- Průzkumy ukazují drtivou podporu zákazům: Nedávné průzkumy ukazují, že veřejnost je pevně na straně přísnější regulace. Průzkum Artificial Intelligence Policy Institute z ledna 2025 zjistil, že 84 % Američanů podporuje, aby bylo nevyžádané deepfake porno výslovně nezákonné, a podobně chtějí, aby AI společnosti „omezily [AI] modely, aby zabránily jejich použití k tvorbě deepfake porna.“ time.com. Průzkum Pew Research z roku 2019 rovněž zjistil, že přibližně tři čtvrtiny dospělých v USA podporují omezení digitálně upravených videí/obrázků time.com. Stručně řečeno, voliči napříč spektrem zjevně chtějí kroky proti této formě zneužívání.
- Nové zákony a návrhy zákonů: Zákonodárci vyslyšeli volání. V USA byl zákon Take It Down Act podepsán v květnu 2025, což znamená první federální legislativu zaměřenou na deepfake pornografii time.com. Tento bipartisanský zákon zakazuje „vědomě zveřejnit nebo vyhrožovat zveřejněním“ intimních snímků bez souhlasu – včetně deepfake vytvořených pomocí AI – a vyžaduje, aby platformy takový materiál odstranily do 48 hodin od oznámení oběti apnews.com apnews.com. Tresty jsou přísné a zákon dává obětem možnost rychle odstranit obsah apnews.com apnews.com. „Musíme obětem online zneužívání poskytnout právní ochranu, kterou potřebují, zvláště nyní, když deepfaky vytvářejí děsivé nové příležitosti ke zneužívání,“ uvedla senátorka Amy Klobuchar, spolupředkladatelka zákona, která jej označila za „velké vítězství pro oběti online zneužívání.“ apnews.com apnews.com Ještě před federálním zákonem více než 15 amerických států zakázalo vytváření nebo šíření explicitních deepfake (často aktualizací zákonů proti „pomstě pornem“). Nyní se objevuje jednotný federální standard. Další země postupují podobně. Britská vláda například kriminalizovala sdílení deepfake pornografie ve svém zákoně o online bezpečnosti (účinný od začátku roku 2024) a prosazuje legislativu, která by kriminalizovala i samotné vytváření sexuálně explicitních deepfake bez souhlasu hsfkramer.com hsfkramer.com. V lednu 2025 Spojené království znovu předložilo návrh na kriminalizaci vytváření deepfake nahotin, což zdůraznilo jako „přelomový krok v ochraně žen a dívek.“ <a href=“https://www.hsfkramer.com/notes/tmt/2024-05/criminalising-deepfakes-the-uks-new-offences-following-the-online-safety-act#:~:text=Further%20update%3A%20On%207%20January,Act%2020hsfkramer.com hsfkramer.com Austrálie v roce 2024 přijala zákon zakazující jak tvorbu, tak šíření deepfake sexuálního materiálu, a Jižní Korea dokonce navrhla kriminalizovat i samotné vlastnictví nebo sledování takového deepfake porna (nejen jeho výrobu) hsfkramer.com. Celosvětový trend je jasný: nepovolené AI sexuální obrázky jsou považovány za trestný čin. Zákonodárci uznávají, že tyto obrázky „mohou zničit životy a pověsti,“ jak uvedla Klobucharová apnews.com, a podnikají kroky – i když organizace na ochranu svobody projevu jako EFF varují, že špatně napsané zákony by mohly vést k nadměrné cenzuře nebo zneužití apnews.com apnews.com.
- Zásady platforem technologií: Hlavní technologické platformy začaly aktualizovat své zásady (alespoň na papíře), aby řešily sexuální obsah vytvořený pomocí AI. Facebook, Instagram, Reddit a tradiční Twitter oficiálně zakazují nesouhlasné intimní snímky, včetně deepfakes theguardian.com theverge.com. Pornhub a další stránky pro dospělé také zavedly zákazy AI-generovaného obsahu zobrazujícího skutečné osoby bez souhlasu již v roce 2018 theguardian.com theverge.com. V praxi však vymáhání zůstává nedostatečné – odhodlaný uživatel stále může na mnoha platformách najít nebo sdílet nelegální deepfakes. Existují však známky pokroku: například po incidentu se Swift společnost X (Twitter) nakonec zareagovala tím, že zablokovala vyhledávání jejího jména, aby zastavila šíření theguardian.com theguardian.com. Reddit nejenže zakazuje deepfake porno, ale také zrušil celé komunity, které s takovým materiálem obchodovaly. YouTube a TikTok mají také zásady zakazující AI-manipulované explicitní obrázky. Výzvou je rozsah a detekce – a právě zde se uplatňují nové technologie.
- Detekce a ochranná opatření: Rostoucí odvětví technologických řešení si klade za cíl detekovat a odstraňovat deepfake porno. AI firmy jako Sensity (dříve Deeptrace) a startupy jako Ceartas vyvíjejí detekční algoritmy, které prohledávají internet a hledají tvář konkrétní osoby v pornografickém obsahu a označují shody polygon.com polygon.com. Po skandálu na Twitchi se Atrioc dokonce spojil s Ceartas, aby pomohl napadeným streamerům: společnost použila svou AI k nalezení deepfake obsahu těchto žen a podala žádosti o odstranění na základě DMCA polygon.com polygon.com. OnlyFans, platforma, která má zájem na ochraně tvůrců, také využívá takové nástroje k monitorování falešného obsahu svých modelek polygon.com. Probíhají také práce na vkládání vodoznaků nebo metadat do AI-generovaných obrázků, aby bylo možné falešné snímky identifikovat, a také návrhy na povinné kryptografické ověřování skutečných obrázků (takže neoznačené obrázky by bylo možné považovat za falešné). Evropská unie navíc ve svém AI Actu (dohodnutém v roce 2024) zahrnuje ustanovení, že vývojáři deepfake nástrojů musí zajistit, aby výstupy byly jasně označeny jako AI-generované bioid.com. Několik amerických států (a EU) zvažuje povinnost, aby jakýkoli AI-upravený obsah byl při zveřejnění doprovázen sdělením o úpravě cjel.law.columbia.edu bioid.com. Ačkoli takové označení nezabrání škodlivým aktérům v jejich odstranění, představují snahu nastavit normy transparentnosti kolem syntetických médií.
- Platforma vs. Muskovo X: Stojí za to zdůraznit, jak neobvyklý je Muskův přístup s X a xAI. Zatímco většina platforem zpřísňuje omezení, Musk je v podstatě uvolnil a oslovuje uživatelskou základnu, která si přeje „drsnější“ schopnosti AI. X nejenže nezakázalo výstupy Groku; je domovem Groku. Tento rozpor postavil X do rozporu s mnoha odborníky. V srpnu 2024 skupina demokratických zákonodárců konkrétně zmínila Muskův Grok v dopise regulátorům, kde varovala, že laxní politika ohledně deepfaků (včetně explicitních deepfaků osob jako Kamala Harris nebo Taylor Swift) může způsobit chaos ve volbách i mimo ně time.com. Zdá se, že Musk sází na to, že uspokojení poptávky po AI-generované erotice (a dokonce i AI chatovacích společnících, kteří flirtují nebo se svlékají, jak ukazují nové funkce xAI time.com) přinese příjmy a uživatele. Ale odpor – právní, společenský a potenciálně finanční (kvůli obavám inzerentů) – může z dlouhodobého hlediska vyprávět jiný příběh.
Návrhy politik a další postup: Lze omezit deepfake porno?
Shoda mezi tvůrci politik a etiky je, že je potřeba vícestranný přístup k řešení AI-generovaného NSFW obsahu. Klíčové návrhy a myšlenky zahrnují:
- Přísnější zákony a vymáhání: Jak bylo uvedeno, zákony jako Take It Down Act jsou začátek. Odborníci navrhují další upřesnění, například učinit vytvoření falešného sexuálního obrázku někoho bez jeho souhlasu trestným činem, nejen jeho šíření. (Velká Británie se tímto směrem ubírá hsfkramer.com hsfkramer.com.) Jasné právní postihy pro pachatele – a pro ty, kteří vědomě hostují nebo profitují z takového obsahu – mohou působit jako odstrašující prostředek. Důležité je, aby jakákoli legislativa byla pečlivě vymezena, aby se neúmyslně nekriminalizovalo konsensuální erotické umění nebo legitimní politická satira apnews.com apnews.com. Důležité jsou také občanskoprávní prostředky: oběti potřebují snadné možnosti, jak žalovat o odškodnění a získat soudní příkazy k odstranění obsahu. Mnoho zastánců chce vidět výjimky v Section 230 (americký zákon chránící platformy před odpovědností za obsah uživatelů), aby webové stránky mohly být činěny odpovědnými, pokud nereagují na žádosti o odstranění deepfake porna. To by vyvíjelo tlak na platformy, aby byly mnohem ostražitější.
- Technologické mantinely: Na straně vývoje návrhy naznačují, že tvůrci AI modelů by měli zabudovat preventivní ochranná opatření. Například společnosti by mohly trénovat filtry obsahu tak, aby rozpoznaly, když uživatelský požadavek zahrnuje jméno nebo podobu skutečné osoby, a zablokovaly jakýkoli explicitní výstup týkající se této osoby. (Některé AI generátory obrázků již odmítají požadavky, které se zdají odkazovat na soukromé osoby nebo vytvářet nahotu veřejných osobností – Grok od xAI je výjimkou, která to nedělá avclub.com.) Dalším nápadem je vyžadovat ověření souhlasu pro explicitní generování: např. AI služba by mohla vygenerovat nahý obrázek pouze tehdy, pokud uživatel prokáže, že subjekt je on sám nebo souhlasící model. Samozřejmě, zlomyslní uživatelé by mohli jednoduše použít open-source modely bez těchto filtrů, ale pokud hlavní platformy zavedou přísné mantinely, mohlo by to omezit rozšíření v hlavním proudu. Ověření věku je také problém – jedinou kontrolou u Groku byl snadno obejitelný dotaz na datum narození gizmodo.com – proto se volá po robustnějším věkovém omezení, aby se zajistilo, že nezletilí (kteří jsou často terčem šikany prostřednictvím falešných nahotin) nemohou tyto nástroje používat ani být jimi zobrazováni.
- Výzkum a detekce: Vlády financují výzkum detekce deepfake obsahu a společnosti spolupracují na standardech pro ověřování médií. Cílem je usnadnit rychlou identifikaci a odstranění falešné pornografie, když se objeví. Detekce však bude vždy honičkou kočky s myší, protože AI podvrhy se stále zdokonalují. Někteří odborníci se domnívají, že by se pozornost měla přesunout k prevenci škod (prostřednictvím právních postihů a vzdělávání), místo spoléhání na technický „detektor falešných“ schopný zachytit vše. Přesto pokroky v AI pro dobro – například lepší hashování obrázků pro sledování známých podvrhů nebo nástroje pro jednotlivce, jak zjistit, zda byl jejich obrázek zneužit – budou hrát roli při zmírňování problému.
- Odpovědnost platforem: Osvětové skupiny vyzývají, aby sociální sítě a platformy s obsahem pro dospělé musely proaktivně kontrolovat AI pornografický obsah. To by mohlo znamenat investice do týmů pro moderaci obsahu, které jsou schopné rozpoznat deepfaky, spolupráci s orgány činnými v trestním řízení na příkazech k odstranění a zákaz opakovaných pachatelů, kteří vytvářejí nebo sdílejí nesouhlasný materiál. Někteří také volají po zavedení systémů odhlášení nebo registru, kde by jednotlivci mohli registrovat svou podobu (nebo svých dětí) a platformy by musely zajistit, že žádný AI obsah je nezobrazí – i když administrativně by to bylo obtížné vymáhat. Minimálně by měly být standardem rychlé reakční protokoly – například požadavek na odstranění do 48 hodin podle amerického zákona apnews.com – na všech platformách po celém světě.
- Vzdělávání a normy: Část řešení nakonec spočívá ve změně společenských norem. Stejně jako společnost začala široce odsuzovat „revenge porn“ a uznávat jej jako formu zneužívání, doufá se, že deepfake porn bude univerzálně stigmatizováno. Pokud běžný člověk pochopí škodlivost a odmítne takový obsah sdílet nebo konzumovat, poptávka klesne. Etici v oblasti technologií zdůrazňují důležitost mediální gramotnosti – učit lidi, že ne vše, co vidí, je pravda, a že pikantní fotografie Celebrity X může být falešná. Posílení mladších generací, aby se kriticky orientovaly ve světě médií upravených umělou inteligencí, bude klíčové. Stejně tak budou důležité kampaně, které potenciálním pachatelům vysvětlí, že vytváření těchto falešných materiálů není vtip – je to vážné porušení s možnými trestními důsledky.
Závěr
Vznik „Spicy Mode“ v Groku přilil olej do již tak rozhořelého ohně kolem umělé inteligence a sexuálně explicitních deepfakeů. Nástroj Elona Muska, který usnadňuje a dokonce „oficiálně“ umožňuje generovat nahé napodobeniny celebrit, vyvolal rychlou vlnu odporu – a zároveň upozornil na širší krizi deepfake pornografie. Od kongresových sálů po diskusní fóra o technologiích roste shoda, že je třeba něco udělat, aby byli jednotlivci (zejména ženy) chráněni před temnými stránkami této technologie.
Jak jsme viděli, NSFW obsah generovaný AI není ojedinělá kuriozita – je to narůstající společenská výzva. Staví tvůrčí svobodu a technologické inovace proti soukromí, souhlasu a bezpečí. Džin se už do láhve nevrátí, ale díky chytré politice, odpovědnému vývoji technologií a kulturní změně můžeme doufat v omezení škod. V následujících měsících a letech pravděpodobně přibude více soudních sporů, zákonů a vylepšených AI ochran. Grok od Muska se možná pod tlakem přizpůsobí, nebo se stane varovným příkladem AI projektu, který ignoroval etické hranice ke své škodě.
Zatím je poselství od odborníků i veřejnosti jasné: deepfake porn je hranice, kterou AI nesmí překročit. A pokud ji společnosti jako xAI samy nevymezí, regulátoři a společnost jsou stále více připraveni ji stanovit za ně. Jak řekl jeden zastánce etiky v technologiích, „Když je vaše podoba bez souhlasu použita v pornu, je to devastující – je nejvyšší čas, abychom to brali jako vážné zneužití, a ne jako nevyhnutelný důsledek technologií.“ Debata už není o tom, zda je třeba jednat, ale o tom, jak rychle a účinně dokážeme zkrotit sexuální zneužívání poháněné AI, než další životy převrátí naruby další „pikantní“ inovace.
Zdroje:
- Novak, Matt. „Grokův ‘Spicy’ režim vytváří NSFW deepfaky celebrit – žen (ale ne mužů).“ Gizmodo, 6. srpna 2025 gizmodo.com gizmodo.com.
- Weatherbed, Jess. „Grokova funkce ‘Spicy’ pro videa mi okamžitě vytvořila deepfaky Taylor Swift bez oblečení.“ The Verge, 5. srpna 2025 theverge.com.
- Carr, Mary Kate. „Elon Musk si prakticky říká o žalobu Taylor Swift kvůli deepfakům nahoty vytvořeným Grok AI.“ AV Club, 7. srpna 2025 avclub.com avclub.com.
- Saner, Emine. „Uvnitř skandálu s deepfaky Taylor Swift: ‘Jsou to muži, kteří říkají mocné ženě, aby se vrátila zpět do své krabice’.“ The Guardian, 31. ledna 2024 theguardian.com theguardian.com.
- Clark, Nicole. „Streamer, který rozpoutal skandál s deepfake pornem na Twitchi, se vrací.“ Polygon, 16. března 2023 polygon.com polygon.com.
- Patrini, Giorgio. „Stav deepfaků.“ Zpráva Deeptrace Labs, říjen 2019 regmedia.co.uk.
- Citron, Danielle. Rozhovor v NYMag Intelligencer, říjen 2019 nymag.com.
- Ortutay, Barbara. „Prezident Trump podepisuje zákon Take It Down, který řeší nevyžádané deepfaky. O co jde?“ AP News, srpen 2025 apnews.com apnews.com.
- Burga, Solcyre. „Grok Elona Muska brzy umožní uživatelům vytvářet AI videa, včetně těch explicitní povahy.“ TIME, srpen 2025 time.com time.com.
- Advokátní kancelář Herbert Smith Freehills. „Kriminalizace deepfaků – nové trestné činy ve Spojeném království…,“ 21. května 2024 hsfkramer.com hsfkramer.com.