„Pikantný“ AI režim Elona Muska vyvolal škandál s NSFW deepfake videami – Prečo sú ženy terčom novej AI porno krízy

Nový AI projekt Elona Muska čelí kritike za generovanie nevyžiadaných nahých deepfake obrázkov celebrít – a to znepokojivo rodovo zaujatým spôsobom. Nedávne vyšetrovanie Gizmodo odhaľuje, že Muskova Grok Imagine aplikácia so svojím režimom „Spicy“ ochotne vytvára NSFW videá slávnych žien (napríklad Taylor Swift alebo Melania Trump), ale odmieta to isté urobiť pre mužov gizmodo.com gizmodo.com. Táto správa sa zaoberá zisteniami Gizmodo o kontroverznej funkcii Groku, skúma rýchly nárast AI-generovaného pornografického obsahu a deepfake videí a rozoberá etické, právne a spoločenské dôsledky. Zároveň mapujeme aktuálny vývoj k augustu 2025 – od verejného pobúrenia a varovaní expertov až po nové zákony zamerané na obmedzenie AI „revenge pornografie“. Cieľ: pochopiť, ako sa „Spicy Mode“ stal najnovším ohniskom prebiehajúcej krízy NSFW AI obsahu a čo sa s tým dá robiť.
Grokov „Spicy Mode“ – NSFW deepfaky a zabudovaná zaujatosť
Grok Imagine je generátor obrázkov a videí od xAI (dostupný pre platiacich predplatiteľov na platforme X Elona Muska) a výrazne umožňuje používateľom vytvárať obsah pre dospelých cez režim „Spicy“ gizmodo.com. Zatiaľ čo hlavné AI nástroje ako Google Veo a OpenAI Sora zakazujú explicitné alebo celebrity obrázky, Spicy režim Groku ich aktívne podporuje avclub.com avclub.com. Testovanie od The Verge ukázalo, že AI „neváhala vyprodukovať úplne necenzurované videá hore bez s Taylor Swift“ na prvý pokus – a to aj bez požiadavky na nahotu theverge.com. Podobne Deadline zistil, že bolo triviálne jednoduché nechať Grok vygenerovať obrázok Scarlett Johansson, ako ukazuje spodnú bielizeň avclub.com. Naopak, pokusy o vytvorenie mužskej nahoty nikam neviedli. Ako uvádza Gizmodo, „skutočne nevhodné pre prácu boli len tie, ktoré zobrazovali ženy. Videá s mužmi boli také, že by naozaj málokoho pohoršili.“ gizmodo.com V praxi môže Spicy režim Groku zobraziť muža nanajvýš bez trička, zatiaľ čo ženy sú vykreslené hore bez alebo úplne nahé.
Tento očividný dvojitý meter vyvolal poplach. Grok vygeneruje klip v štýle softcore porna so ženskou verejnou osobnosťou na jedno kliknutie gizmodo.com, ale ten istý filter „Spicy“ zjavne končí už pri obyčajnej nahote do pol pása u mužov gizmodo.com. Matt Novak z Gizmoda dokonca skúšal zadať generického, neznámeho muža oproti generickej žene: mužský avatar si trápne poťahoval nohavice, ale zostal zahalený, zatiaľ čo ženský avatar okamžite odhalil prsia gizmodo.com. Takéto výsledky naznačujú rodovú zaujatosť zabudovanú v moderovaní obsahu AI (či už úmyselne alebo ako vedľajší produkt jej trénovania). Samotná Muskova minulosť s mizogýnnymi poznámkami – od šírenia tvrdení, že ženy sú „slabé“ gizmodo.com až po vtipkovanie o oplodnení Taylor Swift – len posilňuje podozrenie, že táto zaujatosť je skôr vlastnosťou než chybou systému gizmodo.com.
Schopnosti a obmedzenia: Stojí za zmienku, že deepfaky od Groku sú často nekvalitné. Podoby celebrít, ktoré vytvára, sú často nepresvedčivé alebo chybné gizmodo.com gizmodo.com. (Napríklad obrázky, ktoré mali zobrazovať herečku Sydney Sweeney alebo politika J.D. Vancea, sa vôbec nepodobali na ich skutočné ja gizmodo.com.) Bizarné chyby v kontinuitách – napríklad muž s nesúrodými nohavicami v jednom videu – sú bežné gizmodo.com. Grok tiež automaticky generuje generickú hudbu na pozadí alebo zvuk ku každému klipu, čo ešte viac umocňuje zvláštnu „uncanny valley“ atmosféru gizmodo.com. Tieto technické nedostatky môžu byť záchranou pre xAI v tejto chvíli, keďže skutočne realistické nahé falzifikáty známych osobností by takmer určite vyvolali súdne spory a súdne príkazy gizmodo.com. Ako poznamenal Gizmodo, Muskova najlepšia obrana proti právnym krokom môže byť, že „obrázky sa ani len nepribližujú“ skutočným celebritám gizmodo.com. No technológia sa rýchlo zlepšuje a aj tieto nedokonalé deepfaky sú dostatočne rozpoznateľné na to, aby boli znepokojujúce avclub.com.
Verejná reakcia: Zavedenie „Spicy Mode“ okamžite vyvolalo pobúrenie na sociálnych sieťach a v tlači. Už v priebehu niekoľkých dní po spustení Grok Imagine bolo X (Twitter) zaplavené AI-generovanými obrázkami nahých žien, pričom používatelia si nadšene vymieňali tipy, ako maximalizovať nahotu vo svojich promptoch gizmodo.com. To vyvolalo rozsiahlu kritiku, že Musk v podstate otvoril stavidlá AI-poháňanému sexuálnemu obťažovaniu a zneužívaniu. „Mnoho obsahu Grok Imagine, ktorý Musk zdieľal alebo repostoval, sú klipy generických bujných blondín alebo žien v odhaľujúcich fantasy kostýmoch,“ poznamenal A.V. Club a dodal, že sa zdá, že Musk má v úmysle konkurovať Pornhubu avclub.com avclub.com. Technologickí blogeri a komentátori posmešne naznačili, že Musk „prakticky žobre o žalobu od Taylor Swift“ kvôli Grokovým automaticky generovaným nahotinám avclub.com. Niektorí komentátori dokonca vyzvali známe osobnosti ako Swift, aby zažalovali Muska a „urobili svet bezpečnejším pre ostatné ženy a dievčatá“ avclub.com. Zatiaľ neexistujú žiadne verejné náznaky právnych krokov zo strany Swift alebo iných – ale volania po zodpovednosti silnejú.
Aj mimo kontroverzie okolo Groku sa v roku 2024 objavil veľký verejný pobúrenie nad AI-generovaným pornom na X. V jednom prípade sa deepfake pornografické obrázky Taylor Swift masívne šírili na platforme, pričom jedna falošná fotografia získala 47 miliónov zobrazení pred odstránením theguardian.com. Fanúšikovia sa hromadne mobilizovali na nahlasovanie obrázkov a dokonca aj Biely dom sa vyjadril, pričom situáciu označil za „znepokojujúcu“ theguardian.com. Prípad Swiftovej je výnimočný len v pozornosti, ktorú získal; nespočetné množstvo žien (slávnych aj neznámych) videlo, ako sa ich podoba stala súčasťou explicitného obsahu, ktorý platformy nedokážu rýchlo odstrániť theguardian.com theguardian.com. Verejný hnev okolo týchto incidentov – a teraz aj okolo vstavaného NSFW režimu Groku – odráža rastúci konsenzus, že AI nástroje umožňujúce sexuálne deepfaky prekračujú etické hranice.
Rýchly nárast AI-generovaného NSFW obsahu a deepfakov
Epizóda s Grokom je najnovšou kapitolou v znepokojujúcom trende: AI-generované porno („deepfake porno“) za posledné roky explodovalo v rozšírení. Tento fenomén sa prvýkrát preslávil v roku 2017, keď nadšenci na Reddite začali používať rané algoritmy hlbokého učenia na výmenu tvárí celebrít za telá pornohercov. Do roku 2018 sa takzvané „deepfake“ videá Gal Gadot, Emmy Watson, Scarlett Johansson a ďalších šírili na stránkach pre dospelých – čo viedlo k zákazu takéhoto nevyžiadaného obsahu na platformách ako Reddit, Twitter a Pornhub theguardian.com theverge.com.
Napriek týmto skorým zákazom sa priemysel deepfake porna presunul do úzadia a naďalej rástol. Koncom roka 2019 prelomová správa kyberbezpečnostnej firmy Deeptrace zistila, že 96 % všetkých deepfake videí kolujúcich online bolo pornografických, nevyžiadaných výmen tvárí, pričom takmer výlučne išlo o ženské obete regmedia.co.uk. Štyri najväčšie deepfake porno stránky, ktoré boli skúmané, zaznamenali viac ako 134 miliónov zhliadnutí videí zameraných na „stovky ženských celebrít po celom svete.“ regmedia.co.uk Táto nerovnováha bola zjavná: obeťami boli prevažne ženy a konzumenti mali záujem takmer výlučne o ženy ako sexuálne objekty. „99 % deepfake sexuálnych videí zahŕňa ženy, zvyčajne ženské celebrity,“ poznamenala profesorka práva Danielle Citron a poukázala na to, ako tieto výtvory „robia z vás sexuálny objekt spôsobom, ktorý ste si nevybrali“ nymag.com. „Na pornografii nie je nič zlé, pokiaľ ste si ju vybrali sami,“ dodala Citron – hrôza deepfakeov spočíva v tom, že tieto ženy si nikdy nevybrali, aby bola ich podoba použitá v explicitných scénach nymag.com.Spočiatku dominovali deepfaky celebrít, no dnes sú čoraz častejšie terčom aj bežní ľudia. V januári 2023 otriasol komunitou Twitch škandál, keď populárny streamer Brandon „Atrioc“ Ewing omylom odhalil, že navštevoval deepfake porno stránku, ktorá predávala explicitné videá ženských streameriek – ich tváre boli upravené na telá pornoherečiek polygon.com. Ženy (niektoré boli Atriocove osobné priateľky) boli zničené a čelili vlnám obťažovania, keď sa deepfaky dostali na verejnosť polygon.com. Jedna z obetí, streamerka QTCinderella, vydala plačlivé vyhlásenie odsudzujúce toto porušenie a neskôr pomohla organizovať právne kroky na odstránenie takéhoto obsahu polygon.com polygon.com. „Twitch deepfake“ škandál ukázal, že nemusíte byť hollywoodska hviezda, aby sa vám to stalo – ktokoľvek, kto má svoje fotografie online, je potenciálne zraniteľný voči tomu, že ho AI „vyzlečie“ proti jeho vôli.
Vzostup používateľsky prívetivých AI nástrojov tento trend len urýchlil. V roku 2019 sa aplikácia s názvom DeepNude na krátky čas stala virálnou, keďže pomocou AI „vyzliekala“ fotografie žien na jedno kliknutie a vytvárala falošné nahé snímky onezero.medium.com. Hoci tvorca DeepNude aplikáciu po verejnej kritike zrušil, duch už bol vypustený z fľaše. V rokoch 2023–2025 sa vďaka open-source generátorom obrázkov (ako sú deriváty Stable Diffusion) a špecializovaným deepfake službám stalo triviálnym, aby ktokoľvek s niekoľkými fotografiami a minimálnymi technickými znalosťami mohol vytvoriť nahé alebo sexuálne obrázky iných osôb. Niektoré fóra otvorene obchodujú s AI-generovanými nahými snímkami žien stiahnutými zo sociálnych sietí. Ako si povzdychla jedna obeť, streamerka z Twitchu, po tom, čo objavila pornografické falzifikáty seba samej: „Toto nemá so mnou nič spoločné. A predsa je to tu s mojou tvárou.“ theguardian.com Pocit narušenia a bezmocnosti je medzi tými, ktorí boli „digitálne viktimizovaní“, hmatateľný.
Stručne povedané, AI zdemokratizovala schopnosť vytvárať pornografické falzifikáty a táto schopnosť bola neúmerne zneužitá proti ženám. Nejde len o celebrity – „vhodnou korisťou“ je ktokoľvek, od novinárok a aktivistiek (ktoré môžu byť terčom zastrašovania alebo diskreditácie) až po bývalé partnerky a súkromné osoby (terčom pomstychtivých úchylov alebo vydieračských schém). Zavedenie funkcií ako Spicy mode v Groku – ktoré dali oficiálnu, používateľsky prívetivú pečať tomu, čo bolo predtým podzemnou praktikou – signalizuje, že NSFW generatívna AI skutočne vstúpila do hlavného prúdu a so sebou priniesla všetku svoju etickú záťaž.
Etické, právne a spoločenské dôsledky AI-generovaného porna
Etické pohoršenie nad deepfake pornom je široko rozšírené. V jadre vytváranie alebo zdieľanie sexuálneho obsahu niekoho bez jeho súhlasu je hlbokým porušením súkromia, dôstojnosti a autonómie. Ako tvrdia Citron a ďalší etici, nejde len o zneužívanie obrazu – je to forma sexuálneho vykorisťovania. Obeťami sú popisované pocity „bezmocnosti, poníženia a hrôzy“, keď vedia, že cudzinci (alebo páchatelia) sledujú falošné videá, na ktorých vykonávajú sexuálne akty, ktoré nikdy neurobili. Môže to predstavovať virtuálnu formu sexuálneho útoku, ktorá zanecháva trvalé traumy. Nie je prekvapením, že najviac trpia ženy a dievčatá: „Ne-súhlasné intímne deepfaky“ sú „aktuálnou, vážnou a rastúcou hrozbou, ktorá neúmerne zasahuje ženy,“ uzatvárajú výskumníci sciencedirect.com.
Existuje tiež mizogýnny podtón v mnohých z týchto obsahov. Odborníci poukazujú na to, že deepfake porno sa často používa ako zbraň na ponižovanie žien, ktoré sú v mocenských pozíciách alebo ktoré odmietnu niečí návrhy. „AI-generované porno, poháňané mizogýniou, zaplavuje internet,“ poznamenal The Guardian uprostred rozruchu okolo deepfake Taylor Swift theguardian.com. Samotný akt vyzlečenia ženy pomocou AI možno vnímať ako pokus „dať ju na jej miesto“. „Sú to muži, ktorí hovoria mocnej žene, aby sa vrátila do svojej škatuľky,“ ako opísal atmosféru incidentu so Swift jedným pozorovateľom. Či už ide o anonymných trollov, ktorí vytvárajú nahé obrázky političky, alebo posadnutého fanúšika, ktorý vyrába falošné sexuálne videá popovej hviezdy, odkaz je podobný – ide o formu digitálnej objektifikácie a zastrašovania.
Okrem individuálnej ujmy sú spoločenské dôsledky znepokojujúce. Ak môže byť ktokoľvek dosadený do pornografie, vizuálnym médiám už nemožno veriť. Deepfaky predstavujú hrozbu poškodenia povesti a vydierania vo veľkom rozsahu. Ženy na verejnosti sa môžu začať autocenzurovať alebo sa stiahnuť z online priestoru zo strachu, že sa stanú terčom. Existuje aj mrazivý efekt na slobodu prejavu: predstavte si novinárku kritickú voči režimu, ktorá sa stane predmetom realistického falošného sexuálneho videa šíreného s cieľom ju zdiskreditovať. V súhrne normalizácia „dizajnérskeho porna“ s neochotnými účastníkmi vyvoláva otázky o súhlase, sexploatácii a komodifikácii ľudskej podoby. Aj pri konsenzuálnej zábave pre dospelých sa niektorí obávajú, že AI-generované herečky by mohli nahradiť skutočné modelky – ale keď tieto AI herečky majú skutočné tváre ľudí ukradnuté z Facebooku alebo Instagramu, hranica súhlasu je jasne prekročená.
Sloboda prejavu verzus súkromie: Existuje napätie medzi tými, ktorí volajú po zákaze všetkých pornografických deepfakeov, a zástancami slobody prejavu, ktorí sa obávajú prehnaných zásahov. Mohol by byť deepfake celebrita niekedy považovaný za legitímnu paródiu alebo umenie? Teoreticky áno – satira a paródia sú chráneným prejavom, aj keď využívajú podobu verejných osobností. Niektorí obhajcovia AI technológií poukazujú na to, že upravené obrázky verejných osobností sú už dlho súčasťou populárnej kultúry (napr. upravené titulky časopisov), pričom tvrdia, že unáhlená kriminalizácia by mohla brzdiť kreativitu. Avšak aj väčšina odborníkov na slobodu prejavu robí hranicu pri neželaných sexuálnych zobrazeniach. Škoda pre jednotlivca je taká intenzívna a osobná, že pravdepodobne prevyšuje akýkoľvek verejný záujem. Právni experti poukazujú na to, že zákony o ohováraní alebo obťažovaní môžu pokrývať niektoré prípady, ale nie všetky. Rastie konsenzus, že sú potrebné nové právne záruky, ktoré by sa špecificky zaoberali deepfake pornografiou bez toho, aby podkopávali legitímny prejav apnews.com apnews.com. Vypracovanie týchto zákonov tak, aby prísne trestali jasné zneužitia, ale nezahŕňali satiru alebo súhlasnú erotiku, je výzvou, s ktorou sa tvorcovia politík momentálne potýkajú apnews.com apnews.com.
Aktuálny vývoj (k augustu 2025): Od odporu voči technológiám po nové zákony
Kontroverzia okolo režimu „Spicy“ v Groku prichádza v čase, keď vlády a platformy na celom svete konečne začínajú bojovať proti epidémii AI-generovaných intímnych obrázkov. Tu sú niektoré z najnovších udalostí:
- Národné pobúrenie a aktivizmus: Virálne incidenty zahŕňajúce Taylor Swift a ďalších podnietili verejnú mienku. Dokonca aj Biely dom USA sa vyjadril k deepfake videám so Swift, ako bolo uvedené, nazval ich „znepokojujúcimi“ theguardian.com. Advokačné skupiny ako National Center on Sexual Exploitation boli hlasné, odsúdili xAI od Muska za „podporu sexuálneho vykorisťovania umožnením AI videí vytvárať nahotu“ a vyzvali na odstránenie takýchto funkcií time.com. „xAI by mal hľadať spôsoby, ako zabrániť sexuálnemu zneužívaniu a vykorisťovaniu,“ uviedla Haley McNamara z NCOSE vo vyhlásení, čo odráža širší tlak občianskej spoločnosti time.com.
- Prieskumy ukazujú obrovskú verejnú podporu pre zákazy: Nedávne prieskumy ukazujú, že verejnosť je pevne na strane prísnejšej regulácie. Prieskum Artificial Intelligence Policy Institute z januára 2025 zistil, že 84 % Američanov podporuje, aby bolo ne-súhlasné deepfake porno výslovne nelegálne, a rovnako chcú, aby AI spoločnosti „obmedzili [AI] modely, aby zabránili ich použitiu na tvorbu deepfake porna.“ time.com. Prieskum Pew Research z roku 2019 podobne zistil, že asi tri štvrtiny dospelých v USA podporujú obmedzenia digitálne upravených videí/obrázkov time.com. Stručne povedané, voliči naprieč spektrom zjavne chcú kroky proti tejto forme zneužívania.
- Nové zákony a návrhy zákonov: Zákonodarcovia vypočuli výzvu. V USA bol v máji 2025 podpísaný zákon Take It Down Act, ktorý predstavuje prvú federálnu legislatívu zameranú na deepfake pornografiu time.com. Tento dvojstranný zákon zakazuje „vedome zverejniť alebo vyhrážať sa zverejnením“ intímnych záberov bez súhlasu – vrátane deepfake vytvorených AI – a vyžaduje, aby platformy odstránili takýto materiál do 48 hodín od oznámenia obete apnews.com apnews.com. Tresty sú prísne a zákon dáva obetiam možnosť rýchlo dosiahnuť odstránenie obsahu apnews.com apnews.com. „Musíme poskytnúť obetiam online zneužívania právnu ochranu, ktorú potrebujú, najmä teraz, keď deepfaky vytvárajú desivé nové možnosti zneužívania,“ povedala senátorka Amy Klobuchar, spolupredkladateľka zákona, ktorá ho označila za „veľké víťazstvo pre obete online zneužívania.“ apnews.com apnews.com Ešte pred federálnym zákonom viac ako 15 štátov USA zakázalo vytváranie alebo šírenie explicitných deepfake (často aktualizáciou zákonov o „pomstnej pornografii“). Teraz sa objavuje jednotný federálny štandard. Ostatné krajiny postupujú podobne. Vláda Spojeného kráľovstva napríklad kriminalizovala zdieľanie deepfake pornografie vo svojom zákone o online bezpečnosti (účinný začiatkom 2024) a pripravuje legislatívu, ktorá má kriminalizovať aj samotné vytváranie sexuálne explicitných deepfake bez súhlasu hsfkramer.com hsfkramer.com. V januári 2025 Spojené kráľovstvo opätovne predložilo návrh na postavenie vytvárania deepfake nahotiniek mimo zákon, pričom to označilo za „prelomový krok v ochrane žien a dievčat.“ <a href=“https://www.hsfkramer.com/notes/tmt/2024-05/criminalising-deepfakes-the-uks-new-offences-following-the-online-safety-act#:~:text=Further%20update%3A%20On%207%20January,Act%2020hsfkramer.com hsfkramer.com Austrália v roku 2024 prijala zákon, ktorý zakazuje vytváranie aj šírenie deepfake sexuálneho materiálu, a Južná Kórea zašla až tak ďaleko, že navrhla kriminalizovať dokonca aj držbu alebo pozeranie takéhoto deepfake porna (nielen jeho produkciu) hsfkramer.com. Celosvetový trend je jasný: nežiadúce AI sexuálne obrázky sú považované za trestný čin. Zákonodarcovia uznávajú, že tieto obrázky „môžu zničiť životy a povesť,“ ako to vyjadrila Klobucharová apnews.com, a podnikajú kroky – hoci organizácie dohliadajúce na slobodu prejavu, ako EFF, varujú, že zle napísané zákony by mohli viesť k nadmernému cenzurovaniu alebo zneužitiu apnews.com apnews.com.
- Politiky technologických platforiem: Hlavné technologické platformy začali aktualizovať svoje politiky (aspoň na papieri), aby riešili AI-vytvorený sexuálny obsah. Facebook, Instagram, Reddit a tradičný Twitter oficiálne zakazujú nevyžiadané intímne obrázky, vrátane deepfakeov theguardian.com theverge.com. Pornhub a ďalšie stránky pre dospelých tiež zaviedli zákazy na AI-generovaný obsah zobrazujúci skutočné osoby bez ich súhlasu už v roku 2018 theguardian.com theverge.com. V praxi však vymáhanie zostáva nejednotné – odhodlaný používateľ stále môže na mnohých platformách nájsť alebo zdieľať nelegálne deepfaky. Existujú však náznaky pokroku: napríklad po incidente so Swift spoločnosť X (Twitter) nakoniec zareagovala zablokovaním vyhľadávania jej mena, aby zastavila šírenie theguardian.com theguardian.com. Reddit nielenže zakazuje deepfake porno, ale zrušil celé komunity, ktoré s takýmto materiálom obchodovali. YouTube a TikTok majú tiež politiky zakazujúce AI-manipulované explicitné obrázky. Výzvou je rozsah a detekcia – a práve tu sa uplatňuje nová technológia.
- Detekcia a ochranné opatrenia: Rastúci sektor technologických riešení sa snaží detegovať a odstraňovať deepfake porno. AI firmy ako Sensity (predtým Deeptrace) a startupy ako Ceartas vyvíjajú detekčné algoritmy, ktoré prehľadávajú internet a hľadajú tvár osoby v pornografickom obsahu a označujú zhody polygon.com polygon.com. Po škandále na Twitchi sa Atrioc v skutočnosti spojil s Ceartas, aby pomohol poškodeným streamerom: spoločnosť použila svoju AI na vyhľadanie deepfake obsahu týchto žien a podala žiadosti o odstránenie na základe DMCA polygon.com polygon.com. OnlyFans, platforma, ktorá má záujem chrániť tvorcov, tiež využíva takéto nástroje na kontrolu falošného obsahu svojich modeliek polygon.com. Pracuje sa aj na vkladaní vodotlačí alebo metadát do AI-generovaných obrázkov na pomoc pri identifikácii falzifikátov, ako aj na návrhoch, aby sa vyžadovala kryptografická autentifikácia skutočných obrázkov (takže neoznačené obrázky by sa mohli považovať za falošné). Okrem toho, Akt o AI Európskej únie (dohodnutý v roku 2024) obsahuje ustanovenia, že vývojári deepfake nástrojov musia zabezpečiť, aby boli výstupy jasne označené ako AI-generované bioid.com. Niekoľko štátov USA (a EÚ) zvažuje nariadenia, že akýkoľvek AI-upravený obsah musí byť pri zverejnení sprevádzaný zverejnením tejto skutočnosti cjel.law.columbia.edu bioid.com. Hoci takéto označenia nezabránia zlomyseľným aktérom v ich odstránení, predstavujú pokus nastoliť normy transparentnosti okolo syntetických médií.
- Platforma vs. Muskovo X: Stojí za to zdôrazniť, aký nezvyčajný je Muskovo prístup s X a xAI. Zatiaľ čo väčšina platforiem sprísňuje obmedzenia, Musk ich v podstate uvoľnil a oslovuje používateľov, ktorí túžia po „drsnejších“ AI schopnostiach. X nielenže nezakázalo výstupy Groku; je domovom Groku. Tento rozdiel postavil X do rozporu s mnohými odborníkmi. V auguste 2024 skupina demokratických zákonodarcov konkrétne uviedla Muskovo Grok v liste regulátorom, kde varovali, že voľné pravidlá ohľadom deepfakeov (vrátane explicitných s postavami ako Kamala Harris alebo Taylor Swift) môžu spôsobiť chaos vo voľbách a aj mimo nich time.com. Zdá sa, že Musk stavil na to, že uspokojenie dopytu po AI-generovanej erotike (a dokonca aj AI chat spoločníkoch, ktorí flirtujú alebo sa vyzliekajú, ako ukazujú nové funkcie xAI time.com) prinesie príjmy a používateľov. No odpor – právny, spoločenský a potenciálne finančný (kvôli obavám inzerentov) – môže z dlhodobého hľadiska ukázať iný príbeh.
Návrhy politík a ďalší postup: Dokážeme obmedziť deepfake porno?
Medzi tvorcami politík a etikmi panuje zhoda, že je potrebná viacúrovňová akcia na riešenie AI-generovaného NSFW obsahu. Kľúčové návrhy a myšlienky zahŕňajú:
- Prísnejšie zákony a presadzovanie: Ako bolo spomenuté, zákony ako Take It Down Act sú začiatkom. Odborníci navrhujú ďalšie úpravy, napríklad aby vytvorenie falošného sexuálneho obrázka niekoho bez jeho súhlasu bolo trestné, nielen jeho šírenie. (Spojené kráľovstvo sa uberá týmto smerom hsfkramer.com hsfkramer.com.) Jasné právne tresty pre páchateľov – a pre tých, ktorí vedome hostia alebo profitujú z takéhoto obsahu – môžu pôsobiť ako odstrašujúci prostriedok. Dôležité je, aby bola každá legislatíva starostlivo vymedzená, aby sa neúmyselne nekriminalizovalo konsenzuálne erotické umenie alebo legitímna politická satira apnews.com apnews.com. Dôležité sú aj občianskoprávne prostriedky: obete potrebujú jednoduché možnosti, ako žalovať o odškodné a získať súdne príkazy na odstránenie obsahu. Mnohí aktivisti chcú vidieť výnimky v sekcii 230 (americký zákon, ktorý chráni platformy pred zodpovednosťou za obsah používateľov), aby mohli byť webstránky zodpovedné, ak nereagujú na žiadosti o odstránenie deepfake porna. To by vyvíjalo tlak na platformy, aby boli oveľa ostražitejšie.
- Technologické mantinely: Na strane vývoja návrhy naznačujú, že tvorcovia AI modelov by mali zabudovať preventívne ochranné opatrenia. Napríklad spoločnosti by mohli trénovať filtre obsahu na rozpoznávanie, keď používateľský podnet zahŕňa meno alebo podobizeň skutočnej osoby, a zablokovať akýkoľvek explicitný výstup týkajúci sa tejto osoby. (Niektoré AI generátory obrázkov už odmietajú podnety, ktoré sa zdajú odkazovať na súkromné osoby alebo vytvárať nahotu verejných osobností – xAI’s Grok je výnimkou, ktorá tak nerobí avclub.com.) Ďalším nápadom je vyžadovať overenie súhlasu pre explicitné generovanie: napr. AI služba by mohla vygenerovať nahý obrázok len vtedy, ak používateľ preukáže, že subjektom je on sám alebo súhlasný model. Samozrejme, zlí aktéri by mohli jednoducho používať open-source modely bez takýchto filtrov, ale ak hlavné platformy prijmú prísne mantinely, mohlo by to obmedziť rozšírenie v hlavnom prúde. Overenie veku je tiež problém – Grok mal len ľahko obíditeľnú kontrolu dátumu narodenia gizmodo.com – preto sa volá po robustnejších vekových bránach, aby sa zabezpečilo, že maloletí (ktorí sú často cieľom šikanovania prostredníctvom falošných nahých obrázkov) nemôžu tieto nástroje používať ani byť nimi zobrazovaní.
- Výskum a detekcia: Vlády financujú výskum detekcie deepfake-ov a spoločnosti spolupracujú na štandardoch autentifikácie médií. Cieľom je uľahčiť rýchlu identifikáciu a odstránenie falošnej pornografie, keď sa objaví. Detekcia však bude vždy hra na mačku a myš, keďže AI falzifikáty sa stávajú sofistikovanejšími. Niektorí experti sa domnievajú, že by sa pozornosť mala presunúť na prevenciu škôd (prostredníctvom právnych sankcií a vzdelávania), namiesto spoliehania sa na technický „detektor falzifikátov“, ktorý zachytí všetko. Napriek tomu pokroky v AI pre dobro – ako lepšie hashovanie obrázkov na sledovanie známych falzifikátov alebo nástroje pre jednotlivcov na zistenie, či bol ich obrázok zneužitý – budú hrať úlohu pri zmierňovaní.
- Zodpovednosť platforiem: Advokačné skupiny vyzývajú, aby sociálne siete a platformy s obsahom pre dospelých museli proaktívne kontrolovať AI pornografický obsah. To by mohlo znamenať investovanie do tímov na moderovanie obsahu, ktoré sú zručné v odhaľovaní deepfake-ov, spoluprácu s orgánmi činnými v trestnom konaní na príkazoch na odstránenie a zákaz opakovaných páchateľov, ktorí vytvárajú alebo zdieľajú nesúhlasný materiál. Niektorí tiež volajú po systémoch odhlásenia alebo registrácie, kde si jednotlivci môžu zaregistrovať svoju podobizeň (alebo svojich detí) a platformy musia zabezpečiť, že žiadny AI obsah ich nezobrazuje – hoci administratívne by to bolo náročné na vynútenie. Minimálne by mali byť štandardom rýchle reakčné protokoly – ako požiadavka na odstránenie do 48 hodín v americkom zákone apnews.com – na všetkých platformách celosvetovo.
- Vzdelávanie a normy: Nakoniec časť riešenia spočíva v zmene spoločenských noriem. Rovnako ako spoločnosť začala široko odsudzovať „pomstivú pornografiu“ a uznávať ju ako zneužívanie, dúfame, že deepfake pornografia sa stane univerzálne stigmatizovanou. Ak priemerný človek pochopí škodu a odmietne takéto materiály zdieľať alebo konzumovať, dopyt klesne. Odborníci na etiku technológií zdôrazňujú dôležitosť mediálnej gramotnosti – učiť ľudí, že nie všetko, čo vidia, je pravda, a že pikantná fotografia Celebrity X môže byť falošná. Posilnenie mladších generácií, aby kriticky zvládali svet médií upravených AI, bude kľúčové. Rovnako dôležité budú aj kampane, ktoré potenciálnych páchateľov informujú, že vytváranie týchto falzifikátov nie je žart – je to vážne porušenie s potenciálne trestnoprávnymi dôsledkami.
Záver
Vznik „Spicy Mode“ v Groku prilial olej do už tak rozhoreného ohňa okolo AI a sexuálne explicitných deepfakeov. Muskovo AI, tým, že umožňuje jednoducho a dokonca „oficiálne“ generovať nahé napodobeniny celebrít, vyvolalo rýchlu vlnu odporu – a upriamilo pozornosť na širšiu krízu deepfake pornografie. Od kongresových sál až po komentáre na technologických fórach rastie zhoda, že niečo sa musí urobiť, aby boli jednotlivci (najmä ženy) chránení pred temnými stránkami tejto technológie.
Ako sme videli, AI-generovaný NSFW obsah nie je izolovanou novinkou – je to narastajúca spoločenská výzva. Stavia tvorivú slobodu a technologické inovácie proti súkromiu, súhlasu a bezpečnosti. Džin sa už do fľaše nevráti, ale vďaka rozumnej politike, zodpovednému vývoju technológií a kultúrnej zmene môžeme dúfať, že škody obmedzíme. Nasledujúce mesiace a roky pravdepodobne prinesú viac súdnych sporov, viac zákonov a lepšie AI ochrany. Grok od Muska sa možno prispôsobí pod tlakom, alebo sa stane varovným príkladom AI projektu, ktorý ignoroval etické hranice na vlastné riziko.
Zatiaľ je odkaz od odborníkov aj verejnosti jasný: deepfake pornografia je hranica, ktorú AI nesmie prekročiť. A ak spoločnosti ako xAI túto hranicu samy nevyznačia, regulátori a spoločnosť sú čoraz viac pripravení urobiť to za ne. Ako povedal jeden zástanca technologickej etiky, „Keď je vaša podobizeň bez súhlasu premenená na pornografiu, je to zničujúce – je najvyšší čas, aby sme to považovali za vážne zneužívanie, a nie za nevyhnutnosť technológií.“ Debata už nie je o tom, či je potrebné konať, ale o tom, ako rýchlo a efektívne dokážeme obmedziť sexuálne zneužívanie poháňané AI, skôr než ďalšie životy zničí ďalšia „pikantná“ inovácia.
Zdroje:
- Novak, Matt. „Grok’s ‘Spicy’ Mode Makes NSFW Celebrity Deepfakes of Women (But Not Men).“ Gizmodo, 6. augusta 2025 gizmodo.com gizmodo.com.
- Weatherbed, Jess. „Grokova ‘pikantná’ video funkcia mi okamžite vytvorila Taylor Swift nahé deepfaky.“ The Verge, 5. augusta 2025 theverge.com.
- Carr, Mary Kate. „Elon Musk prakticky žobre o žalobu od Taylor Swift kvôli Grok AI nahým deepfakom.“ AV Club, 7. augusta 2025 avclub.com avclub.com.
- Saner, Emine. „Vo vnútri škandálu s deepfakmi Taylor Swift: ‘Sú to muži, ktorí hovoria mocnej žene, aby sa vrátila späť do svojej škatuľky’.“ The Guardian, 31. januára 2024 theguardian.com theguardian.com.
- Clark, Nicole. „Streamer, ktorý vyvolal škandál s deepfake pornom na Twitchi, sa vracia.“ Polygon, 16. marca 2023 polygon.com polygon.com.
- Patrini, Giorgio. „Stav deepfakov.“ Správa Deeptrace Labs, okt. 2019 regmedia.co.uk.
- Citron, Danielle. Rozhovor v NYMag Intelligencer, okt. 2019 nymag.com.
- Ortutay, Barbara. „Prezident Trump podpísal zákon Take It Down, ktorý rieši nevyžiadané deepfaky. Čo to je?“ AP News, august 2025 apnews.com apnews.com.
- Burga, Solcyre. „Elon Muskova Grok čoskoro umožní používateľom vytvárať AI videá, vrátane explicitného obsahu.“ TIME, august 2025 time.com time.com.
- Herbert Smith Freehills Law Firm. „Kriminalizácia deepfakeov – nové trestné činy v Spojenom kráľovstve…“, 21. mája 2024 hsfkramer.com hsfkramer.com.