LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

Elon Muskova ‘začinjena’ AI-način sproži škandal z NSFW deepfake posnetki – zakaj so ženske tarče nove AI pornografske krize

Elon Muskova ‘začinjena’ AI-način sproži škandal z NSFW deepfake posnetki – zakaj so ženske tarče nove AI pornografske krize

Grok 4: Inside Elon Musk’s Most Powerful (and Controversial) AI Chatbot Yet

Nova AI-podjetniška pobuda Elona Muska je pod udarom zaradi ustvarjanja golih deepfake posnetkov slavnih oseb brez njihove privolitve – in to na zaskrbljujoče spolno pristranski način. Nedavna preiskava Gizmoda razkriva, da Muskovo orodje Grok Imagine s svojim načinom “Spicy” zlahka ustvari NSFW videoposnetke znanih žensk (na primer Taylor Swift ali Melania Trump), medtem ko za moške to odklanja gizmodo.com gizmodo.com. To poročilo se poglobi v ugotovitve Gizmoda o spornem Grokovem orodju, preučuje hiter porast pornografskih vsebin in deepfake posnetkov, ustvarjenih z umetno inteligenco, ter raziskuje etične, pravne in družbene posledice. Prav tako predstavljamo najnovejši razvoj dogodkov do avgusta 2025 – od javnega ogorčenja in opozoril strokovnjakov do novih zakonov, namenjenih omejevanju “maščevalne pornografije” z umetno inteligenco. Cilj: razumeti, kako je “Spicy Mode” postal zadnja vroča točka v nenehni krizi NSFW vsebin, ustvarjenih z umetno inteligenco, in kaj lahko storimo glede tega.

Grokov “Spicy Mode” – NSFW deepfake posnetki in vgrajena pristranskost

Grok Imagine je xAI-jev generator slik in videov (na voljo plačljivim naročnikom na Muskovi platformi X) in posebej uporabnikom omogoča ustvarjanje vsebin za odrasle prek načina »Spicy« gizmodo.com. Medtem ko glavni AI orodja, kot sta Googlov Veo in OpenAI-jev Sora, prepovedujejo eksplicitne ali zvezdniške slike, Grokov način Spicy to aktivno spodbuja avclub.com avclub.com. Testiranje pri The Verge je pokazalo, da je AI »ni okleval in je že v prvem poskusu ustvaril popolnoma necenzurirane videoposnetke z golimi prsmi Taylor Swift« – in to brez posebne zahteve po goloti theverge.com. Podobno je Deadline ugotovil, da je izjemno enostavno Groku naročiti, naj ustvari sliko Scarlett Johansson, ki razkazuje spodnje perilo avclub.com. V ostrem nasprotju pa poskusi ustvarjanja moške golote niso obrodili sadov. Kot poroča Gizmodo, »je resnično neprimerne za delo ustvaril le slike žensk. Videi moških so bili takšni, da ne bi vzbudili veliko pozornosti.« gizmodo.com V praksi lahko Grokov način Spicy moškega prikaže največ brez majice, medtem ko so ženske upodobljene zgoraj brez ali popolnoma gole.

Ta očitna dvojna merila je sprožila alarme. Grok bo ustvaril posnetek v slogu mehke pornografije z žensko javno osebo z enim klikom na gumb gizmodo.com, medtem ko se zdi, da isti filter “Spicy” pri moških ustavi že pri golih prsih gizmodo.com. Matt Novak z Gizmoda je celo poskusil z generičnim, neznanim moškim v primerjavi z generično žensko: moški avatar je nerodno vlekel svoje hlače, a je ostal pokrit, medtem ko je ženski avatar takoj razkril prsi gizmodo.com. Takšni rezultati nakazujejo na spolno pristranskost, vgrajeno v moderiranje vsebine AI (naj bo to namerno ali kot stranski produkt njenega učenja). Muskova lastna zgodovina mizoginih izjav – od ojačevanja trditev, da so ženske “šibke” gizmodo.com do šaljenja o oploditvi Taylor Swift – še povečuje sum, da je ta pristranskost bolj lastnost kot napaka gizmodo.com.

Zmožnosti in omejitve: Omeniti velja, da so Grokovi deepfake posnetki pogosto slabe kakovosti. Podobnosti slavnih oseb, ki jih ustvari, so pogosto neprepričljive ali z napakami gizmodo.com gizmodo.com. (Na primer, slike, ki naj bi prikazovale igralko Sydney Sweeney ali politika J.D. Vancea, niso bile niti približno podobne resničnim osebam gizmodo.com.) Nenavadne napake v kontinuiteti – kot je moški z neujemajočima hlačnicama v enem izmed videov – so pogoste gizmodo.com. Grok tudi samodejno generira generično glasbeno podlago ali zvok za vsak posnetek, kar še poveča nadrealističen občutek »dolina srhljivosti« gizmodo.com. Te tehnične pomanjkljivosti so morda trenutno rešilna bilka za xAI, saj bi resnično prepričljive gole ponaredke slavnih oseb skoraj zagotovo sprožile tožbe in prepovedi gizmodo.com. Kot je pripomnil Gizmodo, je lahko Muskova najboljša obramba pred pravnimi ukrepi to, da »slike sploh niso podobne« pravim slavnim osebam gizmodo.com. A tehnologija se hitro izboljšuje in tudi ti nepopolni deepfake posnetki so dovolj prepoznavni, da so zaskrbljujoči avclub.com.

Javni odziv: Uvedba »Spicy Mode« je takoj sprožila ogorčenje na družbenih omrežjih in v medijih. V nekaj dneh po lansiranju Grok Imagine je bil X (Twitter) preplavljen z AI-generiranimi slikami golih žensk, uporabniki pa so si z navdušenjem izmenjevali nasvete, kako v svojih pozivih doseči čim več golote gizmodo.com. To je sprožilo obsežno kritiko, da je Musk dejansko odprl vrata AI-podprtemu spolnemu nadlegovanju in izkoriščanju. »Velik del vsebine Grok Imagine, ki jo Musk deli ali objavlja, so posnetki generičnih bujnih blondink ali žensk v razkrivajočih fantazijskih oblačilih,« je opazil A.V. Club in dodal, da se zdi, kot da Musk želi poseči na področje Pornhuba avclub.com avclub.com. Tehnološki blogerji in komentatorji so se posmehljivo pošalili, da Musk »praktično prosi za tožbo Taylor Swift« zaradi Grokovih samodejno ustvarjenih golih slik avclub.com. Nekateri komentatorji so celo pozvali znane tarče, kot je Swift, naj Muskovo podjetje tožijo na sodišču in »naredijo svet varnejši za druge ženske in dekleta« avclub.com. Za zdaj ni javnih znakov pravnih ukrepov s strani Swiftove ali drugih – vendar pa pozivi k odgovornosti postajajo vse glasnejši.

Tudi izven polemike o Groku je leto 2024 zaznamovalo veliko javno ogorčenje zaradi pornografije, ustvarjene z umetno inteligenco na X. V enem primeru so se ponarejene pornografske slike Taylor Swift množično širile po platformi, ena izmed lažnih fotografij pa je dosegla 47 milijonov ogledov pred odstranitvijo theguardian.com. Oboževalci so se množično organizirali in prijavljali slike, celo Bela hiša se je odzvala in situacijo označila za »zaskrbljujočo« theguardian.com. Primer Swift je izjemen le zaradi pozornosti, ki jo je prejel; nešteto žensk (znanih ali ne) je doživelo, da so njihovo podobo spremenili v eksplicitno vsebino, ki je platforme niso uspele hitro odstraniti theguardian.com theguardian.com. Javno ogorčenje ob teh incidentih – in zdaj ob Grokovem vgrajenem NSFW načinu – odraža vse večje soglasje, da orodja umetne inteligence, ki omogočajo spolne deepfake posnetke, prestopajo etične meje.

Hiter vzpon NSFW vsebin in deepfake posnetkov, ustvarjenih z umetno inteligenco

Epizoda z Grokom je najnovejše poglavje v zaskrbljujočem trendu: pornografija, ustvarjena z umetno inteligenco (“deepfake porn”), je v zadnjih nekaj letih doživela eksploziven porast. Fenomen je prvič zaslovel leta 2017, ko so navdušenci na Redditu začeli uporabljati zgodnje algoritme globokega učenja za zamenjavo obrazov slavnih osebnosti na telesih porno igralcev. Do leta 2018 so se tako imenovani “deepfake” videi Gal Gadot, Emme Watson, Scarlett Johansson in drugih množično pojavljali na straneh za odrasle – kar je platforme, kot so Reddit, Twitter in Pornhub, spodbudilo k prepovedi takšne neprostovoljne vsebine theguardian.com theverge.com.

Kljub tem zgodnjim prepovedim se je industrija deepfake pornografije preselila v senco in še naprej rasla. Do konca leta 2019 je prelomno poročilo podjetja za kibernetsko varnost Deeptrace ugotovilo, da je 96 % vseh deepfake videoposnetkov, ki krožijo po spletu, pornografskih, neprostovoljnih zamenjav obrazov, skoraj izključno s ženskimi tarčami regmedia.co.uk. Štiri največje deepfake porno spletne strani, ki so jih preučevali, so zbrale več kot 134 milijonov ogledov videoposnetkov, ki so ciljali na “stotine svetovno znanih ženskih zvezd” regmedia.co.uk. To neravnovesje je bilo očitno: žrtve so bile pretežno ženske, potrošniki pa so bili pretežno zainteresirani za ženske kot spolne objekte. “99 % deepfake spolnih videoposnetkov vključuje ženske, običajno slavne ženske,” je poudarila profesorica prava Danielle Citron in izpostavila, kako ti izdelki “vas spremenijo v spolni objekt na načine, ki jih niste izbrali” nymag.com. “S pornografijo ni nič narobe, dokler si jo izbereš sam,” je dodala Citron – grozljivka deepfake posnetkov je v tem, da te ženske nikoli niso izbrale, da bi bila njihova podoba uporabljena v eksplicitnih prizorih nymag.com.

Sprva so prevladovali deepfake posnetki slavnih, zdaj pa so vse pogosteje tarča običajni posamezniki. Januarja 2023 je skupnost Twitch pretresel škandal, ko je priljubljeni streamer Brandon “Atrioc” Ewing po nesreči razkril, da je obiskoval deepfake porno spletno stran, ki je prodajala eksplicitne videoposnetke ženskih streamerjev – njihove obraze so zmontirali na telesa porno igralk polygon.com. Ženske (nekatere so bile Atriocove osebne prijateljice) so bile uničene in so se soočile z valom nadlegovanja, ko so deepfake posnetki prišli v javnost polygon.com. Ena od žrtev, streamerka QTCinderella, je podala čustveno izjavo, v kateri je obsodila kršitev, kasneje pa pomagala organizirati pravne ukrepe za odstranitev takšne vsebine polygon.com polygon.com. “Twitch deepfake” škandal je pokazal, da ni treba biti hollywoodska zvezda, da se ti to zgodi – vsakdo, ki ima slike na spletu, je lahko potencialno izpostavljen “spletnemu slačenju” z umetno inteligenco proti svoji volji.

Vzpon uporabniku prijaznih orodij umetne inteligence je ta trend le še pospešil. Leta 2019 je aplikacija z imenom DeepNude za kratek čas postala viralna, saj je z uporabo umetne inteligence »slečila« fotografije žensk z enim klikom in ustvarjala lažne gole slike onezero.medium.com. Čeprav je ustvarjalec DeepNude aplikacijo zaprl zaradi javnega ogorčenja, je bil duh že izpuščen iz steklenice. Do let 2023–2025 so odprtokodni generatorji slik (kot so izpeljanke Stable Diffusion) in namenske deepfake storitve omogočili, da lahko kdorkoli z nekaj fotografijami in minimalnim tehničnim znanjem ustvari gole ali spolne slike drugih. Nekateri forumi odkrito izmenjujejo z umetno inteligenco ustvarjene gole slike žensk, vzete s družbenih omrežij. Kot je ena od žrtev, Twitch streamerka, potožila po odkritju pornografskih ponaredkov sebe: »To nima nobene zveze z mano. In vendar je tukaj z mojim obrazom.« theguardian.com Občutek kršitve in nemoči je otipljiv med tistimi, ki so bili »digitalno viktimizirani«.

Skratka, umetna inteligenca je demokratizirala možnost ustvarjanja pornografskih ponaredkov, ta zmožnost pa je bila nesorazmerno uporabljena kot orožje proti ženskam. Ni več samo slavne osebe, ki so tarča – to je lahko kdorkoli, od novinarjev in aktivistov (ki so lahko tarča za zastraševanje ali diskreditacijo) do bivših partnerjev in zasebnih oseb (ki jih napadajo maščevalni posamezniki ali izsiljevalci). Pojav funkcij, kot je Grok’s Spicy mode – ki daje uraden, uporabniku prijazen pečat temu, kar je bilo prej podtalno početje – nakazuje, da je NSFW generativna umetna inteligenca resnično vstopila v glavni tok, skupaj z vso svojo etično prtljago.

Etnične, pravne in družbene posledice pornografije, ustvarjene z umetno inteligenco

Etnično ogorčenje nad deepfake pornografijo je široko razširjeno. V svojem bistvu je ustvarjanje ali deljenje spolnih vsebin nekoga brez njegove privolitve globoka kršitev zasebnosti, dostojanstva in avtonomije. Kot trdijo Citron in drugi etiki, to ni zgolj zloraba na podlagi slike – gre za obliko spolnega izkoriščanja. Žrtve opisujejo občutke »nemoči, ponižanja in groze«, saj vedo, da tujci (ali zlorabitelji) gledajo lažne videoposnetke njih v spolnih dejanjih, ki jih nikoli niso storile. To lahko pomeni virtualno obliko spolnega napada, ki pusti trajne posledice. Ni presenetljivo, da največ trpijo ženske in dekleta: »Nesoglasni intimni deepfaki« so »trenutna, resna in naraščajoča grožnja, ki nesorazmerno prizadene ženske,« zaključujejo raziskovalci sciencedirect.com.

Obstaja tudi mizoginistični podton v veliki meri te vsebine. Strokovnjaki opozarjajo, da se deepfake pornografija pogosto uporablja kot orožje za poniževanje žensk, ki so na položajih moči ali ki zavrnejo nečije dvorjenje. »Splet preplavlja z umetno inteligenco ustvarjena pornografija, ki jo poganja mizoginija,« je zapisal The Guardian sredi afere z deepfake posnetki Taylor Swift theguardian.com. Samo dejanje slačenja ženske s pomočjo umetne inteligence je mogoče razumeti kot poskus, da bi jo »postavili na njeno mesto«. »To so moški, ki močni ženski govorijo, naj se vrne v svojo škatlo,« je nekdo opisal vzdušje ob incidentu s Swift. Ne glede na to, ali gre za anonimne trolle, ki ustvarjajo gole slike političarke, ali za obsesivnega oboževalca, ki izdeluje lažne seks posnetke pop zvezdnice, je sporočilo podobno – gre za obliko digitalne objektifikacije in zastraševanja.

Poleg individualne škode so družbene posledice zaskrbljujoče. Če je mogoče kogarkoli vstaviti v pornografijo, vizualnim medijem ni več mogoče zaupati. Deepfake posnetki predstavljajo grožnjo za ugled in izsiljevanje v velikem obsegu. Ženske v javnosti se lahko začnejo samocenzurirati ali umikati iz spletnega prostora zaradi strahu, da bi postale tarča. Prisoten je tudi učinek hlajenja govora: predstavljajte si novinarko, ki je kritična do režima, in se znajde v središču realističnega lažnega seks videa, ki kroži z namenom, da jo osramoti. Na splošno normalizacija »dizajnerske pornografije« z osebami, ki v tem ne želijo sodelovati, odpira vprašanja o privolitvi, spolnem izkoriščanju in komercializaciji človeške podobe. Tudi pri sporazumni odrasli zabavi nekateri opozarjajo, da bi lahko umetna inteligenca nadomestila resnične modele – a ko ti AI nastopajoči nosijo obraze resničnih ljudi, ukradene s Facebooka ali Instagrama, je meja privolitve očitno prestopljena.

Svoboda govora proti zasebnosti: Obstaja napetost med tistimi, ki pozivajo k prepovedi vseh pornografskih deepfakov, in zagovorniki svobode govora, ki jih skrbi pretirano poseganje v pravice. Bi lahko bil deepfake slavne osebe kdaj obravnavan kot legitimna parodija ali umetnost? Teoretično da – satira in parodija sta zaščiteni obliki izražanja, tudi če uporabljata podobo javnih osebnosti. Nekateri zagovorniki AI tehnologije poudarjajo, da so preoblikovane slike javnih osebnosti že dolgo del popularne kulture (npr. obdelane naslovnice revij), in trdijo, da bi naglo kriminaliziranje lahko zavrlo ustvarjalnost. Vendar pa tudi večina strokovnjakov za svobodo govora potegne mejo pri nesoglasnih spolnih upodobitvah. Škoda za posameznika je tako intenzivna in osebna, da naj bi pretehtala vsak javni interes. Pravni strokovnjaki opozarjajo, da bi zakoni o obrekovanju ali nadlegovanju lahko zajeli nekatere primere, a ne vseh. Narašča soglasje, da so potrebna nova pravna varovala za specifično obravnavo deepfake pornografije, ne da bi pri tem ogrozili legitimno izražanje apnews.com apnews.com. Priprava takšnih zakonov – da bi kaznovali očitne zlorabe, ne da bi pri tem zajeli satiro ali sporazumno erotiko – je izziv, s katerim se zdaj soočajo oblikovalci politik apnews.com apnews.com.

Trenutni razvoj dogodkov (avgust 2025): Od tehnološkega odziva do novih zakonov

sporni “Spicy” način Groka prihaja v trenutku, ko vlade in platforme po vsem svetu končno ukrepajo proti epidemiji z umetno inteligenco ustvarjenih intimnih slik. Tukaj je nekaj najnovejših dogodkov:

  • Nacionalno ogorčenje in aktivizem: Viralne zgodbe, v katere so bili vpleteni Taylor Swift in drugi, so spodbudile javno mnenje. Tudi Bela hiša ZDA je komentirala deepfake posnetke Swift, kot je bilo omenjeno, in jih označila za »zaskrbljujoče« theguardian.com. Zagovorniške skupine, kot je National Center on Sexual Exploitation, so bile glasne in obsodile Muskovo xAI zaradi »spodbujanja spolnega izkoriščanja z omogočanjem ustvarjanja golote v AI videih« ter pozvale k odstranitvi takšnih funkcij time.com. »xAI bi moral iskati načine za preprečevanje spolne zlorabe in izkoriščanja,« je v izjavi povedala Haley McNamara iz NCOSE, kar odraža širši pritisk civilne družbe time.com.
  • Ankete kažejo izjemno javno podporo prepovedim: Nedavne raziskave kažejo, da je javnost trdno na strani strožje regulacije. Januarja 2025 je raziskava Artificial Intelligence Policy Institute pokazala, da 84 % Američanov podpira izrecno prepoved neprostovoljnega deepfake pornografije in prav tako želijo, da AI podjetja »omejijo [AI] modele, da preprečijo njihovo uporabo za ustvarjanje deepfake pornografije.« time.com. Tudi raziskava Pew Research iz leta 2019 je pokazala, da približno tri četrtine odraslih v ZDA podpira omejitve digitalno spremenjenih videoposnetkov/slik time.com. Skratka, volivci z vseh strani si želijo ukrepov proti tej obliki zlorabe.
  • Novi zakoni in predlogi zakonov: Zakonodajalci so slišali poziv. V ZDA je bil zakon Take It Down sprejet maja 2025, kar pomeni prvo zvezno zakonodajo, ki cilja na deepfake pornografijo time.com. Ta dvostrankarski zakon prepoveduje »namerno objavo ali grožnjo z objavo« intimnih slik brez soglasja – vključno z deepfake vsebinami, ustvarjenimi z umetno inteligenco – in zahteva, da platforme takšen material odstranijo v 48 urah po obvestilu žrtve apnews.com apnews.com. Kazni so stroge, zakon pa žrtvam omogoča hitro odstranitev vsebine apnews.com apnews.com. »Žrtvam spletnih zlorab moramo zagotoviti pravno zaščito, ki jo potrebujejo, še posebej zdaj, ko deepfakes ustvarjajo grozljive nove možnosti za zlorabe,« je povedala senatorka Amy Klobuchar, so-sponzorka zakona, in ga označila kot »veliko zmago za žrtve spletnih zlorab.« apnews.com apnews.com Še pred zveznim zakonom je več kot 15 ameriških zveznih držav prepovedalo ustvarjanje ali distribucijo eksplicitnih deepfake vsebin (pogosto z dopolnitvijo zakonodaje o »maščevalni pornografiji«). Zdaj se oblikuje enoten zvezni standard. Tudi druge države sledijo temu zgledu. Vlada Združenega kraljestva je na primer kriminalizirala deljenje deepfake pornografije v svojem Zakonu o spletni varnosti (velja od začetka 2024) in pripravlja zakonodajo, ki bo kriminalizirala celo ustvarjanje spolno eksplicitnih deepfake vsebin brez soglasja hsfkramer.com hsfkramer.com. Januarja 2025 je Združeno kraljestvo ponovno predstavilo predlog za prepoved ustvarjanja deepfake golih slik, kar poudarja kot »prelomni korak za zaščito žensk in deklet.« <a href=”https://www.hsfkramer.com/notes/tmt/2024-05/criminalising-deepfakes-the-uks-new-offences-following-the-online-safety-act#:~:text=Further%20update%3A%20On%207%20January,Act%2020hsfkramer.com hsfkramer.com Avstralija je leta 2024 sprejela zakon, ki prepoveduje tako ustvarjanje kot distribucijo deepfake spolnega materiala, medtem ko je Južna Koreja šla celo tako daleč, da je predlagala kriminalizacijo že samega posedovanja ali ogleda takšne deepfake pornografije (ne le njene proizvodnje) hsfkramer.com. Globalni trend je jasen: neprostovoljne AI spolne slike se obravnavajo kot kaznivo dejanje. Zakonodajalci priznavajo, da te slike »lahko uničijo življenja in ugled,« kot je dejala Klobuchar apnews.com, in ukrepajo – čeprav organizacije za zaščito svobode izražanja, kot je EFF, opozarjajo, da lahko slabo napisani zakoni vodijo v pretirano cenzuro ali zlorabe apnews.com apnews.com.
  • Politike tehnoloških platform: Glavne tehnološke platforme so začele posodabljati svoje politike (vsaj na papirju), da bi naslovile spolno vsebino, ustvarjeno z umetno inteligenco. Facebook, Instagram, Reddit in tradicionalni Twitter uradno prepovedujejo neprostovoljno intimno gradivo, vključno z deepfake posnetki theguardian.com theverge.com. Pornhub in druge strani za odrasle so prav tako že leta 2018 uvedle prepovedi vsebin, ustvarjenih z umetno inteligenco, ki prikazujejo resnične posameznike brez njihove privolitve theguardian.com theverge.com. V praksi pa je uveljavljanje še vedno neenotno – odločen uporabnik lahko na številnih platformah še vedno najde ali deli nedovoljene deepfake posnetke. Vendar pa so vidni znaki napredka: na primer, po incidentu s Swift, je X (Twitter) vendarle reagiral z blokiranjem iskanja njenega imena, da bi ustavil širjenje theguardian.com theguardian.com. Reddit ne le da prepoveduje deepfake pornografijo, ampak je tudi zaprl celotne skupnosti, ki so trgovale s takšnim materialom. YouTube in TikTok imata prav tako politike, ki prepovedujejo eksplicitne slike, manipulirane z umetno inteligenco. Izziv ostajata obseg in zaznavanje – tu pa se uporablja nova tehnologija.
  • Zaznavanje in zaščitni ukrepi: Naraščajoča obrtna industrija tehnoloških rešitev si prizadeva zaznati in odstraniti deepfake pornografijo. Podjetja za umetno inteligenco, kot je Sensity (prej Deeptrace), in zagonska podjetja, kot je Ceartas, razvijajo algoritme za zaznavanje, ki pregledujejo internet za obraz določene osebe v pornografski vsebini in označijo zadetke polygon.com polygon.com. Pravzaprav je po škandalu na Twitchu Atrioc sodeloval z Ceartas, da bi pomagal oškodovanim streamerjem: podjetje je uporabilo svojo umetno inteligenco za iskanje deepfake vsebin teh žensk in vložilo zahteve za odstranitev po DMCA polygon.com polygon.com. OnlyFans, platforma, ki ima velik interes za zaščito ustvarjalcev, je prav tako uvedla takšna orodja za nadzor lažnih vsebin svojih modelov polygon.com. Potekajo tudi prizadevanja za vgradnjo vodnih žigov ali metapodatkov v slike, ustvarjene z umetno inteligenco, da bi lažje prepoznali ponaredke, pa tudi predlogi za uvedbo kriptografske overitve resničnih slik (tako da bi se slike brez oznake štele za ponaredke). Poleg tega Akt EU o umetni inteligenci (sprejet leta 2024) vključuje določbe, da morajo razvijalci deepfake orodij zagotoviti, da so rezultati jasno označeni kot ustvarjeni z umetno inteligenco bioid.com. Več ameriških zveznih držav (in EU) razmišlja o uvedbi obveznosti, da mora biti vsaka z umetno inteligenco spremenjena vsebina ob objavi opremljena z razkritjem cjel.law.columbia.edu bioid.com. Čeprav takšne oznake ne bodo preprečile zlonamernim akterjem, da jih odstranijo, predstavljajo poskus vzpostavitve norm transparentnosti okoli sintetičnih medijev.
  • Platforma proti Muskovemu X: Vredno je poudariti, kako nenavaden je Muskov pristop z X in xAI. Medtem ko večina platform zaostruje omejitve, jih je Musk v bistvu razrahljal in privablja uporabnike, ki si želijo »drznih« AI zmogljivosti. X ni le, da ni prepovedal Grokovih izhodov; X je dom Groka. To odstopanje je X postavilo v nasprotje z mnogimi strokovnjaki. Avgusta 2024 je skupina demokratskih zakonodajalcev v pismu regulatorjem posebej omenila Muskov Grok in opozorila, da bi ohlapne politike glede deepfake-ov (vključno z eksplicitnimi, kot so Kamala Harris ali Taylor Swift) lahko povzročile kaos na volitvah in širše time.com. Zdi se, da Musk stavi na to, da bo zadovoljevanje povpraševanja po AI-generirani erotiki (in celo AI klepetalnih spremljevalkah, ki flirtajo ali se slačijo, kot kažejo nove funkcije xAI time.com) prineslo prihodke in uporabnike. A nasprotovanje – pravno, družbeno in potencialno finančno (zaradi skrbi oglaševalcev) – bi lahko dolgoročno povedalo drugačno zgodbo.

Predlogi politik in pot naprej: Ali lahko omejimo deepfake pornografijo?

Med oblikovalci politik in etiki prevladuje soglasje, da je za reševanje AI-generirane NSFW vsebine potrebna večplastna akcija. Ključni predlogi in ideje vključujejo:

  • Strožji zakoni in izvrševanje: Kot omenjeno, so zakoni, kot je Take It Down Act, začetek. Strokovnjaki predlagajo nadaljnje izboljšave, kot je, da bi bilo dejanje ustvarjanja lažne spolne podobe nekoga brez privolitve kaznivo, ne le njena distribucija. (Združeno kraljestvo gre v to smer hsfkramer.com hsfkramer.com.) Jasne pravne kazni za storilce – in za tiste, ki namenoma gostijo ali služijo s tako vsebino – lahko delujejo kot odvračilo. Pomembno je, da mora biti vsaka zakonodaja skrbno oblikovana, da se izogne nenamernemu kriminaliziranju sporazumne erotične umetnosti ali legitimne politične satire apnews.com apnews.com. Pomembna so tudi civilna pravna sredstva: žrtve potrebujejo enostavne poti za tožbe za odškodnino in pridobitev sodnih odredb za odstranitev vsebine. Mnogi zagovorniki si želijo izjeme v razdelku 230 (ameriški zakon, ki ščiti platforme pred odgovornostjo za uporabniško vsebino), tako da bi bile spletne strani odgovorne, če se ne odzovejo na zahteve za odstranitev deepfake pornografije. To bi platforme prisililo k večji pazljivosti.
  • Tehnološke varovalke: Na razvojni strani predlogi predlagajo, da bi morali ustvarjalci AI modelov vgraditi preventivne varovalke. Na primer, podjetja bi lahko izurila filtre za vsebine, ki zaznajo, kdaj uporabniški poziv vključuje ime ali podobo resnične osebe, in blokirajo vsak ekspliciten izhod, ki vključuje to osebo. (Nekateri generatorji AI slik že zavračajo pozive, ki se nanašajo na zasebne posameznike ali ustvarjajo goloto javnih osebnosti – Grok podjetja xAI je izjema, saj tega ne počne avclub.com.) Druga ideja je zahteva za preverjanje soglasja pri eksplicitnih generacijah: npr. AI storitev bi ustvarila golo sliko le, če uporabnik dokaže, da je subjekt on sam ali soglasni model. Seveda bi lahko zlonamerni uporabniki preprosto uporabili odprtokodne modele brez takih filtrov, vendar bi lahko stroge varovalke na večjih platformah omejile širjenje v splošni javnosti. Preverjanje starosti je prav tako skrb – Grok je imel le lahko obidljiv poziv za vnos datuma rojstva gizmodo.com – zato so pozivi k bolj robustnim starostnim omejitvam, da se zagotovi, da mladoletniki (ki so pogosto tarče ustrahovanja s ponarejenimi golimi slikami) ne morejo uporabljati teh orodij ali biti z njimi upodobljeni.
  • Raziskave in zaznavanje: Vlade financirajo raziskave zaznavanja deepfake vsebin, podjetja pa sodelujejo pri standardih za preverjanje pristnosti medijev. Cilj je olajšati hitro prepoznavanje in odstranjevanje lažne pornografije, ko se pojavi. Vendar pa bo zaznavanje vedno igra mačke in miši, saj postajajo AI ponaredki vse bolj sofisticirani. Nekateri strokovnjaki menijo, da bi se moral poudarek premakniti na preprečevanje škode (prek pravnih sankcij in izobraževanja) namesto upanja na tehnični “detektor ponaredkov”, ki bi zaznal vse. Kljub temu bodo napredki v AI za dobro – kot so boljše zgoščevanje slik za sledenje znanim ponaredkom ali orodja, s katerimi posamezniki preverijo, ali je bila njihova slika zlorabljena – igrali vlogo pri omilitvi težave.
  • Odgovornost platform: Zagovorniške skupine pozivajo, da morajo družbena omrežja in platforme za odrasle proaktivno nadzorovati AI pornografske vsebine. To bi lahko pomenilo vlaganje v ekipe za moderiranje vsebin, usposobljene za prepoznavanje deepfake vsebin, sodelovanje s policijo pri odredbah za odstranitev in prepoved ponavljajočim se kršiteljem, ki ustvarjajo ali delijo nesoglasne materiale. Nekateri pozivajo tudi k uvedbi sistemov za izključitev ali registracijo, kjer lahko posamezniki registrirajo svojo podobo (ali podobo svojih otrok) in platforme morajo zagotoviti, da nobena AI vsebina, ki jih prikazuje, ni dovoljena – čeprav bi bilo to administrativno težko izvajati. Vsaj hitra odzivna pravila – kot je zahteva za odstranitev v 48 urah v ameriški zakonodaji apnews.com – bi morala postati standardna praksa na vseh platformah po svetu.
  • Izobraževanje in norme: Del rešitve je končno tudi v spreminjanju družbenih norm. Tako kot je družba začela splošno obsojati “maščevalno pornografijo” in jo prepoznala kot zlorabo, je upanje, da bo deepfake pornografija postala univerzalno stigmatizirana. Če povprečen človek razume škodo in zavrne deljenje ali ogled takšne vsebine, se bo povpraševanje zmanjšalo. Tehnološki etiki poudarjajo pomen medijske pismenosti – učenja ljudi, da videno ni vedno resnično, in da je lahko škandalozna fotografija Zvezdnika X ponarejena. Opolnomočenje mlajših generacij za kritično navigacijo po svetu medijev, ki jih spreminja umetna inteligenca, bo ključno. Prav tako bodo pomembne kampanje, ki bodo morebitne storilce obvestile, da ustvarjanje teh ponaredkov ni šala – gre za resno kršitev s potencialno kazenskimi posledicami.

Zaključek

Pojav Grokovega “Spicy Mode” je prilil olje na že tako razplamtele razprave o umetni inteligenci in spolno eksplicitnih deepfake vsebinah. Muskovo orodje z umetno inteligenco je s tem, ko je olajšalo in celo “uradno” omogočilo ustvarjanje golih dvojnic slavnih oseb, sprožilo hiter odziv – in osvetlilo širšo krizo deepfake pornografije. Od kongresnih dvoran do komentarjev na tehnoloških forumih se krepi soglasje, da je nekaj treba storiti, da bi zaščitili posameznike (zlasti ženske) pred temnimi platmi te tehnologije.

Kot smo videli, z umetno inteligenco ustvarjena NSFW vsebina ni osamljen pojav – gre za naraščajoč družbeni izziv. Sooča ustvarjalno svobodo in tehnološke inovacije z zasebnostjo, soglasjem in varnostjo. Duh se ne bo vrnil v steklenico, a s pametno politiko, odgovornim razvojem tehnologije in kulturnimi spremembami lahko upamo, da bomo omejili škodo. V prihodnjih mesecih in letih lahko pričakujemo več tožb, več zakonov in izboljšane varnostne ukrepe za umetno inteligenco. Grok Elona Muska se bo morda moral prilagoditi pritiskom ali pa bo postal svarilni primer AI-podjetja, ki je prezrlo etične meje na lastno škodo.

Za zdaj je sporočilo strokovnjakov in javnosti enotno: deepfake pornografija je meja, ki je umetna inteligenca ne sme prestopiti. In če podjetja, kot je xAI, te meje ne bodo postavila sama, so regulatorji in družba vse bolj pripravljeni, da jo postavijo namesto njih. Kot je dejal eden od zagovornikov tehnološke etike: “Ko ti brez dovoljenja spremenijo podobo v pornografijo, je to uničujoče – skrajni čas je, da to obravnavamo kot resno zlorabo in ne kot neizogibnost tehnologije.” Razprava ni več o tem, ali je ukrepanje potrebno, temveč kako hitro in učinkovito lahko omejimo spolno izkoriščanje, ki ga poganja umetna inteligenca, preden bo zaradi naslednje “začinjene” inovacije prizadetih še več življenj.

Viri:

  • Novak, Matt. “Grokov ‘Spicy’ način ustvarja NSFW deepfake slavnih žensk (ne pa moških).Gizmodo, 6. avgust 2025 gizmodo.com gizmodo.com.
  • Weatherbed, Jess. “Grokujeva nastavitev videa ‘Spicy’ mi je takoj ustvarila Taylor Swift gole deepfake posnetke.The Verge, 5. avg. 2025 theverge.com.
  • Carr, Mary Kate. “Elon Musk praktično prosi za tožbo Taylor Swift zaradi Grok AI golih deepfake posnetkov.AV Club, 7. avg. 2025 avclub.com avclub.com.
  • Saner, Emine. “Znotraj škandala z deepfake posnetki Taylor Swift: ‘To so moški, ki močni ženski govorijo, naj se vrne v svojo škatlo’.The Guardian, 31. jan. 2024 theguardian.com theguardian.com.
  • Clark, Nicole. “Streamer, ki je sprožil škandal z deepfake pornografijo na Twitchu, se vrača.Polygon, 16. mar. 2023 polygon.com polygon.com.
  • Patrini, Giorgio. “Stanje deepfake posnetkov.” Poročilo Deeptrace Labs, okt. 2019 regmedia.co.uk.
  • Citron, Danielle. Intervju v NYMag Intelligencer, okt. 2019 nymag.com.
  • Ortutay, Barbara. “Predsednik Trump je podpisal zakon Take It Down, ki obravnava neprostovoljne deepfake posnetke. Kaj je to?AP News, avg. 2025 apnews.com apnews.com.
  • Burga, Solcyre. “Elon Muskov Grok bo kmalu uporabnikom omogočil ustvarjanje AI videoposnetkov, tudi eksplicitne narave.TIME, avg. 2025 time.com time.com.
  • Odvetniška pisarna Herbert Smith Freehills. “Kazniva dejanja deepfake – novi prekrški v Združenem kraljestvu…,” 21. maj 2024 hsfkramer.com hsfkramer.com.

Tags: , ,