Elon Muskov ‘začinjeni’ AI način izazvao skandal s NSFW deepfakeovima – Zašto su žene mete nove AI porno krize

Nova AI inicijativa Elona Muska našla se na udaru zbog generiranja golih deepfakeova slavnih osoba bez pristanka – i to na uznemirujuće rodno pristran način. Nedavna istraga Gizmoda otkriva da Muskova Grok Imagine alatka, sa svojim “Spicy” načinom rada, spremno stvara NSFW videe poznatih žena (poput Taylor Swift ili Melanije Trump), ali odbija učiniti isto za muškarce gizmodo.com gizmodo.com. Ovo izvješće detaljno analizira Gizmodove nalaze o kontroverznoj značajci Groka, ispituje brzi porast AI-generiranog pornografskog sadržaja i deepfakeova, te istražuje etičke, pravne i društvene implikacije. Također pratimo trenutna zbivanja do kolovoza 2025. – od javnog ogorčenja i upozorenja stručnjaka do novih zakona usmjerenih na suzbijanje AI “osvetničke pornografije.” Cilj: razumjeti kako je “Spicy Mode” postao najnovija točka prijepora u tekućoj krizi NSFW AI sadržaja i što se može učiniti po tom pitanju.
Grokov “Spicy Mode” – NSFW deepfakeovi i ugrađena pristranost
Grok Imagine je xAI-jev generator slika i videa (dostupan pretplatnicima na Muskovoj X platformi) i posebno omogućuje korisnicima stvaranje sadržaja za odrasle putem “Spicy” načina rada gizmodo.com. Dok glavni AI alati poput Googleovog Veo i OpenAI-jevog Sora zabranjuju eksplicitne ili slike slavnih osoba, Grokov Spicy način rada aktivno to potiče avclub.com avclub.com. Testiranje Vergea je pokazalo da AI “nije oklijevao izbaciti potpuno necenzurirane toples videe Taylor Swift” iz prvog pokušaja – čak i bez zahtjeva za golotinjom theverge.com. Slično tome, Deadline je otkrio da je trivijalno lako natjerati Groka da generira sliku Scarlett Johansson kako pokazuje donje rublje avclub.com. U oštrom kontrastu, pokušaji stvaranja muške golotinje nisu dali rezultate. Kako izvještava Gizmodo, “generirao bi samo one s prikazom žena kao zaista neprimjerene za radno mjesto. Videi s muškarcima bili su takvi da zapravo ne bi izazvali mnogo pažnje.” gizmodo.com U praksi, Grokov Spicy način rada može prikazati muškarca najviše bez majice, dok su žene prikazane toples ili potpuno gole.
Ovaj očiti dvostruki standard izazvao je uzbunu. Grok će generirati softcore pornografski isječak ženske javne osobe na klik gumba gizmodo.com, ali isti “Spicy” filter očito staje na pukoj golotinji do pojasa kod muškaraca gizmodo.com. Matt Novak s Gizmoda čak je pokušao zadati upit za generičkog, nepoznatog muškarca naspram generičke žene: muški avatar nespretno je povlačio hlače, ali je ostao pokriven, dok je ženski avatar odmah otkrio grudi gizmodo.com. Takvi rezultati sugeriraju rodnu pristranost ugrađenu u AI moderaciju sadržaja (bilo namjerno ili kao nusprodukt treniranja). Muskova vlastita povijest mizoginih izjava – od pojačavanja tvrdnji da su žene “slabe” gizmodo.com do šale o tome kako bi oplodio Taylor Swift – dodatno pojačava sumnje da je ova pristranost više značajka nego greška gizmodo.com.Mogućnosti i ograničenja: Vrijedi napomenuti da su Grokovi deepfakeovi često loše kvalitete. Sličnosti sa slavnim osobama koje proizvodi često su neuvjerljive ili pune grešaka gizmodo.com gizmodo.com. (Na primjer, slike koje su trebale prikazivati glumicu Sydney Sweeney ili političara J.D. Vancea nisu nimalo nalikovale stvarnim osobama gizmodo.com.) Bizarne greške u kontinuitetu – poput muškarca s neusklađenim nogavicama na hlačama u jednom videu – česte su gizmodo.com. Grok također automatski generira generičku pozadinsku glazbu ili zvuk za svaki isječak, što dodatno pojačava nadrealni “uncanny valley” dojam gizmodo.com. Ovi tehnički nedostaci mogli bi biti spas u zadnji čas za xAI trenutno, budući da bi zaista uvjerljive gole krivotvorine slavnih gotovo sigurno izazvale tužbe i sudske zabrane gizmodo.com. Kako je Gizmodo duhovito primijetio, Muskova najbolja obrana od pravnih postupaka možda je to što “slike nisu ni blizu” stvarnim slavnim osobama gizmodo.com. No, tehnologija se brzo poboljšava, a čak su i ovi nesavršeni deepfakeovi dovoljno prepoznatljivi da budu zabrinjavajući avclub.com.
Javna reakcija: Uvođenje “Spicy Modea” odmah je izazvalo bijes na društvenim mrežama i u medijima. Nekoliko dana nakon lansiranja Grok Imaginea, X (Twitter) bio je preplavljen AI-generiranim slikama golih žena, a korisnici su s oduševljenjem dijelili savjete kako postići što više golotinje u svojim upitima gizmodo.com. To je izazvalo široke kritike da je Musk zapravo otvorio vrata za AI-potpomognuto seksualno uznemiravanje i iskorištavanje. “Većina sadržaja Grok Imaginea koje je Musk podijelio ili ponovno objavio su isječci generički izgledajućih bujnih plavuša ili žena u otkrivajućim fantastičnim kostimima,” primijetio je A.V. Club, ističući da se čini kako Musk želi preuzeti dio Pornhubovog tržišta avclub.com avclub.com. Tehnološki blogeri i komentatori podrugljivo su sugerirali da Musk “praktički moli za tužbu Taylor Swift” zbog Grokovih automatski generiranih golih slika avclub.com. Doista, neki komentatori pozivaju poznate mete poput Swift da tuže Muska i “učine svijet sigurnijim za druge žene i djevojke” avclub.com. Za sada nema javnih naznaka pravnih postupaka iz Swiftinog tima ili drugih – ali pozivi na odgovornost postaju sve glasniji.
Čak i izvan kontroverze oko Groka, 2024. godina donijela je veliku javnu osudu AI-generirane pornografije na platformi X. U jednom incidentu, deepfake pornografske slike Taylor Swift masovno su se proširile platformom, a jedna lažna fotografija prikupila je 47 milijuna pregleda prije uklanjanja theguardian.com. Obožavatelji su se masovno mobilizirali kako bi prijavili slike, a čak se i Bijela kuća oglasila, nazvavši situaciju “alarmantnom” theguardian.com. Slučaj Taylor Swift izniman je samo po pažnji koju je dobio; bezbrojne žene (poznate ili ne) vidjele su kako se njihov lik koristi u eksplicitnom sadržaju koji platforme ne uspijevaju brzo ukloniti theguardian.com theguardian.com. Javni bijes oko ovih incidenata – a sada i oko Grokovog ugrađenog NSFW moda – odražava rastući konsenzus da AI alati koji omogućuju seksualne deepfakeove prelaze etičke granice.
Brzi uspon AI-generiranog NSFW sadržaja i deepfakeova
Epizoda s Grokom najnovije je poglavlje u zabrinjavajućem trendu: AI-generirana pornografija (“deepfake porn”) eksplodirala je po učestalosti tijekom posljednjih nekoliko godina. Fenomen je prvi put postao zloglasan još 2017. godine, kada su entuzijasti na Redditu počeli koristiti rane algoritme dubokog učenja za zamjenu lica slavnih osoba na tijelima porno glumaca. Do 2018. godine, takozvani “deepfake” videozapisi Gal Gadot, Emme Watson, Scarlett Johansson i drugih počeli su se širiti po stranicama za odrasle – što je potaknulo zabrane takvog neovlaštenog sadržaja na platformama poput Reddita, Twittera i Pornhuba theguardian.com theverge.com.
Unatoč tim ranim zabranama, industrija deepfake pornografije preselila se u sjenu i nastavila rasti. Krajem 2019. godine, ključni izvještaj tvrtke za kibernetičku sigurnost Deeptrace otkrio je da je 96% svih deepfake videa koji kruže internetom pornografsko, nenamjensko zamjenjivanje lica, gotovo isključivo s ciljem ženskih meta regmedia.co.uk. Četiri najveće deepfake pornografske web stranice koje su proučavane skupile su više od 134 milijuna pregleda na videima usmjerenim na “stotine svjetskih ženskih slavnih osoba.” regmedia.co.uk Ova neravnoteža bila je očita: žrtve su bile pretežno žene, a potrošači su pretežno bili zainteresirani za žene kao seksualne objekte. “99% deepfake seksualnih videa uključuje žene, obično slavne osobe,” primijetila je profesorica prava Danielle Citron, ističući kako ova djela “čine vas seksualnim objektom na načine koje niste izabrali” nymag.com. “Nema ništa loše u pornografiji dokle god ste je sami izabrali,” dodala je Citron – užas deepfakeova je u tome što te žene nikada nisu izabrale da se njihov lik koristi u eksplicitnim scenama nymag.com.U početku su dominirali deepfakeovi slavnih osoba, ali sada su sve češće mete obični ljudi. U siječnju 2023. Twitch zajednicu potresao je skandal kada je popularni streamer Brandon “Atrioc” Ewing slučajno otkrio da je gledao deepfake pornografsku web stranicu koja je prodavala eksplicitne videe ženskih streamerica – montirajući njihova lica na tijela porno glumica polygon.com. Žene (neke od njih bile su Atriocove osobne prijateljice) bile su shrvane i doživjele valove uznemiravanja nakon što su deepfakeovi izašli na vidjelo polygon.com. Jedna od žrtava, streamerica QTCinderella, dala je uplakanu izjavu osuđujući povredu i kasnije pomogla organizirati pravne napore za uklanjanje takvog sadržaja polygon.com polygon.com. “Twitch deepfake” skandal je pokazao da ne morate biti holivudska zvijezda da bi vam se to dogodilo – svaka osoba čije su slike na internetu potencijalno je ranjiva na to da je AI “razgoliti” protiv njezine volje.
Porast korisnički pristupačnih AI alata samo je ubrzao taj trend. Godine 2019. aplikacija pod nazivom DeepNude nakratko je postala viralna jer je pomoću AI-a “svlačila” fotografije žena jednim klikom, stvarajući lažne gole slike onezero.medium.com. Iako je tvorac DeepNudea ugasio aplikaciju zbog javne osude, duh je već bio pušten iz boce. Do 2023.–2025. godine, generatori slika otvorenog koda (poput izvedenica Stable Diffusiona) i specijalizirane deepfake usluge učinile su trivijalnim da bilo tko s nekoliko fotografija i minimalnim tehničkim znanjem može stvoriti gole ili seksualne slike drugih. Neki forumi otvoreno razmjenjuju AI-generirane gole slike žena preuzete s društvenih mreža. Kako je jedna žrtva, Twitch streamerica, rekla nakon što je otkrila pornografske lažnjake sa svojim likom, “Ovo nema nikakve veze sa mnom. A ipak je ovdje s mojim licem.” theguardian.com Osjećaj povrijeđenosti i nemoći je opipljiv među onima koji su bili “digitalno viktimizirani.”
Ukratko, AI je demokratizirao mogućnost stvaranja pornografskih lažnjaka, a ta je sposobnost nesrazmjerno iskorištena protiv žena. Nisu samo slavne osobe meta – to je bilo tko, od novinarki i aktivistica (koje mogu biti meta radi zastrašivanja ili diskreditacije) do bivših partnerica i privatnih osoba (meta osvetoljubivih pojedinaca ili radi iznude). Pojava značajki poput Grokovog Spicy moda – koji je dao službeni, korisnički pristupačan pečat onome što je prije bila podzemna praksa – signalizira da je NSFW generativni AI zaista ušao u mainstream, povlačeći za sobom svu svoju etičku prtljagu.
Etičke, pravne i društvene implikacije AI-generirane pornografije
Etičko zgražanje nad deepfake pornografijom je široko rasprostranjeno. U svojoj srži, stvaranje ili dijeljenje seksualnog sadržaja neke osobe bez njezina pristanka duboko je kršenje privatnosti, dostojanstva i autonomije. Kako tvrde Citron i drugi etičari, ovo je više od zlostavljanja putem slika – to je oblik seksualne eksploatacije. Žrtve opisuju osjećaje “nemoći, poniženja i užasa” znajući da stranci (ili zlostavljači) gledaju lažne videozapise njih u seksualnim radnjama koje nikada nisu učinile. To može predstavljati virtualni oblik seksualnog napada, ostavljajući trajnu traumu. Nije iznenađujuće da žene i djevojke najviše pate: “Nepristančani intimni deepfakeovi” su “trenutna, ozbiljna i rastuća prijetnja, koja nesrazmjerno pogađa žene,” zaključuju istraživači sciencedirect.com.
Također postoji mizogini podtekst u velikom dijelu ovog sadržaja. Stručnjaci napominju da se deepfake pornografija često koristi kao oružje za ponižavanje žena koje su na pozicijama moći ili koje odbijaju nečije udvaranje. “AI-generirana pornografija, potaknuta mizoginijom, preplavljuje internet,” primijetio je The Guardian usred afere s deepfakeovima Taylor Swift theguardian.com. Sam čin svlačenja žene pomoću umjetne inteligencije može se smatrati pokušajem da je se “stavi na njezino mjesto.” “To su muškarci koji moćnoj ženi govore da se vrati u svoj okvir,” kako je jedan promatrač opisao atmosferu incidenta sa Swift. Bilo da se radi o anonimnim trolovima koji proizvode gole slike političarke ili opsjednutom obožavatelju koji izrađuje lažne seksualne snimke pop zvijezde, poruka je slična – oblik digitalne objektifikacije i zastrašivanja.
Osim individualne štete, društvene implikacije su zabrinjavajuće. Ako se bilo tko može umetnuti u pornografiju, vizualnim medijima više ne možemo vjerovati. Deepfakeovi prijete reputacijskom štetom i ucjenom u velikim razmjerima. Žene u javnosti možda će se autocenzurirati ili povući iz online angažmana iz straha da ne postanu mete. Također postoji efekt zastrašivanja na slobodu govora: zamislite novinarku kritičnu prema režimu koja postane predmet realističnog lažnog seksualnog videa koji kruži s ciljem da je osramoti. U cjelini, normalizacija “dizajnerske pornografije” s nevoljnim sudionicima otvara pitanja o pristanku, seksualnom iskorištavanju i komodifikaciji ljudskog lika. Čak i za sadržaje za odrasle uz pristanak, neki se brinu da bi AI-generirani izvođači mogli zamijeniti stvarne modele – ali kada ti AI izvođači nose prava lica ljudi ukradena s Facebooka ili Instagrama, granica pristanka je očito pređena.
Sloboda govora vs. privatnost: Postoji napetost između onih koji pozivaju na zabranu sve pornografske deepfake sadržaje i zagovornika slobode govora koji su zabrinuti zbog pretjeranog zadiranja u prava. Može li deepfake slavne osobe ikada biti smatran legitimnom parodijom ili umjetnošću? U teoriji, da – satira i parodija su zaštićeni oblici izražavanja, čak i kada koriste lik javnih osoba. Neki branitelji AI tehnologije ističu da su izmijenjene slike javnih osoba već dugo dio popularne kulture (npr. Photoshopirane naslovnice časopisa), tvrdeći da bi isforsirana kriminalizacija mogla ugušiti kreativnost. Ipak, čak i većina stručnjaka za slobodu govora povlači crtu kod nepristalih seksualnih prikaza. Šteta za pojedinca je toliko intenzivna i osobna da vjerojatno nadmašuje svaki javni interes. Pravni stručnjaci ističu da zakoni o kleveti ili uznemiravanju mogu pokriti neke slučajeve, ali ne sve. Sve je veći konsenzus da su potrebne nove pravne zaštite koje bi se posebno bavile deepfake pornografijom, a da se pritom ne ugrozi legitimno izražavanje apnews.com apnews.com. Precizno oblikovanje tih zakona – kako bi se kaznile očite zloupotrebe, a ne obuhvatila satira ili sporazumna erotika – izazov je s kojim se zakonodavci sada suočavaju apnews.com apnews.com.
Trenutna zbivanja (od kolovoza 2025.): Od tehnološkog otpora do novih zakona
kontroverza oko Grokovog “Spicy” moda dolazi u trenutku kada vlade i platforme diljem svijeta konačno poduzimaju mjere protiv epidemije AI-generiranih intimnih slika. Evo nekih od najnovijih zbivanja:
- Nacionalno ogorčenje i aktivizam: Viralni incidenti u koje su uključeni Taylor Swift i drugi galvanizirali su javno mnijenje. Čak je i Bijela kuća SAD-a komentirala deepfakeove sa Swift, kako je navedeno, nazvavši ih “zabrinjavajućima” theguardian.com. Zagovaračke skupine poput Nacionalnog centra za suzbijanje seksualne eksploatacije bile su glasne, osuđujući Muskove xAI zbog “daljnje seksualne eksploatacije omogućavanjem AI videa za stvaranje golotinje” i pozivajući na uklanjanje takvih značajki time.com. “xAI bi trebao tražiti načine za sprječavanje seksualnog zlostavljanja i eksploatacije,” izjavila je Haley McNamara iz NCOSE-a, odražavajući širi pritisak civilnog društva time.com.
- Istraživanja pokazuju veliku javnu podršku za zabrane: Nedavna istraživanja pokazuju da je javnost čvrsto na strani strože regulacije. Anketa Instituta za politiku umjetne inteligencije iz siječnja 2025. pokazala je da 84% Amerikanaca podržava izričitu zabranu neodobrenog deepfake pornografskog sadržaja, a slično žele i da AI kompanije “ograniče [AI] modele kako bi spriječile njihovu upotrebu za stvaranje deepfake pornografije.” time.com. Pew Research anketa iz 2019. također je pokazala da otprilike tri četvrtine odraslih u SAD-u podržava ograničenja na digitalno izmijenjene videozapise/slike time.com. Ukratko, čini se da birači iz svih dijelova spektra žele akciju protiv ovog oblika zlostavljanja.
- Novi zakoni i prijedlozi zakona: Zakonodavci su čuli poziv. U SAD-u, Zakon Take It Down potpisan je u svibnju 2025., čime je donesen prvi savezni zakon usmjeren na deepfake pornografiju time.com. Ovaj dvostranački zakon čini nezakonitim “svjesno objavljivanje ili prijetnju objavljivanjem” intimnih slika bez pristanka – uključujući deepfake sadržaje stvorene umjetnom inteligencijom – i zahtijeva od platformi da uklone takav materijal u roku od 48 sati nakon obavijesti žrtve apnews.com apnews.com. Kazne su stroge, a zakon daje žrtvama ovlasti da brzo uklone sadržaj apnews.com apnews.com. “Moramo žrtvama internetskog zlostavljanja pružiti pravnu zaštitu koja im je potrebna, osobito sada kada deepfakeovi stvaraju zastrašujuće nove mogućnosti za zlostavljanje,” izjavila je senatorica Amy Klobuchar, supokroviteljica zakona, nazvavši zakon “velikom pobjedom za žrtve internetskog zlostavljanja.” apnews.com apnews.com Čak i prije saveznog zakona, više od 15 američkih saveznih država zabranilo je izradu ili distribuciju eksplicitnih deepfakeova (često ažuriranjem zakona o “osvetničkoj pornografiji”). Sada se pojavljuje jedinstveni savezni standard. I druge zemlje djeluju istovremeno. Vlada Ujedinjenog Kraljevstva, primjerice, kriminalizirala je dijeljenje deepfake pornografije u svom Zakonu o internetskoj sigurnosti (na snazi početkom 2024.), te napreduje s zakonodavstvom koje kriminalizira čak i izradu seksualno eksplicitnih deepfakeova bez pristanka hsfkramer.com hsfkramer.com. U siječnju 2025. UK je ponovno predstavio prijedlog kojim bi izrada deepfake golih slika postala nezakonita, naglašavajući to kao “povijesni iskorak za zaštitu žena i djevojaka.” <a href=”https://www.hsfkramer.com/notes/tmt/2024-05/criminalising-deepfakes-the-uks-new-offences-following-the-online-safety-act#:~:text=Further%20update%3A%20On%207%20January,Act%2020hsfkramer.com hsfkramer.com Australija je 2024. donijela zakon kojim se zabranjuje i izrada i distribucija deepfake seksualnog materijala, a Južna Koreja je otišla toliko daleko da je predložila kriminalizaciju čak i posjedovanja ili gledanja takve deepfake pornografije (ne samo njezine proizvodnje) hsfkramer.com. Globalni trend je jasan: nepristančene AI seksualne slike smatraju se zločinom. Zakonodavci priznaju da te slike “mogu uništiti živote i reputacije,” kako je rekla Klobuchar apnews.com, i poduzimaju mjere – iako organizacije za zaštitu slobode izražavanja poput EFF-a upozoravaju da loše napisani zakoni mogu dovesti do pretjerane cenzure ili zloupotrebe apnews.com apnews.com.
- Pravila tehnoloških platformi: Glavne tehnološke platforme počele su ažurirati svoja pravila (barem na papiru) kako bi se pozabavile seksualnim sadržajem stvorenim pomoću AI-a. Facebook, Instagram, Reddit i tradicionalni Twitter službeno zabranjuju ne-suglasne intimne slike, uključujući deepfakeove theguardian.com theverge.com. Pornhub i druge stranice za odrasle također su uvele zabrane AI-generiranog sadržaja sa stvarnim osobama bez pristanka još 2018. godine theguardian.com theverge.com. U praksi, provođenje ostaje nedosljedno – odlučan korisnik i dalje može pronaći ili dijeliti nedopuštene deepfakeove na mnogim platformama. Ipak, postoje znakovi napretka: primjerice, nakon incidenta sa Swift, X (Twitter) je ipak reagirao blokiranjem pretraga za njezino ime kako bi zaustavio širenje theguardian.com theguardian.com. Reddit ne samo da zabranjuje deepfake pornografiju, već je ugasio cijele zajednice koje su razmjenjivale takav materijal. YouTube i TikTok također imaju pravila koja zabranjuju AI-manipulirane eksplicitne slike. Izazov su razmjeri i detekcija – zbog čega se primjenjuju nove tehnologije.
- Otkrivanje i zaštitne mjere: Sve veća industrija tehnoloških rješenja nastoji otkriti i ukloniti deepfake pornografiju. AI tvrtke poput Sensity (prije Deeptrace) i startupi poput Ceartas razvijaju algoritme za otkrivanje koji pretražuju internet tražeći nečije lice u pornografskom sadržaju i označavaju podudaranja polygon.com polygon.com. Zapravo, nakon Twitch skandala, Atrioc je surađivao s Ceartas kako bi pomogao žrtvama streamericama: tvrtka je koristila svoj AI za lociranje deepfake sadržaja tih žena i podnošenje DMCA zahtjeva za uklanjanje polygon.com polygon.com. OnlyFans, platforma kojoj je u interesu zaštita kreatora, također je angažirala takve alate za nadzor lažnog sadržaja svojih modela polygon.com. Također se radi na ugrađivanju vodenih žigova ili metapodataka u AI-generirane slike kako bi se lakše prepoznale lažnjake, kao i na prijedlozima da se zahtijeva kriptografska autentikacija stvarnih slika (tako da se slike bez oznake mogu smatrati lažnima). Štoviše, Zakon o umjetnoj inteligenciji Europske unije (dogovoren 2024.) uključuje odredbe prema kojima programeri deepfake alata moraju osigurati da su rezultati jasno označeni kao AI-generirani bioid.com. Nekoliko američkih saveznih država (i EU) razmatra obvezu da svaki AI-izmijenjeni sadržaj bude popraćen objavom prilikom objavljivanja cjel.law.columbia.edu bioid.com. Iako takve oznake neće spriječiti zlonamjerne aktere da ih uklone, one predstavljaju pokušaj uspostavljanja normi transparentnosti oko sintetičkih medija.
- Platforma vs. Muskova X: Vrijedi istaknuti koliko je neobičan Muskova strategija s X i xAI. Dok većina platformi pooštrava ograničenja, Musk ih je zapravo olabavio, privlačeći korisnike koji žele “provokativne” AI mogućnosti. X ne samo da nije zabranio Grokove rezultate; X je dom Groka. Ovo odstupanje dovelo je X u sukob s mnogim stručnjacima. U kolovozu 2024. skupina demokratskih zakonodavaca posebno je navela Muskova Groka u pismu regulatorima, upozoravajući da bi labava pravila o deepfakeovima (uključujući eksplicitne s osobama poput Kamala Harris ili Taylor Swift) mogla izazvati kaos na izborima i šire time.com. Čini se da Musk računa na to da će udovoljavanje potražnji za AI-generiranom erotikom (pa čak i AI chat pratiteljima koji flertuju ili se svlače, što pokazuju nove xAI značajke time.com) donijeti prihode i korisnike. No, reakcija – pravna, društvena i potencijalno financijska (zbog zabrinutosti oglašivača) – dugoročno bi mogla pokazati drugačiju sliku.
Prijedlozi politika i put naprijed: Možemo li obuzdati deepfake pornografiju?
Konsenzus među kreatorima politika i etičarima je da je potrebna višestruka akcija za rješavanje AI-generiranog NSFW sadržaja. Ključni prijedlozi i ideje uključuju:
- Jači zakoni i provedba: Kao što je navedeno, zakoni poput Take It Down Act su početak. Stručnjaci predlažu daljnje dorade, poput toga da čin stvaranja lažne seksualne slike nekoga bez pristanka bude kazneno djelo, a ne samo njezina distribucija. (UK ide u tom smjeru hsfkramer.com hsfkramer.com.) Jasne zakonske kazne za počinitelje – i za one koji svjesno hostaju ili zarađuju na takvom sadržaju – mogu djelovati kao odvraćanje. Važno je da svaki zakon bude pažljivo definiran kako ne bi nenamjerno kriminalizirao sporazumnu erotsku umjetnost ili legitimnu političku satiru apnews.com apnews.com. Građanskopravna sredstva su također ključna: žrtve trebaju jednostavne načine za tužbu i dobivanje sudskih naloga za uklanjanje sadržaja. Mnogi zagovornici žele vidjeti iznimke u Sekciji 230 (američki zakon koji štiti platforme od odgovornosti za korisnički sadržaj) kako bi se web stranice mogle smatrati odgovornima ako ne reagiraju na zahtjeve za uklanjanje deepfake pornografije. To bi natjeralo platforme na mnogo veću budnost.
- Tehnološke zaštitne mjere: Na strani razvoja, prijedlozi sugeriraju da bi kreatori AI modela trebali ugrađivati preventivne zaštitne mjere. Na primjer, tvrtke bi mogle trenirati filtre za sadržaj da prepoznaju kada korisnički upit uključuje ime ili lik stvarne osobe i blokiraju svaki eksplicitni rezultat koji uključuje tu osobu. (Neki AI generatori slika već odbijaju upite koji se odnose na privatne osobe ili proizvode golotinju javnih osoba – xAI-jev Grok je iznimka jer to ne čini avclub.com.) Druga ideja je zahtijevanje provjere pristanka za eksplicitne generacije: npr. AI usluga bi mogla generirati golu sliku samo ako korisnik dokaže da je subjekt on sam ili model koji je dao pristanak. Naravno, zlonamjerni korisnici mogli bi jednostavno koristiti open-source modele bez takvih filtera, ali ako glavne platforme usvoje stroge zaštitne mjere, to bi moglo ograničiti širenje u mainstreamu. Provjera dobi također je zabrinjavajuća – Grokova jedina provjera bila je unos datuma rođenja koji se lako može zaobići gizmodo.com – pa postoje pozivi za robusnije provjere dobi kako bi se osiguralo da maloljetnici (koji su često mete zlostavljanja putem lažnih golih slika) ne mogu koristiti ove alate niti biti prikazani njima.
- Istraživanje i detekcija: Vlade financiraju istraživanja detekcije deepfakeova, a tvrtke surađuju na standardima za autentifikaciju medija. Cilj je olakšati brzo prepoznavanje i uklanjanje lažne pornografije kada se pojavi. Međutim, detekcija će uvijek biti igra mačke i miša kako AI lažnjaci postaju sofisticiraniji. Neki stručnjaci smatraju da bi se fokus trebao prebaciti na sprječavanje štete (kroz zakonske kazne i edukaciju) umjesto da se nada tehničkom “detektoru lažnjaka” koji će sve uhvatiti. Ipak, napredak AI-a za dobrobit – poput boljeg hashiranja slika za praćenje poznatih lažnjaka ili alata za pojedince da pronađu je li njihova slika zloupotrijebljena – igrat će ulogu u ublažavanju problema.
- Odgovornost platformi: Aktivističke skupine pozivaju da društvene mreže i platforme za odrasle moraju proaktivno nadzirati AI pornografski sadržaj. To bi moglo značiti ulaganje u timove za moderiranje sadržaja osposobljene za prepoznavanje deepfakeova, suradnju s policijom na nalozima za uklanjanje i zabranu ponovljenih prekršitelja koji stvaraju ili dijele materijal bez pristanka. Neki također pozivaju na sustave isključivanja ili registre, gdje pojedinci mogu registrirati svoj lik (ili svoje djece), a platforme moraju osigurati da nijedan AI sadržaj koji ih prikazuje nije dopušten – iako bi to administrativno bilo teško provesti. Minimalno, protokoli za brzi odgovor – poput zahtjeva za uklanjanje u roku od 48 sati prema američkom zakonu apnews.com – trebaju postati standardna praksa na svim platformama globalno.
- Obrazovanje i norme: Konačno, dio rješenja leži u promjeni društvenih normi. Kao što je društvo počelo široko osuđivati “osvetničku pornografiju” i prepoznalo je kao zlostavljanje, nada je da će deepfake pornografija postati univerzalno stigmatizirana. Ako prosječna osoba shvati štetu i odbije dijeliti ili konzumirati takav sadržaj, potražnja će se smanjiti. Tehnički etičari naglašavaju važnost medijske pismenosti – poučavanja ljudi da viđeno nije uvijek istinito, i da provokativna fotografija slavne osobe X možda nije stvarna. Osnaživanje mlađih generacija za kritičko snalaženje u svijetu medija izmijenjenih umjetnom inteligencijom bit će ključno. Također će biti važne kampanje koje potencijalnim počiniteljima jasno daju do znanja da stvaranje ovakvih lažnjaka nije šala – to je ozbiljno kršenje s mogućim kaznenim posljedicama.
Zaključak
Pojava Grokovog “Spicy Modea” dolila je ulje na već rasplamsalu vatru oko umjetne inteligencije i seksualno eksplicitnih deepfakeova. Alat Elona Muska za umjetnu inteligenciju, time što olakšava i čak “službeno” omogućuje generiranje golišavih dvojnika slavnih osoba, izazvao je brzu reakciju – i bacio svjetlo na širu krizu deepfake pornografije. Od hodnika Kongresa do komentara na tehnološkim forumima, raste slaganje da nešto mora biti učinjeno kako bi se pojedinci (posebno žene) zaštitili od mračnih primjena ove tehnologije.
Kao što smo vidjeli, NSFW sadržaj generiran umjetnom inteligencijom nije izolirana novost – to je rastući društveni izazov. Suprotstavlja kreativnu slobodu i tehnološke inovacije privatnosti, pristanku i sigurnosti. Džin se neće vratiti u bocu, ali pametnom politikom, odgovornim razvojem tehnologije i kulturnom promjenom možemo se nadati da ćemo ograničiti štetu. U nadolazećim mjesecima i godinama vjerojatno nas očekuje više tužbi, više zakona i poboljšane AI zaštite. Muskova Grok bi se mogla prilagoditi pod pritiskom ili postati upozoravajuća priča o AI projektu koji je zanemario etičke granice na vlastitu štetu.
Za sada, poruka stručnjaka i javnosti je jasna: deepfake pornografija je granica koju umjetna inteligencija ne smije prijeći. A ako tvrtke poput xAI-a same ne povuku tu granicu, regulatori i društvo sve su spremniji povući je umjesto njih. Kako je rekao jedan zagovornik etike u tehnologiji, “Pretvaranje vašeg lika u pornografiju bez pristanka je razarajuće – krajnje je vrijeme da to tretiramo kao ozbiljno zlostavljanje kakvo jest, a ne kao neizbježnost tehnologije.” Rasprava više nije o tome treba li djelovati, već koliko brzo i učinkovito možemo obuzdati seksualno iskorištavanje potaknuto umjetnom inteligencijom, prije nego što još više života bude uništeno sljedećom “začinjenom” inovacijom.
Izvori:
- Novak, Matt. “Grokov ‘Spicy’ način stvara NSFW deepfakeove slavnih žena (ali ne i muškaraca).” Gizmodo, 6. kolovoza 2025. gizmodo.com gizmodo.com.
- Weatherbed, Jess. “Grokuova ‘Spicy’ video postavka odmah mi je napravila Taylor Swift gole deepfakeove.” The Verge, 5. kolovoza 2025. theverge.com.
- Carr, Mary Kate. “Elon Musk praktički moli za tužbu Taylor Swift zbog Grok AI golih deepfakeova.” AV Club, 7. kolovoza 2025. avclub.com avclub.com.
- Saner, Emine. “Unutar skandala s Taylor Swift deepfakeovima: ‘To su muškarci koji moćnoj ženi govore da se vrati u svoj okvir’.” The Guardian, 31. siječnja 2024. theguardian.com theguardian.com.
- Clark, Nicole. “Streamer koji je potaknuo Twitch deepfake pornografski skandal se vraća.” Polygon, 16. ožujka 2023. polygon.com polygon.com.
- Patrini, Giorgio. “Stanje deepfakeova.” Deeptrace Labs izvješće, listopad 2019. regmedia.co.uk.
- Citron, Danielle. Intervju u NYMag Intelligencer, listopad 2019. nymag.com.
- Ortutay, Barbara. “Predsjednik Trump potpisuje Take It Down Act, rješavajući neodobrene deepfakeove. Što je to?” AP News, kolovoz 2025. apnews.com apnews.com.
- Burga, Solcyre. “Elon Muskov Grok uskoro će korisnicima omogućiti izradu AI videa, uključujući i eksplicitne prirode.” TIME, kol. 2025. time.com time.com.
- Herbert Smith Freehills odvjetnička tvrtka. “Kriminalizacija deepfakeova – nova kaznena djela u Ujedinjenom Kraljevstvu…,” 21. svibnja 2024. hsfkramer.com hsfkramer.com.