LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

Elon Musk sin ‘krydrede’ KI-modus utløyser NSFW deepfake-skandale – Kvifor kvinner er målet i ein ny KI-porno-krise

Elon Musk sin ‘krydrede’ KI-modus utløyser NSFW deepfake-skandale – Kvifor kvinner er målet i ein ny KI-porno-krise

Grok 4: Inside Elon Musk’s Most Powerful (and Controversial) AI Chatbot Yet

Elon Musks nye AI-satsing er under hard kritikk for å generere ikke-samtykkebaserte nakne deepfakes av kjendiser – og for å gjøre det på en foruroligende kjønnsdiskriminerende måte. Ein fersk Gizmodo-gransking avslører at Musks Grok Imagine-verktøy, med sin “Spicy”-modus, lett lagar NSFW-videoar av kjende kvinner (tenk Taylor Swift eller Melania Trump), men nektar å gjere det same for menn gizmodo.com gizmodo.com. Denne rapporten går i djupna på Gizmodos funn om Grok sitt kontroversielle trekk, ser på den raske veksten av AI-generert pornografisk innhald og deepfakes, og utforskar dei etiske, juridiske og samfunnsmessige implikasjonane. Vi ser òg på utviklinga per august 2025 – frå offentleg harme og åtvaringar frå ekspertar til nye lover som skal stoppe AI-“hevnporno.” Målet: å forstå korleis “Spicy Mode” vart det siste stridstemaet i den pågåande NSFW-AI-innhaldskrisa, og kva som kan gjerast med det.

Groks “Spicy Mode” – NSFW-deepfakes og innebygd skeivskap

Grok Imagine er xAI si bilete- og videogenerator (tilgjengeleg for betalande abonnentar på Musks X-plattform) og merkverdig nok lar brukarar lage vaksent innhald via ein “Spicy”-modus gizmodo.com. Medan vanlege KI-verktøy som Google sin Veo og OpenAI sin Sora forbyr eksplisitte eller kjendisbilete, oppmodar Grok sin Spicy-modus aktivt til dette avclub.com avclub.com. Testing frå The Verge viste at KI-en “nølte ikkje med å lage heilt usensurerte topplause videoar av Taylor Swift” på første forsøk – utan eingong å bli bedt om nakenheit theverge.com. På same måte fann Deadline det svært lett å få Grok til å lage eit bilete av Scarlett Johansson som viser undertøyet sitt avclub.com. I sterk kontrast kom ein ingen veg med forsøk på å lage mannleg nakenheit. Som Gizmodo rapporterer, “det var berre dei som viste kvinner som verkeleg vart ikkje-arbeidstrygt innhald. Videoar av menn var av den typen som eigentleg ikkje ville fått mange til å reagere.” gizmodo.com I praksis kan Spicy-modusen til Grok få ein mann til å vere skjortelaus på det meste, medan kvinner blir viste topplause eller heilt nakne.

Denne openberre dobbeltstandarden har vekt uro. Grok vil generere eit softcore porno-liknande klipp av ei kvinneleg offentleg person ved eit tastetrykk gizmodo.com, men det same “Spicy”-filteret ser ut til å stoppe ved berre overkropp for menn gizmodo.com. Matt Novak frå Gizmodo prøvde til og med å be om ein generisk, ikkje-kjend mann mot ein generisk kvinne: den mannlege avataren drog klønete i buksa, men forblei tildekt, medan den kvinnelege avataren straks viste fram brysta gizmodo.com. Slike resultat tyder på ein kjønnsbias innebygd i AI-en si innhaldsmoderering (anten med vilje eller som eit biprodukt av opplæringa). Musks eiga historie med kvinnefiendtlege kommentarar – frå å forsterke påstandar om at kvinner er “svake” gizmodo.com til å spøke om å gjere Taylor Swift gravid – aukar mistanken om at denne biasen er meir ein funksjon enn ein feil gizmodo.com.

Evner og avgrensingar: Det er verdt å merke seg at Grok sine deepfakes ofte er av dårleg kvalitet. Kjendislikskapane den lagar er ofte lite overtydande eller fulle av feil gizmodo.com gizmodo.com. (Til dømes såg bilete som skulle vere av skodespelar Sydney Sweeney eller politikaren J.D. Vance ikkje ut som dei verkelege personane gizmodo.com.) Bisarre kontinuitetsfeil – som ein mann med ulike buksebein i ein video – er vanlege gizmodo.com. Grok lagar òg automatisk generisk bakgrunnsmusikk eller lyd til kvar klipp, noko som forsterkar den surrealistiske “uncanny valley”-kjensla gizmodo.com. Desse tekniske manglane kan vere ei redning for xAI akkurat no, sidan verkeleg livaktige nakne forfalskingar av kjende personar nesten heilt sikkert ville utløyst søksmål og forbod gizmodo.com. Som Gizmodo spøkte, kan Musks beste forsvar mot rettslege tiltak vere at “bileta ikkje ein gong er i nærleiken” av dei ekte kjendisane gizmodo.com. Men teknologien blir raskt betre, og sjølv desse ufullstendige deepfake-bileta er gjenkjennelege nok til å vere uroande avclub.com.

Offentleg respons: Lanseringa av “Spicy Mode” utløyste straks raseri i sosiale medium og pressa. Berre dagar etter lanseringa av Grok Imagine, vart X (Twitter) oversvømt med KI-genererte bilete av nakne kvinner, der brukarar ivrig delte tips om korleis ein kunne maksimere nakenheit i promptane sine gizmodo.com. Dette førte til omfattande kritikk om at Musk i praksis hadde opna flomportane for KI-dreven seksuell trakassering og utnytting. “Mykje av innhaldet frå Grok Imagine som Musk har delt eller posta på nytt, er klipp av generiske, storbrysta blondiner eller kvinner i avslørande fantasikostyme,” observerte A.V. Club, og la merke til at Musk ser ut til å ville ta ein bit av marknaden til Pornhub avclub.com avclub.com. Teknologibloggarar og kommentatorar har spottande foreslått at Musk “praktisk talt ber om eit søksmål frå Taylor Swift” på grunn av Grok sine automatisk genererte nakenbilder avclub.com. Nokre kommentatorar har faktisk oppmoda kjende mål som Swift til å ta Musk til retten og “gjere verda tryggare for andre kvinner og jenter” avclub.com. Så langt er det ingen offentlege teikn til rettslege steg frå Swift eller andre – men krava om ansvar aukar i styrke.

Sjølv utanfor Grok-kontroversen såg 2024 eit stort offentleg ramaskrik over AI-generert porno på X. I eitt tilfelle spreidde deepfake pornografiske bilete av Taylor Swift seg vilt på plattforma, med eitt falskt bilete som fekk 47 millionar visningar før det vart fjerna theguardian.com. Fans mobiliserte i hopetal for å rapportere bileta, og til og med Det kvite hus uttalte seg og kalla situasjonen “urovekkjande” theguardian.com. Saka til Swift er berre spesiell på grunn av merksemda ho fekk; utallege kvinner (kjende eller ikkje) har opplevd at deira likskap har blitt gjort om til eksplisitt innhald som plattformer ikkje fjernar raskt nok theguardian.com theguardian.com. Den offentlege sinnet rundt desse hendingane – og no rundt Grok sin innebygde NSFW-modus – speglar ein aukande semje om at AI-verktøy som mogleggjer seksuelle deepfakes kryssar etiske grenser.

Den raske veksten av AI-generert NSFW-innhald og deepfakes

Grok-episoden er det siste kapittelet i ein urovekkjande trend: AI-generert porno (“deepfake porno”) har eksplodert i omfang dei siste åra. Fenomenet vart først berykta tilbake i 2017, då hobbyistar på Reddit byrja å bruke tidlege deep-learning-algoritmar for å byte ut kjendisansikt med kroppane til pornostjerner. Allereie i 2018 florerte såkalla “deepfake”-videoar av Gal Gadot, Emma Watson, Scarlett Johansson og andre på pornosider – noko som førte til forbod frå plattformer som Reddit, Twitter og Pornhub mot slikt ikkje-samtykkjande innhald theguardian.com theverge.com.

Trass sjølv dei tidlege forbodene, gjekk deepfake-pornoindustrien under jorda og heldt fram med å vekse. Mot slutten av 2019 fann ein banebrytande rapport frå cybersikkerheitsfirmaet Deeptrace at 96 % av alle deepfake-videoar som sirkulerte på nettet var pornografiske, ikkje-samtykkande ansiktsbytte, nesten utelukkande med kvinnelege offer regmedia.co.uk. Dei fire største deepfake-porno-nettstadene som vart undersøkte, hadde fått over 134 millionar visningar på videoar som retta seg mot “hundrevis av kvinnelege kjendisar verda over.” regmedia.co.uk Denne skeivheita var tydeleg: offera var i stor grad kvinner, og forbrukarane var i stor grad interesserte i kvinner som seksuelle objekt. “99 % av deepfake-sexvideoar involverer kvinner, vanlegvis kvinnelege kjendisar,” påpeikte jussprofessor Danielle Citron, og understreka korleis desse produkta “gjer deg til eit seksuelt objekt på måtar du ikkje har valt sjølv” nymag.com. Det er “ingenting gale med pornografi så lenge du har valt det sjølv,” la Citron til – det grufulle med deepfakes er at desse kvinnene aldri valde å få sitt andlet brukt i eksplisitte scener nymag.com.

I starten dominerte kjendisar blant deepfakes, men no blir vanlege folk i aukande grad målretta. I januar 2023 vart Twitch-streamingmiljøet rysta av ein skandale då den populære streamaren Brandon “Atrioc” Ewing ved eit uhell avslørte at han hadde sett på ein deepfake-porno-nettstad som selde eksplisitte videoar av kvinnelege streamarar – der ansikta deira var redigerte inn på kroppane til pornostjerner polygon.com. Kvinnene (nokre av dei var personlege vener av Atrioc) vart knuste og opplevde bølgjer av trakassering då deepfake-videoane vart kjende polygon.com. Eit offer, streamaren QTCinderella, gav ei tårevåt fråsegn der ho fordømde overgrepet, og ho var seinare med på å organisere juridiske tiltak for å få slikt innhald fjerna polygon.com polygon.com. “Twitch deepfake”-skandalen synte at du ikkje treng å vere ein Hollywood-stjerne for at dette skal skje med deg – kven som helst med bilete på nettet er potensielt sårbar for å bli “kledd naken” av KI mot si vilje.

Auken av brukervennlege AI-verktøy har berre akselerert denne trenden. I 2019 gjekk ein app kalla DeepNude kortvarig viralt for å bruke AI til å “kleda av” kvinner på bilete med eit tastetrykk, og produserte falske nakenbilder onezero.medium.com. Sjølv om DeepNude-skaparen stengde appen etter offentleg motreaksjon, var ånda ute av flasken. I 2023–2025 har opne biletegeneratorar (som Stable Diffusion-avleiiingar) og dedikerte deepfake-tenester gjort det trivielt for kven som helst med nokre bilete og minimal teknisk kunnskap å lage nakne eller seksuelle bilete av andre. Nokre forum byter ope AI-genererte nakenbilder av kvinner henta frå sosiale medium. Som ein Twitch-streamar-offer sa etter å ha oppdaga pornografiske forfalskingar av seg sjølv: “Dette har ingenting med meg å gjere. Og likevel ligg det her med ansiktet mitt.” theguardian.com Kjensla av overgrep og maktesløyse er tydeleg blant dei som har vorte “digitalt offer.”

Kort sagt har AI demokratisert evna til å lage pornografiske forfalskingar, og denne evna har i stor grad vorte brukt som våpen mot kvinner. Det er ikkje berre kjendisane som er utsette – det er kven som helst, frå journalistar og aktivistar (som kan bli mål for å skremme eller sverte) til eks-partnarar og privatpersonar (utsett for hemngjerrige personar eller utpressing). Innføringa av funksjonar som Grok sin Spicy-modus – som gir eit offisielt, brukervennleg stempel på det som tidlegare var ein undergrunnspraksis – signaliserer at NSFW generativ AI verkeleg har kome inn i hovudstraumen, med alt det etiske bagasjet det fører med seg.

Etiske, juridiske og samfunnsmessige implikasjonar av AI-generert porno

Den etiske harme over deepfake-porno er breitt forankra. I kjernen er det å lage eller dele seksuelt innhald av nokon utan samtykke eit djupt brot på privatliv, verdigheit og sjølvstende. Som Citron og andre etikarar peikar på, er dette meir enn berre biletebasert overgrep – det er ei form for seksuell utnytting. Offer skildrar kjensler av “hjelpeløyse, audmjuking og frykt” ved å vite at framande (eller overgriparar) ser på falske videoar av dei i seksuelle handlingar dei aldri har gjort. Det kan vere ei virtuell form for seksuelt overgrep, som gir varige traume. Ikkje overraskande er det kvinner og jenter som får den største belastninga: “Ikkje-samtykkebaserte intime deepfakes” er “ei aktuell, alvorleg og aukande trussel, som rammar kvinner uforholdsmessig mykje,” konkluderer forskarar sciencedirect.com.

Det er òg ein misogynistisk undertone i mykje av dette innhaldet. Ekspertar peikar på at deepfake-porno ofte blir brukt som eit våpen for å nedverdige kvinner som har maktposisjonar eller som avviser nokon sine tilnærmingar. “AI-generert porno, driven av misogyni, fløymer internett,” observerte The Guardian under Taylor Swift-deepfake-oppstyret theguardian.com. Sjølve handlinga å kle av ei kvinne med AI kan sjåast som eit forsøk på å setje henne “på plass”. “Det er menn som seier til ei mektig kvinne at ho skal tilbake i boksen sin,” slik ein observatør skildra stemninga rundt Swift-hendinga. Enten det er anonyme nettroll som lagar nakne bilete av ein kvinneleg politikar, eller ein besett fan som lagar falske sextapar av ein popstjerne, er bodskapen liknande – ein form for digital objektifisering og skremming.

Utover individuell skade, er dei samfunnsmessige implikasjonane alvorlege. Om kven som helst kan bli plassert inn i pornografi, kan ein ikkje lenger stole på visuelle medium. Deepfakes trugar med omdømeskade og utpressing i stor skala. Kvinner i det offentlege rom kan sjølvsensurere eller trekke seg frå nettaktivitet av frykt for å bli utsett. Det har òg ein avkjølande effekt på ytringsfridomen: tenk deg ein journalist som er kritisk til eit regime, og som plutseleg blir hovudperson i ein realistisk falsk sexvideo som blir spreidd for å skandalisere henne. I det store og heile reiser normaliseringa av “designar-porno” med ufrivillige deltakarar spørsmål om samtykke, sexutnytting og kommersialisering av menneskeleg likskap. Sjølv for samtykkjande vaksenunderhaldning uroar somme seg for at AI-genererte aktørar kan erstatte verkelege modellar – men når desse AI-aktørane har ekte ansikt stole frå Facebook eller Instagram, er samtykkelina tydeleg kryssa.

Ytringsfridom vs. personvern: Det finst ein spenning mellom dei som krev forbod mot all pornografisk deepfake og ytringsfridomsforkjemparar som er uroa for overdriven regulering. Kan ein kjendisdjupfake nokon gong reknast som legitim parodi eller kunst? I teorien, ja – satire og parodi er verna ytringar, sjølv når ein brukar offentlege personar sitt likskap. Nokre forsvararar av KI-teknologi peikar på at manipulerte bilete av offentlege personar har vore ein del av populærkulturen lenge (t.d. Photoshopa magasinomslag), og meiner at automatisk kriminalisering kan hemme kreativitet. Likevel trekkjer sjølv dei fleste ytringsfridomsekspertar ei grense ved seksuelle framstillingar utan samtykke. Skaden for den enkelte er så intens og personleg at han truleg veg tyngre enn allmennheita sitt behov. Juridiske ekspertar peikar på at ærekrenkings- eller trakasseringslover kan dekke nokre tilfelle, men ikkje alle. Det er aukande semje om at nye juridiske vern er nødvendige for å handtere deepfake-porno spesielt, utan å undergrave legitim ytring apnews.com apnews.com. Å utforme slike lover presist – slik at ein straffar openberre overgrep utan å ramme satire eller erotisk innhald med samtykke – er ei utfordring politikarar no prøver å løyse apnews.com apnews.com.

Nye utviklingar (per august 2025): Frå teknologisk motreaksjon til nye lover

Den kontroversen rundt Grok sin “Spicy”-modus kjem på eit tidspunkt der styresmakter og plattformer verda over endeleg tek grep for å bekjempe epidemien av KI-genererte intime bilete. Her er nokre av dei siste utviklingane:

  • Nasjonal harme og aktivisme: Dei virale hendingane med Taylor Swift og andre har mobilisert den offentlege meininga. Til og med Det kvite hus i USA kommenterte Swift-deepfakeane, som nemnt, og kalla dei “alarming” theguardian.com. Interesseorganisasjonar som National Center on Sexual Exploitation har vore tydelege, og fordømt Musks xAI for “furthering sexual exploitation by enabling AI videos to create nudity” og oppmoda om å fjerne slike funksjonar time.com. “xAI should seek ways to prevent sexual abuse and exploitation,” sa NCOSEs Haley McNamara i ei fråsegn, noko som speglar eit breiare press frå sivilsamfunnet time.com.
  • Undersøkingar viser overveldande folkeleg støtte til forbod: Nylege undersøkingar viser at folket står fast på strengare regulering. Ei undersøking frå januar 2025 av Artificial Intelligence Policy Institute fann at 84% av amerikanarar støttar å gjere ikkje-samtykkjande deepfake-porno eksplisitt ulovleg, og ønskjer òg at AI-selskap “restrict [AI] models to prevent their use in creating deepfake porn.” time.com. Ei undersøking frå Pew Research i 2019 fann òg at om lag tre fjerdedelar av amerikanske vaksne ønskjer avgrensingar på digitalt endra video/bilete time.com. Kort sagt ser det ut til at veljarar på tvers av spekteret ønskjer handling mot denne typen overgrep.
  • Nye lover og lovforslag: Lovgivarane har høyrt ropet. I USA vart Take It Down Act signert som lov i mai 2025, og markerer den første føderale lovgjevinga som rettar seg mot deepfake-pornografi time.com. Denne tverrpolitiske lova gjer det ulovleg å «med vitende publisere eller true med å publisere» intime bilete utan samtykke – inkludert AI-laga deepfakes – og krev at plattformer fjernar slikt materiale innan 48 timar etter at offeret har varsla apnews.com apnews.com. Straffene er strenge, og lova gir offer makt til å få innhald fjerna raskt apnews.com apnews.com. «Vi må gi offer for nettmisbruk dei juridiske verna dei treng, spesielt no når deepfakes skaper skremmande nye moglegheiter for misbruk,» sa senator Amy Klobuchar, ein av forslagsstillarane, og kalla lova «ein stor siger for offer for nettmisbruk.» apnews.com apnews.com Allereie før den føderale lova hadde over 15 amerikanske delstatar forbode å lage eller distribuere eksplisitte deepfakes (ofte ved å oppdatere «hevnporno»-lovgivinga). No er ein samla føderal standard i ferd med å ta form. Andre land følgjer etter. Den britiske regjeringa, til dømes, kriminaliserte deling av deepfake-pornografi i sin Online Safety Act (gjeldande frå tidleg 2024), og arbeider med lovgjeving for å kriminalisere sjølve produksjonen av seksuelt eksplisitte deepfakes utan samtykke hsfkramer.com hsfkramer.com. I januar 2025 la Storbritannia på nytt fram eit forslag om å gjere det ulovleg å lage deepfake-nudebilete, og understreka det som «eit banebrytande steg for vern av kvinner og jenter.» <a href=»https://www.hsfkramer.com/notes/tmt/2024-05/criminalising-deepfakes-the-uks-new-offences-following-the-online-safety-act#:~:text=Further%20update%3A%20On%207%20January,Act%2020hsfkramer.com hsfkramer.com Australia vedtok ein lov i 2024 som forbyr både oppretting og distribusjon av deepfake-sexuelt materiale, og Sør-Korea har til og med foreslått å kriminalisere sjølv det å ha eller sjå slikt deepfake-porno (ikkje berre produksjonen) hsfkramer.com. Den globale trenden er klar: ikkje-samtykka AI-seksuelle bilete blir sett på som ei forbrytelse. Lovgjevarar erkjenner at desse bileta “kan øydeleggje liv og rykte,” som Klobuchar sa det apnews.com, og tek grep – sjølv om ytringsfridoms-vaktbikkjer som EFF åtvarar om at dårleg utforma lover kan føre til over-sensur eller misbruk apnews.com apnews.com.
  • Retningslinjer for teknologiplattformer: Store teknologiplattformer har begynt å oppdatere retningslinjene sine (i alle fall på papiret) for å ta tak i AI-laga seksuelt innhald. Facebook, Instagram, Reddit og tradisjonell Twitter forbyr offisielt ikkje-samtykkjande intime bilete, inkludert deepfakes theguardian.com theverge.com. Pornhub og andre vaksne-nettstader innførte òg forbod mot AI-generert innhald med verkelege personar utan samtykke så tidleg som i 2018 theguardian.com theverge.com. I praksis er handhevinga framleis ujamn – ein målretta brukar kan framleis finne eller dele ulovlege deepfakes på mange plattformer. Likevel finst det teikn til framgang: til dømes, etter Swift-hendinga, reagerte X (Twitter) til slutt ved å blokkere søk på namnet hennar for å stoppe spreiinga theguardian.com theguardian.com. Reddit forbyr ikkje berre deepfake-porno, dei stengde òg heile samfunn som bytta slikt materiale. YouTube og TikTok har retningslinjer som forbyr AI-manipulerte eksplisitte bilete òg. Utfordringa er omfang og oppdaging – og det er her ny teknologi blir tatt i bruk.
  • Oppdaging og tryggingstiltak: Ein veksande småindustri av teknologiløysingar har som mål å oppdage og fjerne deepfake-porno. AI-selskap som Sensity (tidlegare Deeptrace) og oppstartar som Ceartas utviklar oppdagingsalgoritmar som skannar internett etter ein person sitt ansikt i pornografisk innhald og flaggar treff polygon.com polygon.com. Etter Twitch-skandalen gjekk faktisk Atrioc saman med Ceartas for å hjelpe dei utsette streamarane: selskapet brukte AI-en sin til å finne deepfake-innhald av desse kvinnene og sende inn DMCA-fjerningforespurnader polygon.com polygon.com. OnlyFans, ein plattform med eigne interesser i å verne skaparar, har òg teke i bruk slike verktøy for å overvake falskt innhald av modellane sine polygon.com. Det blir òg jobba med å bygge inn vassmerke eller metadata i AI-genererte bilete for å hjelpe med å identifisere forfalskingar, samt forslag om å krevje kryptografisk autentisering av ekte bilete (slik at bilete utan merking kan reknast som falske). I tillegg inneheld EUs AI-forordning (vedteken i 2024) føresegner om at utviklarar av deepfake-verktøy må sørgje for at resultat er tydeleg merka som AI-genererte bioid.com. Fleire amerikanske delstatar (og EU) vurderer påbod om at alt AI-endra innhald skal ha ei opplysing ved publisering cjel.law.columbia.edu bioid.com. Sjølv om slike merkingar ikkje vil hindre skadelege aktørar frå å fjerne dei, er dei eit forsøk på å etablere normer for openheit rundt syntetisk media.
  • Plattformar vs. Musks X: Det er verdt å understreke kor uvanleg Musks tilnærming med X og xAI er. Medan dei fleste plattformar strammar inn restriksjonar, har Musk i praksis slakka på dei, og siktar seg inn mot eit brukargrunnlag som ønskjer “dristige” AI-funksjonar. X har ikkje berre unnlatt å forby Grok sine resultat; det er heimen til Grok. Dette skiljet har sett X i motsetnad til mange ekspertar. I august 2024 peika ei gruppe demokratiske lovgjevarar spesifikt på Musks Grok i eit brev til reguleringsstyresmakter, der dei åtvara om at slappe retningslinjer for deepfakes (inkludert eksplisitte av personar som Kamala Harris eller Taylor Swift) kan skape kaos i val og elles time.com. Musk ser ut til å satse på at det å møte etterspurnaden etter AI-generert erotikk (og til og med AI-chatkompisar som flørtar eller kler av seg, slik xAI sine nye funksjonar viser time.com) vil gi inntekter og brukarar. Men motreaksjonen – juridisk, sosial og potensielt økonomisk (gjennom annonsørar si uro) – kan på sikt fortelje ei anna historie.

Politiske forslag og vegen vidare: Kan vi få kontroll på deepfake-porno?

Det er semje blant politikarar og etikarar om at fleirfasa tiltak trengst for å handtere AI-generert NSFW-innhald. Viktige forslag og idear inkluderer:

  • Sterkare lover og handheving: Som nemnt er lover som Take It Down Act ein start. Ekspertar foreslår vidare forbetringar, som å gjere det å lage eit falskt seksuelt bilete av nokon utan samtykke til ein kriminell handling, ikkje berre å distribuere det. (Storbritannia går i denne retninga hsfkramer.com hsfkramer.com.) Klare juridiske straffar for gjerningspersonar – og for dei som med vitande og vilje er vertskap for eller tener pengar på slikt innhald – kan verke avskrekkande. Viktig er det òg at all lovgiving må vere nøye avgrensa for å unngå å kriminalisere samtykkjande erotisk kunst eller legitim politisk satire apnews.com apnews.com. Sivile rettsmiddel er òg viktige: offer treng enkle måtar å saksøke for erstatning og få rettsordre om å fjerne innhald. Mange forkjemparar ønskjer å sjå unntak i Section 230 (den amerikanske lova som skjermer plattformar frå ansvar for brukarinnhald) slik at nettsider kan haldast ansvarlege om dei ikkje svarar på krav om å fjerne deepfake-porno. Dette ville presse plattformar til å vere langt meir påpasselege.
  • Teknologiske retningslinjer: På utviklingssida foreslår ein at AI-modellskaparar bør byggje inn førebyggjande tryggleikstiltak. Til dømes kan selskap trene innhaldsfilter til å oppdage når ein brukarforespurnad involverer namnet eller likskapen til ein ekte person, og blokkere eksplisitt output som involverer den personen. (Nokre AI-biletegeneratorar nektar allereie førespurnader som ser ut til å vise til private personar eller produsere nakenbilete av offentlege personar – xAI sin Grok er eit unntak som ikkje gjer dette avclub.com.) Ein annan idé er å krevje samtykkekontroll for eksplisitte genereringar: t.d. at ein AI-teneste berre genererer eit nakenbilete dersom brukaren beviser at motivet er dei sjølve eller ein samtykkjande modell. Sjølvsagt kan aktørar med dårlege hensikter berre bruke open kjeldekode-modellar utan slike filter, men dersom dei store plattformene innfører strenge retningslinjer, kan det avgrense utbreiinga i hovudstraumen. Aldersverifisering er òg eit tema – Grok sin einaste sjekk var ein lett omgåeleg fødselsdatoprompt gizmodo.com – så det er krav om meir robuste alderssperrer for å sikre at mindreårige (som ofte er mål for mobbing via falske nakenbilete) ikkje kan bruke desse verktøya eller bli framstilte av dei.
  • Forsking og oppdaging: Styresmakter finansierer forsking på oppdaging av deepfakes, og selskap samarbeider om standardar for autentisering av media. Målet er å gjere det lettare å raskt identifisere og fjerne falsk porno når det dukkar opp. Likevel vil oppdaging alltid vere ein katt-og-mus-leik etter kvart som AI-forfalskingar blir meir avanserte. Nokre ekspertar meiner fokuset bør flyttast til å førebyggje skade (gjennom juridiske straffar og opplæring) heller enn å håpe på ein teknisk “falskdetektor” som fangar alt. Likevel vil framsteg innan AI til gode formål – som betre bilethashing for å spore kjende forfalskingar, eller verktøy for enkeltpersonar til å finne ut om biletet deira er misbrukt – spele ei rolle i å avgrense skade.
  • Plattformansvar: Interessegrupper krev at sosiale medium og plattformer for vakseninnhald må proaktivt overvake AI-porno. Dette kan bety å investere i moderatorteam med kompetanse på å oppdage deepfakes, samarbeide med politiet om fjerning, og utestenge gjengangarar som lagar eller deler ikkje-samtykkjande materiale. Nokre krev òg reservasjons- eller registersystem, der enkeltpersonar kan registrere likskapen sin (eller barna sine) og plattformene må sikre at ingen AI-innhald som viser dei blir tillate – sjølv om dette ville vere vanskeleg å handheve administrativt. Minst bør raske responsprotokollar – som 48-timars fjerningskravet i amerikansk lov apnews.com – bli standardpraksis på alle plattformer globalt.
  • Utdanning og normer: Til slutt ligg ein del av løysinga i å endre sosiale normer. På same måte som samfunnet etter kvart tok avstand frå “hevnporno” og anerkjende det som overgrep, er håpet at deepfake-porno blir universelt stigmatisert. Dersom folk flest forstår skaden og nektar å dele eller konsumere slikt innhald, vil etterspurnaden minke. Teknologietikarar understrekar viktigheita av mediekunnskap – å lære folk at det ein ser ikkje alltid er sant, og at eit pikant bilete av Kjendis X kan vere falskt. Å gje yngre generasjonar evna til å navigere kritisk i ei verd av AI-manipulert media blir avgjerande. Like viktig blir kampanjar for å informere potensielle gjerningspersonar om at å lage slike forfalskingar ikkje er ein spøk – det er eit alvorleg overtramp med potensielt strafferettslege konsekvensar.

Konklusjon

Framveksten av Grok sin “Spicy Mode” har kasta bensin på eit allereie brennande bål rundt KI og seksuelt eksplisitte deepfakes. Elon Musk sitt KI-verktøy, ved å gjere det lett og til og med “offisielt” å lage nakne kjendiskopiar, har utløyst rask motreaksjon – og sett søkelyset på den større deepfake-porno-krisa. Frå Kongressen til kommentarfelta på teknologiforum, er det aukande semje om at noko må gjerast for å verne enkeltpersonar (særleg kvinner) mot dei mørkare sidene av denne teknologien.

Som vi har sett, KI-generert NSFW-innhald er ikkje eit isolert fenomen – det er ei aukande samfunnsutfordring. Det set kreativ fridom og teknologisk innovasjon opp mot personvern, samtykke og tryggleik. Åtgaumen kjem ikkje tilbake i flaska, men med smart politikk, ansvarleg teknologisk utvikling og kulturell endring kan vi håpe å avgrense skaden. Dei komande månadene og åra vil truleg bringe fleire søksmål, fleire lover og betre KI-vern. Musk sin Grok kan enten tilpasse seg presset, eller bli eit skrekkeksempel på eit KI-prosjekt som ignorerte etiske grenser til si eiga ulempe.

For no er bodskapen frå både ekspertar og folk flest klar: deepfake-porno er ei grense KI ikkje må krysse. Og om selskap som xAI ikkje vil trekkje den grensa sjølve, er styresmakter og samfunn i aukande grad klare til å gjere det for dei. Som ein teknologietikar sa det: “Å få biletet sitt gjort om til porno utan samtykke er knusande – det er på høg tid vi behandlar det som det alvorlege overgrepet det er, og ikkje som ein uunngåeleg konsekvens av teknologi.” Debatten handlar ikkje lenger om det trengst handling, men om kor raskt og effektivt vi kan tøyle KI-dreven seksuell utnytting, før fleire liv blir snudd på hovudet av neste “Spicy”-innovasjon.

Kjelder:

  • Novak, Matt. “Grok’s ‘Spicy’ Mode Makes NSFW Celebrity Deepfakes of Women (But Not Men).Gizmodo, 6. august 2025 gizmodo.com gizmodo.com.
  • Weatherbed, Jess. “Groks ‘Spicy’-videoinnstilling laga straks nakne Taylor Swift-deepfakes for meg.The Verge, 5. august 2025 theverge.com.
  • Carr, Mary Kate. “Elon Musk tryglar nærmast om eit søksmål frå Taylor Swift med Grok AI-nakendeepfakes.AV Club, 7. august 2025 avclub.com avclub.com.
  • Saner, Emine. “Inne i Taylor Swift-deepfake-skandalen: ‘Det er menn som seier til ei mektig kvinne at ho skal halde seg på plassen sin’.The Guardian, 31. januar 2024 theguardian.com theguardian.com.
  • Clark, Nicole. “Streamaren som utløyste Twitch-deepfake-porno-skandalen er tilbake.Polygon, 16. mars 2023 polygon.com polygon.com.
  • Patrini, Giorgio. “Status for deepfakes.” Deeptrace Labs-rapport, oktober 2019 regmedia.co.uk.
  • Citron, Danielle. Intervju i NYMag Intelligencer, oktober 2019 nymag.com.
  • Ortutay, Barbara. “President Trump signerer Take It Down Act, som tek for seg ikkje-samtykkjande deepfakes. Kva er det?AP News, august 2025 apnews.com apnews.com.
  • Burga, Solcyre. “Elon Musk sin Grok vil snart la brukarar lage AI-videoar, inkludert av eksplisitt natur.TIME, aug. 2025 time.com time.com.
  • Herbert Smith Freehills Law Firm. “Å kriminalisere deepfakes – Storbritannias nye lovbrot…,” 21. mai 2024 hsfkramer.com hsfkramer.com.

Tags: , ,