Inuti den NSFW AI-revolutionen: Hur AI-genererad porr förändrar spelplanen och väcker kontrovers

NSFW AI – användningen av generativ artificiell intelligens för att skapa “Not Safe For Work”-innehåll för vuxna – har exploderat till ett omdebatterat fenomen. Från AI-genererade erotiska bilder och deepfake-porrfilmer till röstklonade förförare och chatbot-”flickvänner” omformar maskininlärning landskapet för vuxeninnehåll. Det är en teknologisk revolution som väcker både lockande möjligheter och akuta etiska frågor. Förespråkare hyllar nya vägar för fantasi och kreativitet, medan kritiker varnar för trakasserier, samtyckesbrott och samhällelig skada. I mitten av 2025 står NSFW AI vid ett vägskäl: omfamnat av nischade gemenskaper och startups, granskat av lagstiftare och fruktat av dem som hamnar i dess korseld. I denna omfattande rapport dyker vi ner i vad NSFW AI är, var det frodas, de senaste utvecklingarna (från plattformförbud till nya lagar), de etiska dilemman, röster på båda sidor av debatten och hur världen kämpar för att moderera och reglera denna oregerliga nya dimension av AI. Låt oss dra undan ridån för den vilda världen av AI-genererad porr – och varför det inte bara handlar om porr, utan om integritet, makt och framtiden för sexuellt innehåll.
Vad är NSFW AI och hur fungerar det?
NSFW AI syftar på artificiella intelligenssystem som genererar explicit vuxeninnehåll – inklusive pornografiska bilder, videor, ljud och text – ofta med häpnadsväckande realism. Dessa system använder samma banbrytande generativa teknologier som ligger bakom de senaste genombrotten inom AI-konst och media, men tillämpade på material med X-klassificering. Viktiga innovationer inkluderar djupinlärningsmodeller tränade på massiva datamängder av bilder och videor, som lär sig att producera nytt innehåll utifrån användarens instruktioner. Till exempel kan text-till-bild-diffusionsmodeller som Stable Diffusion skapa fotorealistiska nakna eller sexuella bilder från en enkel textbeskrivning globenewswire.com. “Deepfake”-tekniker möjliggör att byta ut eller syntetisera ansikten i videor, så att det ser ut som att riktiga personer (ofta kändisar eller privatpersoner) medverkar i porr de aldrig faktiskt spelat in. Avancerade röstkloning-verktyg kan efterlikna en persons röst med kuslig precision, vilket möjliggör skapandet av erotisk ljud eller “snuskprat” i en utvald röst. Och stora språkmodeller kan generera heta erotiska berättelser eller delta i sexuell rollspel via chatt.
I huvudsak använder NSFW AI-system samma algoritmer som genererar all AI-konst eller media – bara tränade eller finjusterade på pornografisk eller erotisk träningsdata. Generative Adversarial Networks (GANs) var tidiga pionjärer för att skapa nakenbilder, men diffusionsmodeller och transformerbaserade modeller har kraftigt förbättrat kvaliteten. Moderna NSFW-bildgeneratorer kan producera högupplösta nakenbilder anpassade efter användarens instruktioner med minimal ansträngning globenewswire.com. Deepfake-videoskapare använder ofta specialiserad programvara (viss öppen källkod) för att lägga ett ansikte på ett annat i befintliga vuxenvideor, vilket skapar syntetisk pornografi som kan vara svår att skilja från verkliga inspelningar cbsnews.com. Röst-AI-tjänster kan ta ett ljudprov och generera nytt tal (inklusive explicit innehåll) med den rösten. Och AI-drivna chattbottar använder naturlig språkbehandling för att leverera personliga erotiska konversationer eller sexting på begäran.
Gränserna mellan fiktion och verklighet suddas ut. Som en observatör noterade: “redan nu fortsätter mycket realistiska bilder, röster och videor från NSFW AI-generatorer att utvecklas, vilket ytterligare förändrar hur vuxeninnehåll skapas, konsumeras och förstås” chicagoreader.com. En användare kan nu framkalla en skräddarsydd pornografisk scen – till exempel en bild av ett fantasimöte med en kändis eller ett ljudklipp där ett ex säger explicita saker – med en enkel instruktion, något som var omöjligt för bara några år sedan. Denna nyvunna makt väcker akuta frågor om samtycke, integritet och skillnaden mellan kreativ fantasi och exploatering. Den underliggande tekniken i sig är moraliskt neutral – den kan användas för att skapa vad som helst – men när den riktas mot mänsklig sexualitet och verkliga personers likheter blir konsekvenserna komplicerade.
Nyckelformer av AI-genererat vuxeninnehåll
- AI-genererade bilder: Text-till-bild-modeller (t.ex. Stable Diffusion) kan producera explicita erotiska eller pornografiska bilder från instruktioner. Användare kan specificera utseende, scenario, etc., vilket ger unika nakenbilder eller sexuella bilder på begäran globenewswire.com. Många sådana modeller är öppen källkod eller användaranpassade, vilket möjliggör innehåll bortom vad vanliga AI-verktyg tillåter.
- Deepfake-porrvideor: Med hjälp av deepfake-teknik lägger skapare in en persons ansikte på en vuxenvideo och skapar ett fejkat porrklipp av någon som aldrig deltagit. Dessa AI-manipulerade videor riktar sig ofta mot kändisar eller privatpersoner utan samtycke cbsnews.com theguardian.com. Kvaliteten på deepfakes har förbättrats så mycket att många ser alarmerande realistiska ut 2024–2025, tack vare kraftfullare GPU:er och algoritmer.
- Röstkloning och ljud: AI-röstgeneratorer klonar röster från kändisar eller bekanta för att producera explicita ljudklipp (till exempel simulera en känd skådespelerska som pratar snuskigt, eller skapa erotiska ljudböcker med vilken röst som helst). Sofistikerad röst-AI (som ElevenLabs) gör det enkelt att generera stön, dialog eller berättarröst i vald röst, vilket väcker oro för imitation i pornografiskt ljud.
- Erotiska chatbottar och fiktion: AI-språkmodeller används för NSFW-chatt och berättande. “AI-flickvänsappar” och erotiska rollspelschatbottar exploderade i popularitet runt 2023–2025. Dessa bottar kan engagera användare i heta chattar eller sexting och generera obegränsat med erotisk text. Vissa kombinerar även bilder och röstmeddelanden. Detta representerar en ny form av vuxeninnehåll – interaktiva AI-kompanjoner som tillgodoser intima fantasier chicagoreader.com sifted.eu.
Medan vanliga AI-plattformar (som OpenAI:s DALL·E eller Midjourney) förbjuder pornografiskt innehåll, har open source- och vuxenteknikgemenskaperna omfamnat dessa teknologier för att tänja på NSFW-gränser. Open source-naturen hos många verktyg “uppmuntrar innovation och samarbete” men gör det också enkelt att ta bort skydd och generera oreglerat explicit innehåll chicagoreader.com chicagoreader.com. Som vi ska se utspelar sig denna spänning mellan innovation och reglering på olika plattformar.
Plattformar, applikationer och gemenskaper som driver NSFW-AI
Ett livligt (och ibland skuggigt) ekosystem av plattformar och onlinegemenskaper har vuxit fram för att skapa och dela AI-genererat vuxeninnehåll. Eftersom stora teknikföretag förbjuder explicit innehåll på sina AI-tjänster arnoldit.com blog.republiclabs.ai, har boomen av NSFW-AI drivits av oberoende utvecklare, open source-modeller och nischade startups. Här är några av de viktigaste områdena där NSFW-AI lever och frodas:
- Open-source-modellhubbar: CivitAI – en populär communitywebbplats – har ett enormt bibliotek av användarskapade AI-modeller och bilder, inklusive många specialiserade på vuxeninnehåll chicagoreader.com. Användare kan ladda ner finjusterade Stable Diffusion-modeller för hentai, realistiska nakenbilder, fetischkonst, etc., och dela sina genererade bilder. Öppenheten på sådana sajter har gjort dem till en favorit för NSFW-AI-skapare. Det innebär dock också minimalt med granskning; innehållet sträcker sig från konstnärlig erotisk konst till extremt pornografiskt material. Andra sajter som Hugging Face har haft NSFW-modeller (med varningar), och forum som 4chan eller GitHub har också delat “läckta” ocensurerade modeller.
- NSFW-bildgeneratorer och appar: Flera webbaserade tjänster specialiserar sig nu på AI-erotisk bildgenerering. Till exempel låter plattformar som Candy.ai, Arting.ai, Vondy, OurDream och andra (ofta prenumerationsbaserade) användare generera anpassade vuxenbilder med relativt få begränsningar chicagoreader.com chicagoreader.com. Vissa skryter med högkvalitativa renderingar och ett brett utbud av stilar – från fotorealistiskt till anime – som tilltalar olika smaker. Många började dyka upp 2024–2025, ofta med gratis provperioder eller tokens, och tävlar om vem som kan skapa den mest realistiska eller fantasifulla NSFW-konsten. Deras marknadsföring lyfter fram personalisering och integritet, och lovar användarna att de kan skapa exakt vad de önskar “i en säker, privat miljö, fri från begränsningarna av förinspelat innehåll” globenewswire.com.
- AI-porrcommunities och forum: Före de senaste nedslagen var dedikerade deepfake-porrsajter nav för denna aktivitet. Den mest ökända var Mr. Deepfakes, grundad 2018, som blev “den mest framträdande och mainstream-marknadsplatsen” för deepfake-kändisporr såväl som icke-kändismål cbsnews.com. Användare på sajten kunde ladda upp och titta på explicita deepfake-videor och till och med beställa skräddarsydd icke-samtyckande porr mot betalning cbsnews.com. Sajten främjade en community med forum för att diskutera tekniker och byta innehåll. Men, som vi kommer att beskriva senare, stängdes Mr. Deepfakes ner 2025 efter att ha förlorat en viktig tjänsteleverantör cbsnews.com. Efter sådana nedslag har deepfake-porrcommunityt inte försvunnit – det har splittrats och migrerat. Experter noterar att nedläggningen av en stor sajt “splittrar användarcommunityt, vilket sannolikt driver dem mot mindre mainstream-plattformar som Telegram” för att byta innehåll cbsnews.com. Faktum är att krypterade appar och nischade forum nu är hem för många NSFW AI-entusiaster som drivits bort från större plattformar.
- AI “Flickväns-” och följeslagartjänster: En våg av startups kombinerar erotisk innehållsgenerering med interaktivt sällskap. Ett anmärkningsvärt exempel är Oh (baserat i London), som marknadsför sig som att bygga “AI OnlyFans” – en erotisk följeslagarplattform där användare interagerar med AI-genererade virtuella modeller via text, röst och bilder sifted.eu sifted.eu. Oh tog in 4,5 miljoner dollar i början av 2025 för att skapa “autonoma lättklädda botar” som till och med kan proaktivt skicka flirtiga meddelanden till användare sifted.eu sifted.eu. På deras webbplats ser användare profiler av halvnakna AI-botar – mestadels fiktiva kvinnliga karaktärer, även om vissa är “digitala tvillingar” av verkliga vuxna skapare som licensierar sitt utseende (och tar en del av intäkterna) sifted.eu. Användare kan chatta med dessa botar och få sexiga texter, AI-genererade nakenbilder och till och med röstmeddelanden genererade av klonade röster sifted.eu. Ett antal liknande tjänster dök upp runt 2023–2024: DreamGF, Kupid AI, FantasyGF, Candy.ai, etc., vilket indikerar en trend av AI-drivna vuxenchatt-följeslagare sifted.eu. Lockelsen är en 24/7, helt anpassningsbar erotisk interaktion – i princip en virtuell camgirl eller pojkvän driven av algoritmer.
- Etablerade vuxenplattformar anpassar sig: Traditionella plattformar för vuxeninnehåll påverkas också av AI-vågen. OnlyFans, den populära prenumerationstjänsten för kreatörer, har kämpat med en ökning av AI-genererat vuxeninnehåll. Enligt policy tillåter OnlyFans AI-genererade bilder endast om de föreställer den verifierade kreatören själv och är tydligt märkta som AI-innehåll reddit.com. De förbjuder att använda AI för att imitera andra eller för att automatisera chatt med fans reddit.com. Trots detta har det rapporterats om konton som säljer paket med uppenbart AI-genererade nakenbilder (med tydliga fel som konstiga händer eller ”döda ögon” på varje bild) till ovetande prenumeranter reddit.com. Vissa mänskliga kreatörer är rasande och fruktar att falska AI-modeller kan översvämma plattformen och skada deras inkomster reddit.com uniladtech.com. En sexarbetare beklagade att AI ”tar bort ansträngningen, kreativiteten och besväret” som riktiga kreatörer lägger ner, och kallade det en ”björntjänst mot mina fans” samt oroade sig för att det kommer att förvärra orealistiska förväntningar på sex reddit.com reddit.com. Å andra sidan är några smarta vuxenkreatörer positiva till AI-verktyg – de använder bildgeneratorer för att förbättra eller multiplicera sitt innehåll, eller licensierar sitt utseende till företag som Oh för extra inkomst sifted.eu. Vuxeninnehållsindustrin i stort (porrstudior, cam-sajter, etc.) experimenterar försiktigt med AI för innehållsskapande, men ser också på det med misstänksamhet som en omvälvande kraft som kan möjliggöra en flod av användargenererat explicit innehåll utanför den professionella sfären. Branschanalytiker förutspår att AI-drivet vuxeninnehåll kan utgöra över 30 % av all porrkonsumtion online till 2027 om nuvarande trender fortsätter globenewswire.com, ett tecken på hur snabbt denna teknik växer.
Den NSFW AI-gemenskapen är snabbföränderlig och mångsidig, från hobbykonstnärer som utforskar AI-erotik som ”kreativ och personlig utforskning” till hårdföra deepfake-nätverk som skapar illvilliga fejkade nakenbilder chicagoreader.com. Nya plattformar och verktyg dyker upp nästan varje vecka, och erbjuder alla en annan balans mellan frihet och begränsningar. Som en recension från 2025 uttryckte det: ”världen av NSFW AI-generatorer är enorm och rör sig snabbt”, där vissa plattformar fokuserar på hyperrealistiska bilder, andra på interaktiv berättelse, och alla befinner sig i sitt eget etiska gråzon chicagoreader.com. Det som förenar dem är löftet om on demand, högst personligt anpassat vuxeninnehåll – och farorna som följer med att ha sådan makt.
2025: En flod av AI-porr och en motreaktion växer
I mitten av 2025 hade NSFW AI nått en vändpunkt. Å ena sidan blev innehållet mer utbrett och övertygande än någonsin; å andra sidan nådde den allmänna oron och den regulatoriska granskningen en ny topp. Nya utvecklingar inkluderar uppmärksammade övergreppsincidenter, snabba regulatoriska åtgärder och till och med självreglering inom teknikbranschen. Nedan sammanfattar vi några av de största nyheterna och trenderna 2024–2025 kring AI-genererad porr:
Kontroverser och icke-samtyckta deepfake-skandaler
Kanske har inget drivit debatten om NSFW AI mer än ökningen av icke-samtyckesbaserad deepfake-porr – där AI används för att få det att se ut som om någon (vanligtvis en kvinna) framställs naken eller i sexuella handlingar de aldrig deltagit i. Denna praxis började med kändisar men har i allt högre grad riktats mot vanliga människor, ofta som en form av trakasserier eller “hämndporr”. År 2023 hade det blivit oroande utbrett och lättillgängligt: granskande rapporter visade att vem som helst enkelt kunde hitta deepfake-porrsajter via Google, gå med i en Discord för att beställa skräddarsydda fejkbilder, och till och med betala med kreditkort – en blomstrande underjordisk ekonomi där “skapare” öppet annonserar sina tjänster theguardian.com theguardian.com. Studier har konsekvent visat att kvinnor och flickor är de övervägande offren för denna trend. En banbrytande rapport från Sensity (ett AI-säkerhetsföretag) fann att 95–96 % av deepfakes online var icke-samtyckesbaserade sexuella bilder, nästan alla föreställande kvinnor theguardian.com. Kvinnliga kändisar från skådespelerskan Taylor Swift till internetprofiler har fått fejkade nakenbilder av sig själva virala på sociala medier klobuchar.senate.gov. Ännu mer alarmerande är att privatpersoner och minderåriga har blivit måltavlor: t.ex. upptäckte en 14-årig flicka att klasskamrater använt en app för att skapa fejkade porr-bilder av henne och delat dem på Snapchat klobuchar.senate.gov.
En framträdande incident inträffade i januari 2023, när en Twitch-videospelsstreamer ertappades med en webbläsarflik öppen till en deepfake-porrsajt med hans kvinnliga kollegor. Streamern bad gråtande om ursäkt, men en av kvinnorna, Twitch-streamern QTCinderella, gav ett känslomässigt svar: ”Det här är hur det känns att bli kränkt… att se bilder av mig ‘naken’ spridas” utan samtycke theguardian.com. Hon betonade hur orättvist det var att hon som kvinna i rampljuset nu måste lägga tid och pengar på att försöka få bort fejkade sexuella bilder av sig själv från internet theguardian.com theguardian.com. Hennes vädjan – ”Det borde inte vara en del av mitt jobb att bli trakasserad på det här sättet” – väckte genklang och drog mainstream-uppmärksamhet till deepfake-porr som en allvarlig form av övergrepp.Sedan dess har sådana fall bara blivit fler. År 2024 blev studenter i flera länder både förövare och offer för AI-nakenbyten. I Australien skakades en skolgemenskap av fejkade explicita bilder av flera kvinnliga elever som skapats och delats utan deras samtycke, vilket ledde till polisundersökning och allmän upprördhet theguardian.com. I Hongkong 2025 ska en juridikstudent vid det prestigefyllda University of Hong Kong ha skapat AI-porrbilder av minst 20 kvinnliga klasskamrater och lärare, vilket orsakade en skandal när universitetets första åtgärd bara var ett varningsbrev cbsnews.com cbsnews.com. Myndigheterna i Hongkong påpekade att enligt nuvarande lag är endast spridning av sådana bilder brottsligt, inte själva skapandet, vilket lämnar en lucka om förövaren inte delat bilderna offentligt cbsnews.com. Kvinnorättsgrupper fördömde staden som ”på efterkälken” när det gäller skydd, och Hongkongs integritetsombudsman inledde ändå en brottsutredning med hänvisning till möjlig skada cbsnews.com cbsnews.com. Fallet visade att vem som helst kan bli ett mål och att befintliga lagar ofta har svårt att hänga med.
Mitt i dessa övergrepp beskriver offer allvarlig emotionell och ryktemässig skada. Att bli avbildad i en hyperrealistisk fejkad sexakt är djupt traumatiserande, även om man logiskt vet att det är fejk. “Det är overkligt att se mitt ansikte… De såg liksom döda ut inombords,” sa en universitetsstudent som hittade AI-genererade videor av sig själv på en porrsida (uppladdade av en missnöjd före detta klasskamrat) centeraipolicy.org. Offren känner sig maktlösa, inte bara för att de aldrig samtyckt till sådana bilder, utan för att det är så svårt att få dem borttagna. Som en journalist skrev, “icke-samtyckt deepfake-porr är en nödsituation som förstör liv.” Det tvingar kvinnor att leva i ett tillstånd av paranoia, undrande över vem som har sett dessa fejkbilder, och tvingar dem att lägga sin energi på ett “mardrömslikt spel av whack-a-mole” för att försöka rensa bort innehållet från nätet theguardian.com klobuchar.senate.gov. Förespråkare har liknat det vid en form av sexuell cyberterrorism utformad för att tysta och skrämma kvinnor theguardian.com.
Även vanliga sociala medieplattformar har oavsiktligt underlättat spridningen av AI-genererat explicit innehåll. I början av 2024 spreds explicita deepfake-bilder av Taylor Swift så brett på X (tidigare Twitter) – med miljontals visningar – att plattformen tillfälligt blockerade sökresultat för hennes namn för att stoppa spridningen cbsnews.com. Meta (Facebook/Instagram) visade sig bära hundratals annonser för “nudify”-appar (verktyg som digitalt klär av bilder på kvinnor med hjälp av AI) under 2024, trots att sådana annonser bryter mot policyn. Efter en granskning av CBS News tog Meta bort många av dessa annonser och erkände att de hade slunkit igenom granskningen cbsnews.com. Förekomsten av sådana annonser visar hur normaliserade och lättillgängliga AI-”avklädningsappar” har blivit, även på legitima annonsnätverk cbsnews.com.
Plattformsförbud och självreglering inom branschen
Inför offentliga påtryckningar vidtog vissa teknikplattformar och tjänsteleverantörer åtgärder för att begränsa NSFW AI-innehåll under det gångna året. En anmärkningsvärd utveckling var nedstängningen av Mr. Deepfakes i maj 2025, som nämnts tidigare. Sajten meddelade att den skulle stänga ner efter att ”en kritisk tjänsteleverantör dragit tillbaka sitt stöd”, vilket effektivt tog sajten offline cbsnews.com. Även om det inte är bekräftat, tyder detta på att en infrastruktur- eller hosting-leverantör (möjligen en molntjänst, domänregistrator eller DDoS-skyddstjänst) beslutat att bryta samarbetet, troligen på grund av juridisk eller reputationsmässig risk. Tidpunkten var bara dagar efter att den amerikanska kongressen antagit en större anti-deepfake-lag (diskuteras nedan), vilket fick många att se det som en del av en bredare tillslag cbsnews.com. Henry Ajder, en välkänd deepfake-expert, firade nedstängningen som upplösningen av ”den centrala noden” i ett stort nätverk för övergrepp cbsnews.com. ”Detta är ett ögonblick att fira”, sade han, men varnade för att problemet med icke-samtyckta deepfake-bilder ”inte kommer att försvinna” – det kommer att spridas men troligen aldrig återfå ett så stort mainstream-fäste cbsnews.com. Faktum är att Ajder noterade att dessa gemenskaper kommer att hitta nya hem men ”det kommer inte att bli lika stort och framträdande” som att ha en stor samlingssajt, vilket är ”avgörande” framsteg cbsnews.com.
Stora teknikföretag har också börjat ta itu med verktyg och annonser-aspekten. I maj 2024 uppdaterade Google sina riktlinjer för att förbjuda annonser för plattformar som skapar deepfake-porr eller handledningar om hur man gör det arnoldit.com. Googles åtgärd, som träder i kraft i slutet av maj 2024, var ett försök att strypa marknadsföringen av dessa tjänster via Google Ads. (Google hade tidigare förbjudit användning av sin Colab-plattform för att träna deepfake-modeller, och redan 2018 hade sajter som Reddit och Pornhub officiellt förbjudit AI-genererad icke-samtyckt porr arnoldit.com.) Detta presenterades som att Google förbereder sig för värre saker: ”om deepfake-porr såg tafflig ut 2018, kommer den garanterat att se mycket mer realistisk ut nu,” noterade en rapport från ExtremeTech, vilket motiverade behovet av striktare annonsregler arnoldit.com. Sociala medieföretag uppdaterar på liknande sätt sin innehållsmoderering – till exempel lovade Pornhub och stora vuxensajter 2018 att förbjuda deepfakes (som icke-samtyckt porr), och i Europa tvingar nya regler 2024–25 porrsajter att aktivt ”slå ner på skadligt innehåll” eller riskera böter subscriber.politicopro.com. Som en del av en bredare säkerhetssatsning pausade till och med Pornhubs ägare tillfälligt tjänsten i vissa regioner (som Frankrike och vissa amerikanska delstater) på grund av oro för efterlevnad av nya lagar subscriber.politicopro.com, vilket visar hur vuxenplattformar tvingas ta innehållssäkerhet på allvar eller stänga av tillgången.Mainstream AI-företag fortsätter att ta avstånd från NSFW-användning. OpenAI:s bildmodell DALL·E och ChatGPT-tjänsten upprätthåller strikta filter mot sexuellt innehåll. Midjourney (en populär AI-bildgenerator) förbjuder inte bara pornografiska prompts utan har infört automatiserad moderering som känner igen kontext för att förhindra att användare smyger in NSFW-förfrågningar arxiv.org. När en modells filter överlistas av smart promptformulering blir incidenterna offentliga och utvecklarna skärper skyddet (en ständig katt-och-råtta-lek). Å andra sidan framhåller nya aktörer ibland sin brist på censur som ett försäljningsargument: till exempel kan Stability AI:s senaste Stable Diffusion XL-modell tekniskt sett skapa NSFW-bilder om den körs lokalt utan säkerhetsfilter, och vissa mindre företag marknadsför öppet ”färre begränsningar för NSFW-innehåll jämfört med konkurrenter” latenode.com. Detta visar på en splittring inom AI-branschen: de stora aktörerna väljer försiktighet och varumärkessäkerhet, medan mindre eller öppna projekt tillgodoser efterfrågan på ocensurerad generativ AI – inklusive porr.Större juridiska och regulatoriska utvecklingar (2024–2025)
Kanske de mest avgörande utvecklingarna har kommit från lagstiftare som svarar på AI-porrens faror. Runt om i världen börjar regeringar stifta lagar för att straffa icke-samtyckta deepfakes, skydda offer och till och med reglera AI-verktygen själva. Här är en sammanställning av viktiga åtgärder:
- USA – Take It Down-lagen (2025): I april 2025 antog den amerikanska kongressen med stor majoritet den tvåpartiska “Take It Down-lagen”, den första federala lagen som direkt tar itu med AI-genererade intima bilder klobuchar.senate.gov. Den gör det till ett federalt brott att skapa eller dela icke-samtyckta intima bilder (verkliga eller AI-genererade) av en person. Avgörande är att den kräver att onlineplattformar tar bort sådant innehåll inom 48 timmar efter att ett offer rapporterat det klobuchar.senate.gov. Denna lag – som drevs igenom av First Lady Melania Trump och medförfattades av senatorer från båda partier – undertecknades av president Donald Trump i maj 2025 klobuchar.senate.gov. Den anses vara den första stora internetlagen under Trumps andra mandatperiod och ett direkt svar på det “snabbväxande problemet med [icke-samtyckt porr]” klobuchar.senate.gov. Förespråkare för offer hyllade den som länge efterlängtad. “Deepfakes skapar skrämmande nya möjligheter för övergrepp,” sade senator Amy Klobuchar, och tillade att offer nu kan få material borttaget och gärningsmän hålls ansvariga klobuchar.senate.gov. Anmärkningsvärt är att stora teknikföretag som Meta, Google och Snap stödde denna lag – ett tecken på enighet om att något måste göras klobuchar.senate.gov. Lagen har straff som inkluderar böter och upp till 2 års fängelse för förövare cbsnews.com. Den tillåter också offer att stämma skapare/distributörer på skadestånd, vilket stärker möjligheten till civilrättsliga åtgärder. Yttrandefrihets- och integritetsgrupper har varnat för potentiellt missbruk av lagen – till exempel kallade Fight for the Future’s Lia Holland den “välmenande men dåligt utformad”, och fruktar att illasinnade aktörer kan missbruka borttagningskrav för att censurera legitimt innehåll klobuchar.senate.gov. Trots detta är Take It Down-lagen nu i kraft, och markerar den amerikanska federalstatens första verkliga steg för att bekämpa sexuell exploatering med AI i stor skala.
- USA:s delstater: Även innan federala åtgärder vidtogs införde flera amerikanska delstater egna lagar. Kalifornien, Texas, Virginia, New York och andra antog lagar 2019–2023 som gör det olagligt att skapa eller sprida deepfake-porr utan samtycke (ofta kategoriserat under hämndporr eller lagar om sexuell identitetsstöld). År 2025 fortsatte delstaterna att förfina lagarna. Till exempel införde Tennessee lagen “Preventing Deepfake Images Act” som träder i kraft 1 juli 2025, och skapar civilrättsliga och straffrättsliga påföljder för den vars intima likhet används utan samtycke wsmv.com wsmv.com. Drivkraften kom efter att en lokal TV-meteorolog upptäckte att falska nakenbilder av henne spreds på nätet, vilket ledde till att hon vittnade om den påverkan det hade på henne och hennes familj wsmv.com. Tennessee antog också en lag som kriminaliserar själva verktygen för AI-barnporr – det är nu ett grovt brott att medvetet inneha, sprida eller producera programvara avsedd att skapa AI-genererat sexuellt övergreppsmaterial mot barn wsmv.com. Denna lag erkänner skräcken med AI-genererad barnpornografi och försöker förebygga det genom att rikta in sig på teknologin i sig (innehav av ett sådant verktyg i TN är nu ett brott av klass E, produktion ett brott av klass B) wsmv.com.
- Europa – EU-omfattande åtgärder: Europeiska unionen har antagit en tvådelad strategi: breda AI-regleringar och specifika straffrättsliga direktiv. Den kommande EU AI-förordningen (förväntas bli färdigställd 2024/2025) kommer att kräva att genererat AI-innehåll uppfyller transparenskrav. Deepfakes, som klassificeras som ”begränsad risk”-AI, kommer inte att förbjudas helt men måste tydligt märkas som AI-genererat (t.ex. vattenstämplar eller ansvarsfriskrivningar), och företag måste avslöja detaljer om deras träningsdata euronews.com euronews.com. Underlåtenhet att följa reglerna kan innebära böter på upp till 15 miljoner euro eller mer euronews.com. Dessutom har EU godkänt ett direktiv om våld mot kvinnor som uttryckligen kriminaliserar icke-samtyckt skapande eller delning av sexuella deepfakes euronews.com. Det kräver att EU:s medlemsländer förbjuder detta beteende (exakta straff lämnas till varje land) senast 2027 euronews.com euronews.com. Detta innebär att det i hela Europa kommer att vara ett brott att skapa en falsk pornografisk bild av någon utan samtycke, i linje med hur verklig hämndporr behandlas.
- Frankrike: Frankrike agerade kraftfullt 2024 med en ny bestämmelse i sin strafflag. Det är nu olagligt i Frankrike att dela någon AI-genererad bild eller ljudupptagning av en person utan deras samtycke euronews.com. Om det sker via en onlinetjänst, ökar straffen (upp till 2 års fängelse, 45 000 € i böter) euronews.com. Viktigt är att Frankrike specifikt förbjöd pornografiska deepfakes helt och hållet, även om någon försökte märka dem som fejk euronews.com. Så i Frankrike är det straffbart att skapa eller sprida en sexuell deepfake med upp till 3 års fängelse och 75 000 € i böter euronews.com. Den franska lagen ger också dess digitala tillsynsmyndighet ARCOM befogenhet att tvinga plattformar att ta bort sådant innehåll och förbättra rapporteringssystemen euronews.com.
- Storbritannien: Storbritannien uppdaterade också lagar 2023–2024. Ändringar i Sexual Offenses Act kommer att göra det straffbart med upp till 2 års fängelse att skapa en sexuell deepfake utan samtycke euronews.com euronews.com. Separat gör Online Safety Act 2023 (en omfattande internetreglering) det uttryckligen olagligt att dela eller hota att dela icke-samtyckta sexuella bilder (inklusive deepfakes) på sociala medier, och kräver att plattformar “proaktivt tar bort” sådant material eller förhindrar att det dyker upp euronews.com. Om plattformar misslyckas riskerar de böter på upp till 10 % av den globala omsättningen – ett enormt incitament för efterlevnad euronews.com. Dock påpekar vissa experter att Storbritannien fortfarande inte kriminaliserar skapandet av en deepfake som inte delas, en lucka som lämnar offer sårbara om bilderna hålls privata (liknande situationen i Hongkong) euronews.com. Det finns krav på att Storbritannien även ska kriminalisera utveckling och distribution av deepfake-verktyg i sig euronews.com.
- Danmark: I juni 2025 antog Danmarks parlament en banbrytande lag som ger individer upphovsrätt till sitt eget utseende – i princip görs ditt ansikte till “din intellektuella egendom” som ett sätt att bekämpa deepfakes euronews.com. Denna lag kommer att göra det olagligt att skapa eller dela “digitala imitationer” av en persons kännetecken utan samtycke euronews.com. “Du har rätt till din egen kropp, din egen röst och dina egna ansiktsdrag,” sade Danmarks kulturminister, och beskrev det som både ett skydd mot desinformation och sexuellt utnyttjande euronews.com. Även om detaljer återstår, antyder det att Danmark kommer att behandla någon som gör en deepfake av dig som ett intrång i dina “likhetsrättigheter”, liknande ett upphovsrättsbrott, vilket kan förenkla borttagning och rättsliga åtgärder avsevärt.
- Sydkorea: Sydkorea var ett av de första länderna som drabbades hårt av deepfake-porr (med tanke på dess problem med digitala sexualbrott de senaste åren). År 2021 hade Sydkorea förbjudit att skapa eller dela sexuella deepfakes; i slutet av 2024 gick man längre för att kriminalisera även innehav eller visning av sådant innehåll. En lag som antogs i september 2024 (undertecknad av president Yoon 2024/25) gjorde det olagligt att köpa, inneha eller titta på sexuellt explicita deepfake-bilder/videor, med straff på upp till 3 års fängelse för överträdare cbsnews.com cbsnews.com. Att skapa/distribuera var redan olagligt (5+ års fängelse) och höjdes till max 7 år om den nya lagen undertecknades cbsnews.com. Denna aggressiva hållning erkänner att dessa fejk ofta byttes mellan ungdomar; faktiskt rapporterade koreansk polis 2024 387 gripanden relaterade till deepfake-sexuellt innehåll bara under årets första halva – 80 % av de gripna var tonåringar cbsnews.com. Problemet hade blivit så utbrett bland tonåringar (som gjorde fejkbilder av klasskamrater, lärare, etc.) att Korea nu behandlar det som ett allvarligt brott även att aktivt söka upp sådant material cbsnews.com cbsnews.com. Aktivister i Seoul demonstrerade med skyltar där det stod ”Upprepade deepfake-sexbrott, staten är också en medbrottsling” för att kräva hårdare åtgärder cbsnews.com, och regeringen svarade med dessa åtgärder.
- Kina: Pornografi av alla slag är strikt olagligt i Kina, och det gäller även AI-genererad porr. Dessutom införde Kina banbrytande regler för “deep synthesis”-teknik i januari 2023, som kräver att all AI-genererad eller ändrad media som kan vilseleda måste ha tydliga etiketter eller vattenstämplar och förbjuder användning av sådan teknik för att imitera, bedra eller äventyra säkerheten oxfordmartin.ox.ac.uk afcea.org. I praktiken har Kina i förväg förbjudit oetiketterade deepfakes och gett myndigheterna breda befogenheter att straffa dem som skapar dem. I kombination med Kinas totala förbud mot obscent material är NSFW AI-innehåll dubbelt förbjudet – även om det sannolikt existerar i underjordiska kretsar har kinesiska censureringsmyndigheter juridiska verktyg för att omedelbart radera och åtala det.
Globalt är trenden tydlig: icke-samtyckt AI-sexuellt bildmaterial kriminaliseras i allt fler jurisdiktioner, och plattformar åläggs att övervaka det. I slutet av 2025 är det juridiska landskapet betydligt mindre tillåtande för deepfake-porr än bara två år tidigare, då endast ett fåtal amerikanska delstater och länder som Sydkorea hade sådana lagar. Dock kvarstår utmaningar kring tillsyn och medvetenhet. Många offer vet fortfarande inte att lagarna nu skyddar dem, och polis/åklagare är ofta dåligt rustade att utreda anonyma nätförbrytare. Lagarna varierar också – vissa platser straffar även privat skapande, andra endast om det distribueras. Ändå är rörelsen mot att erkänna AI-genererat sexuellt övergrepp som verkligt övergrepp tydlig. Som en amerikansk juridikprofessor noterade, ger denna våg av lagstiftning makten tillbaka till offren och sänder budskapet att “du har rättigheter över din egen bild och kropp, även i AI-eran” euronews.com.
Det etiska träsket: Samtycke, deepfakes och samhällspåverkan
Utöver den juridiska sfären väcker NSFW AI djupa etiska och samhälleliga frågor. I centrum står frågan om samtycke – kan explicit innehåll någonsin vara etiskt om det genereras utan samtycke (eller ens vetskap) från de avbildade? De flesta skulle hålla med om att icke-samtyckta deepfakes är ett tydligt etiskt fel, i praktiken en form av sexuellt övergrepp. Men dilemman går djupare: Hur är det med AI-genererad pornografi som använder verkliga personers bilder erhållna med samtycke (t.ex. träning på kommersiella pornovideor) – är det “offerlöst” eller utnyttjar det dessa personers likhet utan ytterligare samtycke eller ersättning? Hur är det med helt fiktiv AI-porr – ingen verklig person avbildad – är det fritt från skada, eller kan det normalisera farliga fantasier (som barnexploatering eller våldtäktsscenarier)? Och hur påverkar bias i AI-modeller erotiskt innehåll?
Samtycke och integritet: Den mest omedelbara oron är att människor har noll kontroll eller samtycke över hur AI kan använda deras likhet. Alla som någonsin har lagt upp ett foto online (eller till och med de som inte har gjort det, om en bekant har ett foto på dem) riskerar teoretiskt att bli ansiktet för en porr-deepfake. Kvinnor, särskilt de som är offentliga personer, lever nu med en skrämmande verklighet: du kan vakna upp och upptäcka att internet “tror” att det finns nakenbilder eller sexfilmer på dig, tack vare AI theguardian.com. Detta kränker grundläggande personlig värdighet och integritet. Som Danmarks lag uttryckte det, borde du ha rätt till ditt eget ansikte och kropp – men nuvarande teknik och normer garanterar inte det. Etiker hävdar att blotta existensen av dessa fejk, även om de inte sprids i stor utsträckning, är en skada – det är en framställning av en sexuell handling som involverar dig, skapad utan ditt tillstånd. Det kan kännas som en form av sexuellt övergrepp i psykologisk effekt. Det faktum att “internet är för evigt” ökar skadan: när dessa bilder väl har spridits kan de dyka upp igen och igen, vilket gör att offren återupplever traumat. Alla dessa faktorer gör icke-samtyckt AI-porr till ett allvarligt etiskt övertramp. Samhället börjar nu behandla det i paritet med andra sexualbrott vad gäller stigma och konsekvenser, men som diskuterats hänger lagarna fortfarande inte med.
Deepfakes och sanning: En annan aspekt är hur deepfakes suddar ut verkligheten. Eftersom AI-porrbilder ser allt mer verkliga ut, kanske tittare inte inser att de är fejk, vilket ytterligare skadar rykten. En fejkad sexvideo kan kosta någon jobbet, förstöra relationer eller användas för utpressning (“sextortion”). Även om det senare bevisas vara fejk, kan förödmjukelsen och ryktesskadan inte helt repareras. Detta höjer de etiska insatserna för skaparna av sådana fejk – de leker med verkliga liv och försörjning. Det understryker också en samhällelig utmaning: hur upprätthåller vi förtroendet för media när det vi ser inte längre är att lita på? Vissa experter kallar deepfakes för ett “angrepp på sanningen” som i porr-sammanhang används som vapen för att förnedra och straffa kvinnor theguardian.com.
Minderåriga och AI-genererat CSAM: Kanske den mest enhälligt överenskomna etiska gränsen är AI-genererat child sexual abuse material (CSAM) – dvs. avbildningar av minderåriga i sexuella situationer. Även om inget verkligt barn skadades vid skapandet, behandlar i princip alla tillsynsmyndigheter och plattformar AI-genererad barnpornografi som lika olaglig och skadlig som verklig CSAM. Den etiska motiveringen är tydlig: sådant innehåll sexualiserar barn och kan driva på verkliga övergrepp. Det genereras också ofta med hjälp av foton på verkliga barn (t.ex. att ta ett oskyldigt foto av ett barn och “avklä” eller ändra det via AI – en avskyvärd kränkning av barnets värdighet och integritet) centeraipolicy.org. Tyvärr finns det bevis för att detta sker. En forskare vid Stanford, David Thiel, upptäckte hundratals kända bilder av barnövergrepp inbäddade i en populär AI-träningsdatamängd för Stable Diffusion centeraipolicy.org. Detta innebär att modellen delvis tränades på verkliga brottsbilder, vilket är djupt problematiskt. Även om dessa nu tas bort, visar det faktum att de alls användes hur AI-utvecklare omedvetet kan ha tränat modeller på övergreppsinnehåll. Än värre, utan noggranna skyddsåtgärder kan en AI potentiellt generera nya bilder som liknar dessa olagliga träningsdata. Vissa användare på forum har försökt använda AI för att “avklä” foton på minderåriga eller skapa olagliga bilder – en trend som brottsbekämpande myndigheter försöker stoppa. Etiskt råder det nästan konsensus: AI ska aldrig användas för att skapa CSAM. Men att genomföra detta är svårt – det kräver att modeller antingen tränas att uttryckligen avvisa varje prompt eller försök att producera sådant innehåll, eller att lagar gör varje sådant försök till ett allvarligt brott (som Tennessee har gjort). Teknikföretag hårdkodar nu ofta filter så att även ordet “barn” eller antydningar om minderåriga i en prompt blockeras. Men motsträviga användare försöker hitta kryphål. Insatserna är extremt höga, eftersom om AI missbrukas på detta sätt kan det återtraumatisera överlevare av övergrepp och ge nytt material till pedofiler under den falska förevändningen att “inget verkligt barn skadades.” Många etiker bemöter argumentet om “brott utan offer” här genom att påpeka att konsumtion av varje avbildning av barnexploatering, verklig eller AI-genererad, sannolikt driver på verkliga övergrepp genom att normalisera det centeraipolicy.org reddit.com. Detta är alltså en hård etisk gräns som de flesta är överens om: generering eller användning av AI för sexuellt innehåll med barn är kategoriskt fel och måste förhindras med alla medel (tekniska och juridiska).
Träningsdata och påtvingat innehåll: Det finns en mindre uppenbar men viktig etisk fråga i hur NSFW AI-modeller byggs. Många AI-porrgeneratorer tränades på stora datamängder som hämtats från internet – inklusive porrsajter. Det innebär att riktiga människors bilder (porrskådespelare, webcammodeIler, till och med läckta privata nakenbilder) hamnade som träningsdata utan dessa individers samtycke. AI-företag gjorde detta i det tysta, och först senare började forskare avslöja omfattningen. Till exempel upptäcktes att en AI-nudegenerator kallad “These Nudes Do Not Exist” hade tränats på innehåll från “Czech Casting”, ett porrbolag som utreds för att ha tvingat kvinnor till sex centeraipolicy.org. Så AI:n tränades bokstavligen på videor av kvinnor som möjligen var offer för trafficking eller våldtäkt – och lärde sig i praktiken att återskapa bilder av deras kroppar eller andra i liknande positioner. Dessa kvinnor gav definitivt inte sitt samtycke till ytterligare användning av sina bilder för att skapa oändligt mycket ny porr. Som en av offren i den situationen sa om att hennes bild fanns i en AI-träningsmängd: “det känns orättvist, det känns som att min frihet tas ifrån mig” centeraipolicy.org. Även i mindre extrema fall kan modeller ha matats med miljontals vardagsbilder av kvinnor från sociala medier eller modellfotograferingar – de personerna gick inte heller med på att bli källmaterial för porrgenerering. Varje AI-porrmodell bär på spöken av riktiga människor i sin träningsdata. Många av dessa personer kanske inte har något emot det – till exempel vuxenartister som frivilligt spelat in porr kanske inte bryr sig eller till och med uppmuntrar teknik som bygger vidare på deras arbete. Men andra (som privatpersoner i läckta bilder, eller porrskådespelare som lämnat branschen och vill gå vidare) skulle bli förskräckta över att veta att en AI kan mixa deras likhet till nytt sexuellt innehåll för alltid. Detta väcker etiska frågor om upphovsrätt och rätten till sitt eget utseende. Bör individer kompenseras om deras bilder hjälpt till att skapa ett lönsamt AI-porrverktyg? Vissa menar ja – dessa modeller “tjänar direkt pengar på män och kvinnor som förekom i träningsdatan” utan så mycket som ett tack centeraipolicy.org. Andra menar att om datan var offentligt tillgänglig är det fritt fram för AI-träning enligt nuvarande upphovsrättslagar. Den etiska konsensusen lutar åt att åtminstone inte använda uppenbart icke-samtyckt eller kränkande material i träningen (t.ex. känd hämndporr eller traffickingvideor ska vara förbjudet). Företag börjar nu granska datamängder för sådant innehåll, men historiskt sett har de inte gjort det, vilket är oroande. Som Center for AI Policy uttryckte det är det nästan “säkert” att AI-porrmodeller har tränats på viss icke-samtyckt intimt material (NCII) centeraipolicy.org. Framöver finns det krav på striktare urval av datamängder och kanske till och med ett “opt-out”-register så att folk kan ta bort sina bilder från AI-träningsmängder <a href=”https://www.centeraipolicy.org/work/the-senate-passes-the-defiance-act#:~:text=These%20are%20contentious%20topics.%20%E2%80%9COpt,content%20to%20train%20centeraipolicy.org. Detta är tekniskt och logistiskt komplext, men samtalet kring dataetik i generativ AI blir bara allt högre.
Fiktivt men extremt innehåll: Ett annat knepigt område – om ingen verklig person avbildas, finns det några gränser för vad AI-porr bör skapa? Vissa oroar sig för att AI kan möjliggöra ultra-extremt eller marginaliserat sexuellt innehåll som skulle vara omöjligt att få tag på i verkliga världen, och att detta kan vara skadligt. Till exempel simuleringar av våldtäkt, tidelag, “snuff” (mord) porr, eller som nämnts, barnscenarier. Försvarare kan säga, “Bättre att det är AI än att någon gör det i verkligheten,” men kritiker fruktar att det kan desensibilisera människor eller uppmuntra till att agera ut. Minst sagt väcker det moraliska frågor om huruvida att tillåta AI att tillgodose sådana fantasier överskrider en samhällelig gräns. Plattformar som Oh säger att de blockerar alla “olagliga metoder” – deras bottar kommer inte att delta i pedofilinnehåll eller andra kriminella sexuella teman sifted.eu. Detta är en etisk skyddsåtgärd som ansvarsfulla företag försöker upprätthålla. Men öppen källkodsmodeller har ingen inneboende moral; användare kan få dem att generera i princip vad som helst om modellen inte är uttryckligen begränsad. Detta innebär att ansvaret faller på individens samvete (och lokal lagstiftning). Den etiska hållningen i de flesta AI-gemenskaper är att sätta hårda filter mot olagligt eller våldsamt sexuellt innehåll. Ändå, som en OnlyFans-skapare dystert förutspådde, är det troligen bara en tidsfråga innan någon använder AI för att skapa saker som “AI-barnövergrepp märkt som age-play, eller AI-våldtäktsscenarier,” och att “detta behöver diskuteras mer” reddit.com. Den etiska frågan är fortfarande olöst: är existensen av en hyperrealistisk imaginär avbildning av ett brott i sig en skada? Många lutar åt ja, särskilt om det involverar minderåriga (där det tydligt är brottsligt). För andra extrema fantasier har samhället inte nått konsensus, men det är ett område för aktiv debatt inom digital etik.
Kön och representation: NSFW AI ärver också de fördomar och stereotyper som finns i dess källdata. Mycket mainstreamporr har kritiserats för sexistiska eller orealistiska skildringar av kvinnor, och AI kan förstärka dessa troper. Om modeller huvudsakligen tränas på, säg, porr som objektifierar kvinnor eller en smal variation av kroppstyper, kommer resultaten att spegla det. Detta kan förstärka orealistiska skönhetsideal eller sexuella manus. Dessutom är de flesta AI-erotiska följeslagare och bildgenereringsbotar kvinnliga som standard, vilket riktar sig till förmodade heterosexuella manliga användare. Till exempel är Oh-plattformens utbud av AI-botar “majoriteten kvinnor” som lättklädda avatarer sifted.eu. Kritiker oroar sig för att detta förstärker synen på kvinnor som digitala leksaker och kan påverka hur (främst manliga) användare ser på verkliga relationer. Vissa AI-följeslagares grundare erkänner själva att framtiden för intimitet kan bli “märklig” eller “dystopisk” om människor kopplar bort sig från riktiga partners till förmån för AI-fantasi sifted.eu. Det har hävdats att dessa AI-flickvänner kan förstärka skadliga stereotyper om att kvinnor alltid är tillgängliga, tillmötesgående och anpassade efter varje nyck sifted.eu. Psykologer och feminister uttrycker oro för att sådan teknik kan förvärra problem som ensamhet, kvinnohat eller förvrängda förväntningar på sex. Å andra sidan menar förespråkare att dessa verktyg kan erbjuda en säker ventil för dem som har svårt med mänskliga relationer, eller hjälpa människor att utforska sexualitet utan stigma. Etiskt sett är det ett tveeggat svärd: Kan en AI-flickvän göra någon till en bättre kommunikatör eller ge tröst? Möjligtvis. Kan det också möjliggöra att någon drar sig undan från verklig mänsklig kontakt och behandlar kvinnor som blotta anpassningsbara objekt? Möjligtvis. Samhället kommer att behöva brottas mer med dessa frågor i takt med att sådana tjänster växer.
Sammanfattningsvis kretsar etiken kring NSFW AI kring samtycke, skada och de samhälleliga budskap vi sänder om sexualitet och personskap. Den gyllene regeln för etisk porr – att alla som avbildas är samtyckande vuxna deltagare – kullkastas helt av AI-porr, där ofta ingen som avbildas faktiskt “deltagit” och därför aldrig kunnat samtycka. Vi tvingas utvidga vår syn på samtycke till att omfatta ens likhet och till och med ens data. Som en kommentar uttryckte det, tvingar denna teknik oss att ompröva “själva grunderna för intimitet, samtycke och kreativ frihet” i den digitala tidsåldern chicagoreader.com. Den etiska landskapet är fullt av gråzoner, men den växande konsensusen är att vissa röda linjer (barninnehåll, icke-samtyckande användning av verkliga identiteter) måste upprätthållas, och att respekt för individers autonomi bör styra vad som anses acceptabelt. Samtidigt måste vi vara försiktiga så att vi inte patologiserar allt sexuellt innehållsskapande med AI – för samtyckande vuxna som använder det för sig själva kan det mycket väl vara ett positivt verktyg. Utmaningen är att låta de innovativa, samtyckande användningarna blomstra samtidigt som de exploaterande bekämpas.
Förespråkare vs. kritiker: Debatten om NSFW AI
Reaktionerna på NSFW AI är polariserade. Vissa hyllar det som en spännande utveckling inom vuxenunderhållning och personlig frihet; andra fördömer det som ett samhällshot. Låt oss gå igenom de viktigaste argumenten på båda sidor:
Argument från anhängare (Pro-NSFW AI):
- Kreativ frihet och sexuell utforskning: Förespråkare menar att AI kan vara ett positivt utlopp för att utforska sexualitet, fantasier och kinkar på ett privat och dömande-fritt sätt. Användare som kan känna sig generade eller oförmögna att genomföra vissa fantasier i verkliga livet kan säkert göra det med AI-genererat innehåll eller chattbottar. Detta kan potentiellt minska tabu och skam kring sexualitet. Vissa kallar det till och med stärkande: “samtyckande vuxna kan samskapa sina visuella fantasier i en säker, privat miljö” med AI, säger VD:n för en AI-vuxenplattform globenewswire.com. I denna syn är generativ AI bara ett verktyg – likt erotisk konst eller sexleksaker – som kan förbättra ett hälsosamt sexuellt uttryck.
- Personalisering och innovation inom vuxenunderhållning: Anhängare lyfter fram hur NSFW AI ger oöverträffad personalisering jämfört med traditionell porr globenewswire.com. Istället för att passivt konsumera vad studior producerar, kan individer skapa innehåll som är exakt anpassat efter deras smak (kroppstyper, scenarier, etc.). Denna användardrivna modell ses som en innovation som “stör” paradigmet med en storlek passar alla inom vuxeninnehåll globenewswire.com. Det kan tillgodose nischade intressen som mainstream-producenter ignorerar (så länge de är lagliga). Startups inom detta område framhåller ofta AI som ett kvantsprång i hur vuxeninnehåll levereras – och sätter kontrollen i användarens händer globenewswire.com. De menar också att det respekterar integriteten: användare behöver inte interagera med en annan människa eller avslöja sina fantasier för någon annan än AI:n.
- Säkert substitut för skadliga begär: Ett mer kontroversiellt argument för är att AI-porr kan fungera som ett ofarligt substitut för annars skadligt beteende. Till exempel har vissa teoretiserat att pedofiler som använder CGI eller AI-genererad barnporr kan stilla sina drifter utan att skada riktiga barn (detta argument är mycket omstritt och de flesta experter avfärdar det, men det tas upp). Andra menar att personer med våldsamma sexuella fantasier kan använda AI-simuleringar istället för att söka riktiga offer. I grunden är detta inställningen “bättre att de får utlopp för det på pixlar än på människor”. Det är dock fortfarande spekulativt och etiskt problematiskt – det finns inga tydliga bevis för att AI minskar verklig brottslighet; det kan till och med uppmuntra det (som kritiker påpekar). Ändå säger vissa yttrandefrihetsförespråkare att även avskyvärda fantasier i AI-form är tankeexperiment som inte bör kriminaliseras så länge ingen verklig person skadas direkt. Denna synpunkt är inte mainstream, men den förekommer i debatter om extremt innehåll reddit.com.
- Stöd för nischade gemenskaper och identiteter: AI kan skapa innehåll för gemenskaper som historiskt sett haft liten representation i mainstream-porr – till exempel vissa HBTQ-fantasier, BDSM-scenarier med specifika samtyckesparametrar, eller erotisk konst med fantasielement. Vissa medlemmar av furry- eller hentai-subkulturer använder till exempel AI-konst för att skapa innehåll som vore omöjligt med riktiga skådespelare. Detta ses som att bredda den erotiska konstens ramar. Dessutom kan AI göra det möjligt för personer med funktionsnedsättningar eller andra begränsningar att uppleva virtuell intimitet på sätt de annars inte kunnat. De som har svårt med social interaktion kan hitta sällskap i en AI-partner som inte dömer dem. Förespråkare som grundaren av startupen “AI OnlyFans” menar att dessa AI-kompanjoner kan vara ett “nettopositivt” för samhället, särskilt för personer som saknar andra former av sällskap sifted.eu. Enligt honom, om någon är ensam eller konsumerar exploaterande former av porr, är en AI-partner ett kontrollerat, kanske hälsosammare alternativ sifted.eu.
- Samtycke från de skapade vs. verkliga modeller: Ett annat argument för NSFW-AI är att användning av AI-genererade aktörer (som faktiskt inte existerar) i porr kan eliminera många problem inom vuxenindustrin. Det finns ingen risk att utnyttja en verklig skådespelare om porraktrisen är AI-genererad. Ingen kropp riskerar faktiskt att utsättas för könssjukdomar eller övergrepp på en AI-inspelning. I teorin skulle det så småningom kunna ersätta viss verklig porrtillverkning, och därmed minska skadan för mänskliga aktörer i riskfyllda situationer. (Motargumentet är förstås att dessa aktörer ofta väljer att vara där och kan förlora inkomst om de ersätts, så det är komplicerat.) Men futurister föreställer sig en värld där perfekt realistisk AI-porr kan tillfredsställa efterfrågan utan att någon verklig person behöver delta i potentiellt förnedrande arbete – i princip en mer etisk porrleveranskedja. Vissa vuxenskapare skapar till och med frivilligt “digitala tvillingar” av sig själva (genom att licensiera sina bilder/röster) så att en AI kan utföra en del arbete åt dem – med samtycke och vinstfördelning sifted.eu. Denna modell, om den utökas, skulle kunna låta mänskliga skapare tjäna pengar samtidigt som de överlåter en del av innehållsskapandet till AI under deras kontroll, möjligen en win-win.
- Yttrandefrihet och konstnärligt värde: Ur ett medborgerligt frihetsperspektiv försvarar vissa även NSFW-AI som en form av uttryck. Erotisk konst och porr har länge ansetts vara skyddat yttrande (förutom obscenitet) i många länder. AI utökar bara uttrycksmediet. Om en konstnär kan rita en naken eller filma en samtyckande porrscen, varför kan de då inte be en AI skapa ett naket konstverk? De menar att ett totalförbud mot AI-sexuellt innehåll vore ett övertramp som kan censurera sexpositiv konst eller legitima kreativa projekt. Förutsatt att alla inblandade samtycker (vilket är knepigt när AI är inblandad, men säg att processen är samtyckande), hävdar de att vuxna bör ha friheten att skapa och konsumera sexuellt innehåll efter eget val, med eller utan AI. Grupper som Electronic Frontier Foundation har varnat för breda förbud mot deepfake-teknik, och påpekat att tekniken har fördelaktiga användningsområden och att det är bättre att rikta in sig på dåliga aktörer än att förbjuda tekniken i sig klobuchar.senate.gov. Denna libertarianska ådra i debatten säger: bestraffa faktisk skada (som icke-samtyckande användning), men kriminalisera inte verktyget eller samtyckande fantasi.
Argument från kritiker (Anti-NSFW AI):
- Samtyckeskränkningar och bildmissbruk: Kritiker betonar att NSFW AI redan har möjliggjort massivt missbruk av individers samtycke och likhet. Den icke-samtyckta deepfake-epidemin talar för sig själv – liv förstörs, privatliv krossas. De menar att detta inte är ett marginellt fenomen utan det huvudsakliga användningsområdet för deepfake-teknik hittills: 96 % av deepfakes var pornografiska och i princip alla var utan samtycke theguardian.com. Denna teknik, säger de, lämpar sig i sig själv för sådant missbruk och blir därmed ett farligt vapen. Även när människor inte är direkt måltavlor är bristen på möjlighet att samtycka till att inkluderas i träningsdata eller i någons fantasi oroande. En person kan få sin sexuella autonomi fullständigt undergrävd av att andra genererar explicita bilder av dem ur tomma intet. Detta, säger kritiker, är fundamentalt oetiskt och bör fördömas på samma sätt som voyeurism eller andra sexualbrott. Existensen av ”hundratals AI-appar för avklädning” som är lättillgängliga klobuchar.senate.gov innebär att vilken kvinnas foto som helst kan pornifieras på några sekunder, en situation som många kallar ohållbar och skrämmande.
- Emotionell och psykologisk skada: Att vara offer för en AI-porrfake kan orsaka akut psykisk stress – förnedring, ångest, PTSD, till och med självmordstankar. Ett tragiskt exempel: en 17-årig pojke i USA dog genom självmord 2022 efter att en sextortionsbedragare använde fejkade nakenbilder för att utpressa honom klobuchar.senate.gov. Den psykologiska bördan för kvinnor som upptäcker deepfakes av sig själva är enorm; det beskrivs som en virtuell form av sexuellt övergrepp. Därför ser kritiker NSFW AI som ett verktyg som möjliggör trakasserier och övergrepp i potentiellt stor skala – en ”nödsituation” för utsatta personer (särskilt kvinnor, minderåriga, HBTQ-personer som kan bli måltavlor för hatdrivna sexuella fejkbilder, etc.) theguardian.com. De menar att inga påstådda fördelar med tekniken väger tyngre än dessa verkliga skador som sker nu.
- Normalisering av exploaterande innehåll: Kritiker oroar sig för att floden av AI-porr, särskilt extrema eller icke-samtyckande scenarier, kan normalisera sådana bilder och urholka de sociala sanktionerna kring saker som integritet och samtycke. Om fejkade nakenbilder på kändisar eller klasskamrater blir “vanligt internetmaterial” kan folk bli avtrubbade inför att kränka andras integritet. Det kan också göda misogyna tankesätt (att se kvinnor som lättillgängliga sexobjekt vars bilder kan användas efter behag). Etiskt sett är det likställt med hämndporr eller “upskirting” – att låta det spridas sänder signalen att kvinnors kroppar inte tillhör dem själva. Dessutom fruktar kritiker att AI kan eskalera avvikande begär – t.ex. att någon som konsumerar AI-simulerad våldtäktsporr kan bli mer benägen att begå våld, eller att en pedofil med AI-genererad barnporr ändå kan gå vidare till att utnyttja riktiga barn. Även om bevisen debatteras, uppmanar många psykologer till försiktighet, med tanke på hur media kan förstärka beteenden.
- Påverkan på relationer och samhälle: Vissa sociologer och feminister uttrycker oro för att AI-sexuella följeslagare och hyperpersonlig porr kan underminera verkliga mänskliga relationer. Om många vänder sig till AI-“flickvänner” som är perfekt följsamma, vad händer då med deras förmåga att skapa relationer med riktiga partners som har egna behov och gränser? Det finns en oro för ökad social isolering och förvrängda förväntningar på sex och romantik. Grundaren av en AI-följeslagaresapp kallade det själv potentiellt “väldigt dystopiskt” och att det kan skapa en “märklig framtid för intimitet” där människor kopplar bort från varandra sifted.eu. De stereotyper som förstärks – ofta är AI-flickvänner undergivna kvinnliga personligheter – kan befästa sexistiska attityder hos användare. Därför menar kritiker att NSFW-AI kan förvärra problem som ensamhet, kvinnoförakt och kommersialisering av intimitet.
- Hot mot konstnärer, artister och arbetare: De som arbetar inom kreativa yrken och vuxenindustrin ser NSFW-AI som ett hot mot deras försörjning och rättigheter. Bildkonstnärer (t.ex. illustratörer av erotik eller modeller) upptäcker att AI skrapar deras verk utan tillstånd, för att sedan generera nya bilder i deras stil eller av deras person. Detta upplevs som stöld av immateriell egendom och undergräver marknaden för beställd konst. Fotografer oroar sig för att AI-bildgeneratorer kommer att ersätta behovet av att anlita modeller för fotograferingar. Pornoskådespelare och sexarbetare är oroliga för att AI-”kloner” eller helt fiktiva AI-modeller kommer att ta deras konsumenter – eller översvämma marknaden med innehåll som devalverar deras arbete. Flera OnlyFans-skapare har rapporterat inkomstminskningar och klagomål från fans, möjligen på grund av konkurrens från AI-genererat innehåll som är billigare och alltid tillgängligt reddit.com. De menar att det är oschysst konkurrens eftersom AI i princip har tillägnat sig deras bilder och attraktionskraft utan ansträngning eller mänsklig touch, och att det kommer att pressa priserna till ohållbara nivåer för verkliga arbetare. Sexarbetare fruktar också att de kan pressas att använda AI för att skapa mer innehåll eller vara tillgängliga dygnet runt, vilket ytterligare varufierar deras arbete reddit.com. Fackföreningar och intressegrupper oroar sig för en värld där företag kan föredra en AI-porrstjärna (utan rättigheter, krav eller lön) framför en mänsklig – ett scenario som kan utplåna jobb och utnyttja likheten hos artister som ursprungligen tränade dessa modeller. Kort sagt ser kritiker NSFW-AI som en undergrävning av mänsklig kreativitet och arbetskraft genom att använda människors data för att producera en oändlig mängd gratis (eller billigt) innehåll.
- Halkbanan för moral och lag: Ur ett policyperspektiv menar kritiker att om vi inte sätter tydliga gränser för NSFW-AI nu kan det leda till en okontrollerbar framtid. Om vi accepterar AI-porr som ”bara fantasi”, vad händer när det korsar verkliga frågor som samtycke? Till exempel, om någon gör AI-porr av sitt ex och hävdar att det bara är fantasi, ursäktar det då handlingen? De flesta skulle säga nej – exet skadas uppenbart. Därför lutar kritiker mot en försiktighetsprincip: dra gränser tidigt. Vissa har till och med förespråkat att behandla deepfake-verktyg som vi behandlar dyrkverktyg eller hackningsverktyg – inte olagliga i sig, men hårt kontrollerade, och att helt förbjuda verktyg som tydligt är avsedda för missbruk (som de ”nudify”-appar som enbart finns för att klä av bilder utan samtycke). Etiker som förespråkar stark reglering menar att risken för missbruk vida överstiger de nischade positiva användningsområdena. De hänvisar ofta till offrens röster: som en tekniketiker sa, ”En tonårsflicka som ser sig själv i AI-genererad porr – den enda upplevelsen, det enda förstörda livet, motiverar strikta kontroller av denna teknik.” Yttrandefrihet är viktig, säger de, men den kan inte ske på bekostnad av andras självbestämmande och säkerhet.
Klyftan mellan anhängare och kritiker går ibland längs linjerna teknikoptimism kontra social skepticism. Teknikentusiaster ser NSFW-AI som en spännande gräns (med vissa problem att hantera), medan sociala förespråkare ser det som en ny form av digitalt övergrepp som måste begränsas. Båda perspektiven är giltiga – och utmaningen framöver blir att maximera fördelarna (kreativ frihet, privat njutning, innovation inom branschen) samtidigt som man minimerar skadorna (icke-samtyckande exploatering, desinformation, undanträngning av arbetare). Alla lösningar kommer att kräva input från teknologer, lagstiftare, etiker, vuxenindustrin och överlevare av bildmissbruk. Från och med 2025 har den diskussionen verkligen börjat.
(Sammanfattningsvis följer här en snabb jämförelse av de två sidorna:)
- Anhängare säger att NSFW-AI stärker vuxen kreativitet, erbjuder säker fantasiuppfyllelse och till och med kan hjälpa samtyckande skapare att tjäna pengar eller ensamma individer att hitta sällskap – i princip en teknologisk utveckling av porr som, om den används etiskt, inte skadar någon och ökar den personliga friheten globenewswire.com sifted.eu.
- Kritiker säger att det driver på en våg av bildbaserat sexuellt övergrepp, urholkar samtycke och integritet, kan snedvrida användarnas syn på sex och relationer, samt utnyttjar riktiga personers bilder och arbete för vinst utan deras medgivande theguardian.com reddit.com. Enligt dem väger NSFW AI:s kostnader för samhället (särskilt för kvinnor och utsatta grupper) mycket tyngre än de privata fördelar vissa användare får, vilket motiverar starka begränsningar och tillsyn.
Att slå tillbaka: AI-innehållsmoderering och skyddsåtgärder för NSFW-material
Med tanke på riskerna med NSFW AI pågår ett parallellt lopp för att utveckla tekniska och politiska skyddsåtgärder för att hantera det. Denna kamp sker på flera fronter: att bygga bättre verktyg för att upptäcka AI-genererat innehåll, införa filter för innehållsmoderering och främja normer eller vattenstämplar för att skilja äkta från falskt. Så här försöker AI och plattformar tygla NSFW AI:s mörka sida:
- Automatiska NSFW-filter: Många AI-bildgeneratorer inkluderar pornografiklassificerare som försöker blockera eller filtrera explicit material. Till exempel har den officiella Stable Diffusion-versionen en “Safety Checker” som markerar och suddar ut nakna eller sexuella bilder arxiv.org. OpenAI:s DALL·E vägrar helt enkelt alla prompts som ens antyder sexuellt innehåll. Midjourney har en omfattande lista över förbjudna ord och använder AI för att tolka promptens kontext – den skapar inte bilder om den misstänker att begäran är pornografisk eller exploaterande arxiv.org. Dessa filter är inte perfekta (användare hittar ständigt sätt att kringgå dem, till exempel genom att använda eufemismer eller felstavningar av förbjudna termer arxiv.org). Ändå förhindrar de oavsiktlig eller vardaglig generering av NSFW-bilder av vanliga användare. De fungerar som en första försvarslinje, särskilt på mainstreamplattformar som inte vill ha explicit innehåll. Vissa open source-versioner tar bort dessa filter, men då flyttas ansvaret till användaren (och till den plattform där innehållet publiceras).
- Verktyg för att upptäcka deepfakes: På forskningssidan läggs mycket arbete på algoritmer för att upptäcka deepfakes. Företag som Microsoft och startups som Sensity har utvecklat AI som analyserar videor/bilder för tecken på manipulation (som inkonsekvent belysning, ansiktsartefakter eller digitala vattenstämplar). I en utvärdering hade Hive Moderation-modellen (en AI-modereringssvit som används av vissa sociala medier) den högsta noggrannheten i att upptäcka AI-genererade personer jämfört med verkliga emerginginvestigators.org. Dessa detektorer används av plattformar för att skanna uppladdningar (t.ex. kan Facebook skanna en bild för nakenhet och även för om det är ett känt fejkat foto av någon). Utvecklingen av detektorer är ett katt-och-råtta-spel: i takt med att generativa modeller förbättras måste även detektorerna bli bättre. EU driver på för att företag ska införa sådana system – AI-förordningens transparensregler och direktivet om våld mot kvinnor innebär i praktiken att plattformar måste kunna identifiera AI-porr och ta bort den euronews.com euronews.com. Vissa detekteringsmetoder bygger på metadata eller kända mönster från specifika generatorer (t.ex. lämnar vissa AI-verktyg osynliga vattenstämplar i pixelmönster). Branschen överväger också ett mer proaktivt tillvägagångssätt: vattenstämpling av AI-innehåll vid skapandet. Google arbetar till exempel med metoder för att tagga AI-genererade bilder så att varje kopia kan kännas igen som AI-skapad även efter redigering. OpenAI har föreslagit kryptografiska vattenstämplar för text från språkmodeller. Om detta får bred spridning kan det hjälpa automatiska filter att flagga AI-porr innan den sprids. Dock kommer open source-modeller troligen inte att frivilligt vattenstämpla sina utdata, och motståndare kan försöka ta bort vattenstämplar.
- Innehållshashning och databaser: För att bekämpa hämndporr och deepfakes har teknikföretag och ideella organisationer skapat databaser med kända kränkande bilder (med kryptografiska hashar som PhotoDNA för verkliga bilder av barnövergrepp, till exempel). Ett liknande tillvägagångssätt övervägs för deepfakes: om ett offer anmäler en fejkad bild kan en hash av den läggas till i en nedtagningsdatabas så att den omedelbart kan kännas igen och tas bort om den laddas upp någon annanstans. Storbritanniens kommande system enligt Online Safety Act kan innebära sådan proaktiv detektion – vilket kräver att plattformar “förhindrar [förbjudet innehåll] från att dyka upp från början” euronews.com. I praktiken innebär det att skanna efter kända olagliga bilder eller videor vid uppladdning. Utmaningen med AI-fejk är att förövare kan generera oändliga varianter, så att hasha en kommer inte att fånga nästa. Där behövs AI-baserad likhetsdetektion, som kan flagga innehåll som starkt liknar kända fejks eller matchar en person som har registrerat att de inte vill ha några explicita bilder online.
- Modereringsarbete på porrsajter: Intressant nog har stora vuxensajter som Pornhub tvingats uppgradera sin moderering på grund av deepfakes. Pornhub har sedan 2018 förbjudit uppladdningar av AI-genererat innehåll som föreställer verkliga personer utan samtycke. De förlitar sig på användarrapporter och moderatorgranskning för att hitta dessa, men med miljontals uppladdningar är det svårt. EU:s Digital Services Act innebär striktare ansvar: 2024 utsågs Pornhub (och liknande sajter Xvideos, Xnxx) till stora plattformar som måste proaktivt motverka olagligt och skadligt innehåll eller riskera böter subscriber.politicopro.com. Detta innebär troligen investering i automatiserad filtrering. Porrsajter kan börja använda deepfake-detektorer på varje ny video. De har nu också identitetsverifiering för uppladdare; även om det inte är idiotsäkert (förfalskare kan verifiera sig själva och ladda upp en fejk på någon annan), ger det spårbarhet.
- Policyer på sociala medier: Sociala nätverk som Twitter (X) och Reddit har uppdaterat sina policyer för att uttryckligen förbjuda delning av ”intima bilder som producerats eller ändrats av AI” utan personens samtycke. Reddit förbjöd deepfakes redan 2018 efter den första vågen. Facebooks communityregler förbjuder syntetiskt media som sannolikt vilseleder på skadliga sätt (vilket täcker fejkporr av någon). Tillämpningen är dock fortfarande bristfällig – som nämnts blev deepfake-innehåll ändå viralt på X 2024 cbsnews.com, och Meta tvingades skämmas till att ta bort AI-nakenannonser cbsnews.com. Med det sagt innebär de nya lagarna (Take It Down Act, EU-regler) nu juridiska skyldigheter för dem. Vi kan förvänta oss snabbare svarstider – t.ex. enligt amerikansk lag har plattformar 48 timmar på sig att ta bort rapporterad NCII eller riskera påföljder klobuchar.senate.gov klobuchar.senate.gov. Detta innebär troligen att företagen kommer att ta bort innehåll hellre än att chansa. De kan också införa rapporteringsfunktioner för ”detta är en AI-fejk av mig” så att användare snabbt kan flagga övergrepp.
- Åldersverifiering och åtkomstkontroller: En annan aspekt av moderering är att förhindra att minderåriga får tillgång till AI-porr. Traditionella porrsajter har ålderskontroller (som ofta är bristfälligt genomförda), och vissa jurisdiktioner (som Frankrike, Utah, Texas) har infört lagar som kräver strikt åldersverifiering för vuxensajter versustexas.com. AI-verktyg komplicerar detta – generativa modeller kan användas privat utan någon form av kontroll. Men vissa AI-plattformar har börjat kräva ID-verifiering för att få tillgång till NSFW-lägen, för att säkerställa att användarna är vuxna. Till exempel har plattformen Infatuated.ai betonat robusta åldersverifieringsprotokoll och blockerat alla prompts som involverar minderåriga globenewswire.com. Replika (en AI-chattbot-app) hade ett ökändt fall där de tillät erotisk rollspel och många minderåriga använde det; efter kritik begränsade de erotiskt innehåll till användare 18+ genom att verifiera ålder via betalning eller ID. Så åtminstone på kommersiella tjänster finns det en ansträngning att avskärma vuxet AI-innehåll från barn. Detta är viktigt eftersom barn själva har använt deepfake-verktyg för att mobba jämnåriga (som vi sett i skolor) cbsnews.com. Att utbilda unga om de etiska och juridiska konsekvenserna är också en del av modereringen – vissa skolor har börjat inkludera deepfake-medvetenhet i digitala medborgarskapskurser nea.org.
- Samarbete och bästa praxis: Kampen mot AI-missbruk har lett till samarbeten mellan teknikföretag, brottsbekämpande myndigheter och ideella organisationer. Initiativ som Partnership on AI’s media integrity group eller Coalition for Content Provenance and Authenticity (C2PA) syftar till att sätta standarder för autentisering av innehåll. Företag kan inkludera metadata om hur en bild/video skapades (kamera vs AI-programvara). Samtidigt utbildas brottsbekämpande myndigheter om deepfakes så att de tar offerrapporter på allvar och vet hur man samlar in bevis. Europol flaggade 2023 deepfake-porr som ett växande hot och uppmanade medlemsländer att avsätta resurser för att bekämpa det theguardian.com.
- Begränsningar för AI-modeller: En mer direkt försvarslinje är att begränsa distributionen av modeller som kan skapa skadligt innehåll. Vissa AI-modellarkiv har villkor: till exempel valde Stability AI att inte officiellt inkludera några uppenbart pornografiska bilder i deras träningsdata för Stable Diffusion 2.0, delvis för att undvika att modellen blev för bra på att generera porr (användare klagade på att den nya modellen var “pryd” som resultat). Hugging Face (AI-modellhubben) avvisar ibland värdskap för modeller som tydligt är gjorda för porr eller inkluderar en stor ansvarsfriskrivning som kräver att användare godkänner att de inte kommer missbruka den. Det fanns också ett anmärkningsvärt fall: i slutet av 2022 förbjöd crowdfunding-sajten Kickstarter en kampanj för “Unstable Diffusion,” som var ett försök att samla in pengar för att bygga en porr-optimerad AI-modell. Kickstarter hänvisade till en policy mot pornografiska AI-projekt och stängde ner den arnoldit.com. Denna incident visade att även finansiering och stöd för NSFW-AI kan möta hinder. Appbutiker som Apples är också fientliga mot ofiltrerade AI-appar – Apple tog bort vissa AI-bildgeneratorappar som kunde producera NSFW-resultat, vilket tvingade utvecklare att lägga till filter. Således kan tillgången till de mest avancerade AI-modellerna till viss del begränsas av företags policy. Men verkligt öppen källkodsmodeller kan inte enkelt kontrolleras – när de väl släppts sprids de via torrents och forum. Så detta är en begränsad åtgärd.
Innehållsmoderering i AI-pornografins tidsålder är utan tvekan utmanande. Mängden potentiellt kränkande innehåll är enorm och växer. Men tekniken möter tekniken: AI används nu för att bekämpa AI. Till exempel rapporteras det att Meta använder maskininlärningsklassificerare för att upptäcka kända ansikten i nakenbilder för att fånga deepfakes av kändisar, samt för att upptäcka de blandningsartefakter som är typiska för deepfakes. Startups som Reality Defender erbjuder tjänster till företag för att skanna och rensa bort deepfake-innehåll i realtid realitydefender.com. Och de juridiska verktyg som nu ges av nya lagar innebär att plattformar som inte investerar i dessa åtgärder riskerar allvarliga böter eller stämningar.
En lovande väg är idén om autentiserade medier: om till exempel alla legitima porrtillverkare kryptografiskt signerar sina videor som äkta, kan allt utan signatur som påstår sig vara “den och dens sextape” flaggas som misstänkt. Detta är komplicerat att införa universellt, men konceptet ursprung utforskas (inte bara för porr, utan för all media, för att motverka desinformation).
I slutändan kommer moderering aldrig vara idiotsäker – mycket kommer fortfarande att slinka igenom på det vilda nätet. Krypterade eller decentraliserade plattformar kommer att hysa det värsta innehållet. Men åtminstone i de mainstream och lagliga arenorna finns det en samlad ansträngning att minska skadan av NSFW AI. Förhoppningen är att skapa en miljö där legitima användningar (samtyckande vuxeninnehåll, fantasikonst, etc.) kan existera men illvilliga användningar snabbt identifieras och tas bort. Det är en stor utmaning – beskrivet som att spela “whack-a-mole” av offer klobuchar.senate.gov – men verktygslådan av lagar, AI-detektorer, plattformsregler och användarutbildning utgör tillsammans ett djupgående försvar.
Efterverkningar och framtid: Effekten på skapare och vuxenindustrin
När NSFW AI rubbar status quo påverkar det redan verkliga människor i ekosystemet för vuxenunderhållning – från porrstjärnor och sexarbetare till erotiska konstnärer och innehållsstudior. Vissa hittar möjligheter i den nya tekniken, medan andra fruktar att de kommer att bli överflödiga eller ofrivilligt indragna i den.
Vuxenartister och sexarbetare: Kanske är den mest direkta effekten på dem som försörjer sig på att skapa vuxeninnehåll. Å ena sidan omfamnar vissa skickliga skapare AI för att förstärka sitt arbete. Till exempel kan vuxenmodeller använda AI-fotogeneratorer för att producera förbättrade eller stiliserade bilder av sig själva att sälja (vilket besparar dem kostsamma fotograferingar) – så länge bilderna fortfarande liknar dem och uppfyller plattformarnas regler reddit.com. Några influencers har blivit uppmärksammade genom att skapa “AI-versioner” av sig själva: t.ex. lanserade en influencer vid namn Caryn Marjorie 2023 en AI-chattbot av sin personlighet som fans kunde betala för att chatta intimt med. På liknande sätt innebär startupen Oh:s koncept med “digitala tvillingar” att en porrstjärna kan licensiera sin bild för att skapa en AI-avatar som chattar eller uppträder för fans, vilket skapar en ny inkomstkälla med minimalt extra arbete sifted.eu. Dessa initiativ visar att vissa i branschen ser AI som ett verktyg för att skala upp sig själva – de kan teoretiskt underhålla fler fans via AI än de fysiskt skulle kunna en och en.
Å andra sidan är många artister oroliga. Om fans kan få sitt fantasimaterial specialgjort av AI, kommer de då att sluta betala riktiga personer? Det har rapporterats om AI-genererade OnlyFans-profiler som använder helt fiktiva (men realistiska) kvinnor, ibland vattenmärkta med #AI efter misstanke, som säljer innehåll billigare eller spammar användare på reddit.com. Den här typen av konkurrens kan skada riktiga skapares inkomster. Vissa sexarbetare säger att det är ”nedslående” att se en framväxande standard där framgång innebär att pumpa ut innehåll dygnet runt som en algoritm – en standard som är omöjlig för en människa, men enkel för AI, vilket pressar människor att antingen använda AI eller bli utkonkurrerade reddit.com. Det finns också en känslomässig aspekt: som en erfaren skapare skrev, känns det som att använda AI för att i praktiken ”fuska” genom att generera en felfri kropp eller oändligt med material devalverar det verkliga arbete och den äkthet som mänskliga skapare lägger ner reddit.com. ”Det är ett b*h move – en björntjänst mot mina fans… och mot det hårda arbete jag lagt på min egen kropp [och mitt innehåll],” sa hon om de som använder AI för att fejka innehåll reddit.com.Vi ser redan viss motreaktion och anpassning: skapare som går samman för att avslöja fejkade AI-profiler, och plattformar som justerar sina regler för att försäkra att riktiga skapare inte ska kunna imiteras av AI. OnlyFans, som nämnts, förbjuder att använda någon annans likhet och kräver att AI-innehåll taggas reddit.com. Det har till och med pratats om att skapare ska vidta rättsliga åtgärder mot AI-fejkar – till exempel ryktas det om en stämning för att rensa bort bot-konton på OnlyFans reddit.com. Dessutom oroar sig artister för samtycke och bildrättigheter – t.ex. kan en pensionerad porraktris upptäcka att hennes gamla scener används för att träna en AI som nu genererar nya explicita videor av ”henne” utan hennes samtycke eller någon ersättning. Detta är likt Hollywoodskådespelares oro för att AI använder deras likhet – men porrskådespelare har ännu mer att förlora eftersom deras bild är kopplad till något mycket känsligt. Branschen kan behöva utveckla något liknande Screen Actors Guilds hållning, där skådespelare kan förhandla om hur AI får eller inte får simulera dem. Faktum är att Danmarks tillvägagångssätt att ge individer upphovsrätt till sitt utseende skulle kunna ge artister världen över möjlighet att hävda äganderätt till sitt ansikte/kropp i dessa sammanhang euronews.com.
Studior och producenter: Traditionella porrstudior kan också komma att störas. Om ett litet team med AI-verktyg kan producera en acceptabel vuxenvideo utan att anlita skådespelare, förlorar stora studior sitt övertag. Dock håller dagens AI-video ännu inte professionell studiokvalitet för längre innehåll – det handlar mest om korta klipp eller kräver att man kombinerar med verkligt filmmaterial. Vissa studior kan börja använda AI för specialeffekter eller efterproduktion (t.ex. föryngra skådespelare, förbättra visuella effekter, eller till och med ta bort identifierande tatueringar för anonymitet). En annan möjlig användning: att generera realistiska vuxenanimationer som tidigare var dyra att göra manuellt. Men studior står också inför hotet om piratliknande beteende: oseriösa aktörer kan använda AI för att skapa kopior av premiuminnehåll eller modeller. Till exempel, om en studio har en populär stjärna under kontrakt, kan någon deepfake:a den stjärnan in i nya scener och läcka dem. Detta kan äta upp studions vinster och stjärnans varumärke. Studior kan svara med att kraftigt upprätthålla varumärken eller personrättigheter för sina kontrakterade talanger. Vi kan få se porrstudior samarbeta med teknikföretag för att skapa auktoriserat AI-innehåll av sina stjärnor (med intäktsdelning) innan piraterna gör det, som ett försvar.
Erotiska konstnärer och författare: Utöver videoperformers, tänk på dem som skapar erotiska serier, illustrationer eller litteratur. AI kan redan efterlikna konststilar – särskilt hentai-konstcommunityt såg en tillströmning av AI-genererad anime-erotik i slutet av 2022, vilket orsakade splittringar. Vissa beställare började använda AI istället för att betala mänskliga konstnärer, med hänvisning till kostnad och bekvämlighet. Konstnärer har protesterat på plattformar som DeviantArt (som mötte motreaktioner för att ha infört AI-funktioner). Det finns en rädsla för att marknaden för skräddarsydd erotisk konst och berättelser kan kollapsa när man kan få en personlig serie eller snuskig berättelse genererad gratis. Dock påpekar entusiaster att AI fortfarande har svårt med komplexa berättelser och verkligt förfinad konst – mänskliga konstnärer erbjuder en nivå av kreativitet och känsla som AI kan sakna. Ett troligt resultat är en hybridmetod: konstnärer använder AI för att skissa eller färglägga verk, och lägger sedan till sina egna detaljer. Men mindre etablerade konstnärer kan ha svårt att konkurrera med AI-resultat med ett klick, som många tittare tycker är “tillräckligt bra.” Detta ökar behovet av kanske ett nytt “äkta handgjort”-värde i erotisk konst, liknande hur vissa fans betalar extra för att veta att en människa faktiskt har gjort det.
Den vuxna industrins inställning: Intressant nog har stora företag inom vuxenunderhållning varit relativt tysta offentligt om AI. Kanske för att de utforskar sina strategier internt eller för att uppmärksamhet kan bjuda in till mer granskning. Vuxenindustrin har historiskt varit snabb med att ta till sig teknik (den tog tidigt till sig internet, webbkameror, VR-porr, etc.). Vi ser redan vuxensajter sälja “deepfake-kändisliknande” innehåll (en juridisk gråzon på vissa håll) och experimentera med AI-drivna rekommendationer. Inom camvärlden har några cam-sajter testat AI-chattbotar för att hålla kunder engagerade när modeller är offline. Men ett direkt utbyte av mänskliga underhållare mot AI har ännu inte skett på stora plattformar, delvis på grund av teknikens omognad och användarnas preferens för genuin interaktion.
Men ekonomiska påtryckningar kan tvinga fram anpassning. Om, hypotetiskt, AI om 2-3 år kan generera en full HD-porrvideo med vilka två kändisar som helst på begäran, kan marknaden för professionell porr med okända skådespelare minska – varför betala eller prenumerera när oändliga gratisfantasier finns tillgängliga? Branschen kan komma att skifta fokus till att betona autenticitet, liveinteraktion och gemenskap – saker som AI inte kan erbjuda. Vi kan få se porr marknadsföras med etiketter som ”100% människa, verklig njutning” som ett säljargument, ironiskt nog. Omvänt kan branschen börja använda AI för att sänka kostnader – t.ex. låta en skådespelare agera och sedan använda AI för att byta ansikte och skapa flera ”olika” videor från en inspelning (med samtycke, helst). Det scenariot skulle väcka etiska frågor (vet tittarna att det är samma person som har ändrats? Får skådespelaren betalt per variant eller bara en gång?).
En positiv effekt kan vara på säkerheten: Om AI kan simulera riskfyllda akter kan studior använda det för att undvika att utsätta skådespelare för fara. Till exempel, istället för att låta skådespelare utföra ett extremt stunt, kan de filma något enkelt och AI-generera den intensiva delen. Eller som nämnts, en skådespelare kan filma påklädd och en AI kan generera en naken version, vilket kan vara ett sätt för någon att medverka i porr utan att faktiskt vara naken på inspelningen (även om den idén i sig väcker debatt om autenticitet och samtycke).
Marknadsfragmentering: Det är troligt att marknaden för vuxeninnehåll kommer att fragmenteras i olika nivåer:
- Högkvalitativt mänskligt innehåll med fokus på verklig interaktion (personliga videor, OnlyFans med direktkontakt med skaparen, liveshower – sådant där den mänskliga närvaron är poängen).
- AI-genererat innehåll som kan vara extremt billigt eller gratis, och översvämma tube-sajter eller privata kanaler. Detta kan tillfredsställa de mer tillfälliga konsumenterna eller de med mycket specifika fantasier (kändisar, etc.). Om deepfake-porr förblir halvillegalt kan det stanna mer underjordiskt eller på icke-kommersiella forum.
- Hybridinnehåll där skapare använder AI men fortfarande är delaktiga. Till exempel kan en modell sälja AI-förbättrade bildserier av sig själv – i praktiken hennes likhet men förfinad eller placerad i fantasifulla scener av AI. Så länge det är transparent och sker med samtycke kan fans uppskatta variationen.
Psykisk och social påverkan på skapare: Man kan inte ignorera den känslomässiga påfrestningen för skapare av att se sina egna ansikten användas utan samtycke, eller bara pressen att konkurrera med maskiner. Reddit-kommentarerna från OnlyFans-skapare blottlade viss ångest och till och med förtvivlan reddit.com reddit.com. Detta speglar vad som händer i andra kreativa sektorer (konstnärer, skådespelare) kring AI – men inom vuxenbranschen kan stigma och brist på institutionellt stöd göra det svårare för dem att uttrycka oro eller söka skydd. Vi kan komma att se att sexarbetarorganisationer breddar sitt fokus till att omfatta digitala rättigheter och AI, och kämpar för saker som rätten att tas bort från träningsdatamängder eller att förbjuda deepfakes av artister utan samtycke. Fackföreningar (som Adult Performers Actors Guild i USA) kan komma att förhandla om AI-klausuler i kontrakt. Till exempel kan en artist kräva att en studio inte använder hennes material för att träna AI som i framtiden kan ersätta hennes bild, eller åtminstone betala henne om de gör det.
När det gäller konsumentbeteende tyder tidiga anekdotiska bevis på att många porrtittare fortfarande föredrar att veta att något är verkligt – det finns en lockelse i riktiga mänskliga artister. AI-porr kan ibland kännas “själlös” eller mindre tillfredsställande, rapporterar vissa användare, när nyhetens behag lagt sig. Så mänskliga skapare kan behålla sin publik genom att betona sin äkthet och personliga kontakt, något en AI aldrig kan replikera fullt ut. Det sagt, i takt med att AI förbättras kan gapet minska, och yngre generationer som växer upp med AI kanske inte gör någon skillnad.
Möjlighet för nya talanger? Det finns en intressant baksida: AI skulle kunna sänka trösklarna för att ta sig in i vuxenbranschen på ett kontrollerat sätt. Någon som aldrig skulle dela sin riktiga kropp eller sitt ansikte kan skapa en AI-persona – en fiktiv sexig avatar – och sälja innehåll med den avataren. I princip vara camgirl eller OnlyFans-modell via en AI-proxy. Vissa användare har testat detta med varierande framgång. Det öppnar dörren för att tjäna pengar på fantasier utan att exponera sin identitet eller kropp. Dock kräver plattformar idag identitetsverifiering för att förhindra catfishing och minderåriga, så individen måste ändå registrera sig och troligen ange att innehållet är AI-genererat av en fiktiv person. Om det tillåts kan detta skapa en ny kategori av innehållsskapare: AI-drivna vuxenskapare som är riktiga affärspersoner men vars produkt är en helt virtuell karaktär. De skulle konkurrera med riktiga modeller. Skulle användare betala för en “falsk” modell? Möjligen, om hon är tillräckligt attraktiv och interaktiv, och särskilt om de inte först inser att det är fejk. Man kan tänka sig att vissa användare faktiskt föredrar en AI-modell som är “alltid tillgänglig och aldrig har en dålig dag.” Detta är förstås oroande för mänskliga artister.
Regulatorisk och juridisk påverkan på branschen: Med nya lagar om deepfakes har vuxenplattformar juridiska incitament att förbjuda allt som inte är samtyckt. Detta kan ironiskt nog stärka de etablerade, reglerade vuxenföretagens position (som bara arbetar med samtyckande aktörer) gentemot oseriösa AI-sajter. Om tillsynen är stark kan användare som vill ha deepfake-porr få svårare att få tag på det, vilket kan driva dem till antingen olagliga källor på dark web eller avskräcka från vanan. Samtidigt kan samtyckta AI-skapelser (som en modell som samtycker till en AI-version av sig själv) bli en ny licensierad produktkategori. Det kommer att kräva juridisk klargöring: t.ex., kan en modell få upphovsrätt eller varumärkesskydd på sitt ansikte så att hon kan stämma någon som gör en AI-klon av henne utan tillstånd? Vissa länder som Danmark och möjligen kommande delstatslagar i USA rör sig mot den idén euronews.com. Det skulle hjälpa aktörer att skydda sitt varumärke.
Sammanfattning av påverkan: Vuxeninnehållsbranschen står inför början av ett potentiellt paradigmskifte. De som anpassar sig – genom att använda AI etiskt och transparent – kan blomstra eller åtminstone överleva. De som ignorerar det kan få svårt att stå emot den enorma mängden innehåll och förändrade konsumentvanor. Som en AI-entreprenör sa om AI-kompanjoner: “varje ny innovation kan kännas som en drastisk förändring… det är en evolution” sifted.eu. Frågan är om denna evolution kommer att komplettera eller kannibalisera det befintliga ekosystemet av skapare.
Slutsats: En ny erotisk gräns, fylld av dilemman
Framväxten av NSFW-AI har utan tvekan öppnat en Pandoras ask. På bara några år har vi sett AI gå från att generera roliga kattbilder till att skapa fejkade nakenbilder som kan förstöra en persons liv. Denna teknik är kraftfull, tveeggad och här för att stanna. Å ena sidan möjliggör den för vanliga människor att skapa vilken erotisk bild eller scenario de kan drömma om, vilket suddar ut gränserna mellan konsument och skapare inom vuxenunderhållning. Den bär på löftet om personlig njutning, kreativ utforskning och kanske nya affärsmodeller i en mångmiljardindustri som ofta varit teknologiskt stillastående. Å andra sidan har NSFW-AI gett upphov till nya former av övergrepp – “digital våldtäkt” kallar vissa det – genom att beröva individer (främst kvinnor) kontrollen över sina egna bilder och kroppar i den digitala världen. Det utmanar våra rättssystem, som kämpar för att uppdatera definitioner av identitetsstöld, pornografi och samtycke för AI-eran. Och det tvingar samhället att konfrontera obekväma frågor om sexualitetens natur, yttrandefrihet och mänsklig kontakt när den förstärks eller simuleras av AI.
Från och med slutet av 2025 svänger pendeln mot skyddsåtgärder och ansvarstagande. Stora lagstiftningsinsatser i USA och EU, tillslag i Asien och förändringar i plattformsregler signalerar alla att icke-samtyckt AI-porr allmänt ses som oacceptabelt. Parallellt utvecklas teknik för att upptäcka och förhindra missbruk, samtidigt som den generativa tekniken i sig förbättras. Vi kan förvänta oss att katt-och-råtta-dynamiken fortsätter: varje ny säkerhetsåtgärd kan mötas av nya undvikandetekniker från illasinnade aktörer. Men den kollektiva medvetenheten är mycket högre nu – AI-porr är inte längre en udda internetföreteelse; det är ett mainstream-ämne i parlament och nyhetsredaktioner. Denna offentliga medvetenhet kan ge offer kraft att tala ut och kräva rättvisa, samt pressa företag att ta ansvar.
Framåt kommer globalt samarbete vara avgörande. Dessa frågor stannar inte vid gränser – en deepfake skapad i ett land kan förstöra någons liv i ett annat. Det blir viktigt för regeringar att dela bästa praxis (som Euronews undersökning av europeiska lagar visar, många länder lär sig av varandras tillvägagångssätt euronews.com euronews.com). Kanske kan ett internationellt ramverk eller fördrag om att bekämpa bildbaserat sexuellt övergrepp växa fram de kommande åren, där de värsta brotten behandlas som brott mot mänskliga rättigheter. Under tiden behöver civilsamhällesgrupper och utbildare fortsätta att öka medvetenheten, lära ut mediekunskap (så att folk tänker efter innan de tror på eller delar “läckt” intimt innehåll), och stötta offer.
Trots allt mörker som förknippas med NSFW-AI är det värt att notera att allt är inte nattsvart. I samtyckta sammanhang får vissa människor verklig glädje av det – vare sig det är ett par som kryddar sitt sexliv med AI-genererade rollspelsscenarier, en vuxen kreatör som använder en AI-persona för att tjäna pengar säkert hemifrån, eller individer som äntligen ser sin specifika fantasi representerad i ett AI-konstverk eller berättelse. Dessa användningsområden bör inte gå förlorade i diskussionen; de understryker att teknologin i sig inte är ond i grunden. Det är ett verktyg – ett som förstärker mänskliga avsikter, goda som dåliga. Vår uppgift är att styra dess användning mot samtyckta och kreativa syften, och starkt skydda mot illvilliga syften.
Konstnärer, kreatörer och sexarbetare – de som befolkar vuxeninnehållsvärlden – kommer sannolikt att fortsätta anpassa sig och skapa utrymmen i detta nya landskap. Många kämpar för att säkerställa att “AI-etik” inkluderar deras röster, och kräver samtycke och ersättningsmekanismer. De ber i praktiken om något enkelt: ta inte från oss utan att fråga. Samhället i stort brottas med den principen inom alla AI-områden, från konst till nyheter till porr.
Sammanfattningsvis står NSFW AI vid skärningspunkten mellan teknik, sexualitet, lag och etik. Det utmanar oss att omdefiniera begrepp som samtycke, integritet och till och med verkligheten själv i den digitala tidsåldern. Den senare delen av 2020-talet kommer att vara avgörande för att sätta normer och regler som styr detta område. Går vi mot en framtid där AI-porr är allestädes närvarande men strikt reglerad, och används mestadels för goda eller neutrala syften? Eller kommer vi att se en splittring, där mainstream-kanaler rensar bort det medan det frodas i mörka hörn, likt en olaglig handel? Utfallet beror på de beslut som fattas nu – av lagstiftare, teknikföretag och användare.
En sak är säker: anden är ute ur flaskan. Vi kan inte uppfinna NSFW AI ogjort. Men vi kan och måste lära oss att leva med det ansvarsfullt. Som användare innebär det att respektera andras värdighet när vi använder dessa verktyg; som företag, att bygga in säkerhet från början; som regeringar, att sätta tydliga gränser; och som samhällen, att inte tolerera missbruk. Med vaksamhet och empati är förhoppningen att “vilda västern”-fasen av AI-porr kommer att utvecklas till en mer civiliserad terräng – en där samtyckande vuxna kan njuta av nya former av erotisk konst och kontakt, medan de som skulle missbruka tekniken hålls på avstånd. Historien om NSFW AI skrivs fortfarande, och mitten av 2025 är bara kapitel ett. Samhällets respons nu kommer att avgöra om denna teknik i slutändan berikar eller utsätter oss för fara inom området för intimt innehåll.
Källor:
- Oremus, Will. “Congress passes bill to fight deepfake nudes, revenge porn.” The Washington Post (via Klobuchar Senate site), 28 april 2025 klobuchar.senate.gov klobuchar.senate.gov.
- Fawkes, Violet. “8 Best NSFW AI Image Generators – Finding pleasure at the crossroads of code and consent.” Chicago Reader, 13 april 2025 chicagoreader.com chicagoreader.com.
- Mahdawi, Arwa. “Nonconsensual deepfake porn is an emergency that is ruining lives.” The Guardian, 1 april 2023 theguardian.com theguardian.com.
- Ferris, Layla. ”AI-genererad porrsajt Mr. Deepfakes stänger ner efter att tjänsteleverantör dragit tillbaka sitt stöd.” CBS News, 5 maj 2025 cbsnews.com cbsnews.com.
- CBS News/AFP. ”AI-genererad porrskandal skakar Hongkongs universitet efter att juridikstudenten påstås ha skapat deepfakes av 20 kvinnor.” CBS News, 15 juli 2025 cbsnews.com cbsnews.com.
- Lyons, Emmet. ”Sydkorea på väg att kriminalisera innehav eller visning av sexuellt explicita deepfake-videor.” CBS News, 27 sep 2024 cbsnews.com cbsnews.com.
- Wethington, Caleb. ”Nya lagar mot deepfakes, AI-genererad barnporr träder i kraft i Tennessee.” WSMV News Nashville, 30 juni 2025 wsmv.com wsmv.com.
- Desmarais, Anna. ”Danmark slår tillbaka mot deepfakes med upphovsrättsskydd. Vilka andra lagar finns i Europa?” Euronews, 30 juni 2025 euronews.com euronews.com.
- Nicol-Schwarz, Kai. ”Möt AI-OnlyFans: Hur ett startup samlade in miljoner för att bygga en plattform för ’erotiska följeslagare’.” Sifted, 13 mars 2025 sifted.eu sifted.eu.
- Wilson, Claudia. ”Senaten antar DEFIANCE-lagen.” Center for AI Policy (CAIP), 1 aug 2024 centeraipolicy.org centeraipolicy.org.
- Arnold, Stephen. ”Google tar ställning — mot tveksamt innehåll. Kommer AI att klara det?” Beyond Search blogg, 24 maj 2024 arnoldit.com arnoldit.com.
- Holland, Oscar. ”Taiwans Lin Chi-ling om sin deepfake-upplevelse och kampen mot AI-desinformation.” CNN, 5 okt 2023 (för kontext om kändis-deepfakes).
- (Ytterligare policydokument, pressmeddelanden och rapporter enligt hänvisningar i texten.)