LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

Binnen de NSFW AI-revolutie: Hoe door AI gegenereerde porno het spel verandert en controverse oproept

Binnen de NSFW AI-revolutie: Hoe door AI gegenereerde porno het spel verandert en controverse oproept

Inside the NSFW AI Revolution: How AI-Generated Porn Is Changing the Game and Courting Controversy

NSFW AI – het gebruik van generatieve kunstmatige intelligentie om “Not Safe For Work” volwassen content te creëren – is uitgegroeid tot een controversieel fenomeen. Van door AI gegenereerde erotische afbeeldingen en deepfake-porno tot stem-gekloneerde verleidsters en chatbot-“vriendinnen”, machine learning verandert het landschap van volwassen content. Het is een technologische revolutie die zowel spannende mogelijkheden als dringende ethische vragen oproept. Voorstanders prijzen nieuwe wegen voor fantasie en creativiteit, terwijl critici waarschuwen voor intimidatie, schendingen van toestemming en maatschappelijke schade. Halverwege 2025 bevindt NSFW AI zich op een kruispunt: omarmd door nichegemeenschappen en startups, onder de loep genomen door wetgevers, en gevreesd door degenen die erdoor geraakt worden. In dit uitgebreide rapport duiken we in wat NSFW AI is, waar het floreert, de laatste ontwikkelingen (van platformverboden tot nieuwe wetten), de ethische dilemma’s, stemmen aan beide kanten van het debat, en hoe de wereld zich haast om deze ontembare nieuwe dimensie van AI te modereren en reguleren. Laten we het gordijn opzij schuiven voor de wilde wereld van door AI gegenereerde porno – en waarom het niet alleen om porno gaat, maar om privacy, macht en de toekomst van seksuele content.

Wat is NSFW AI en hoe werkt het?

NSFW AI verwijst naar kunstmatige intelligentiesystemen die expliciete volwassen content genereren – waaronder pornografische afbeeldingen, video’s, audio en tekst – vaak met verbluffend realisme. Deze systemen maken gebruik van dezelfde geavanceerde generatieve technologieën die ten grondslag liggen aan recente doorbraken in AI-kunst en media, maar dan toegepast op X-rated materiaal. Belangrijke innovaties zijn onder meer deep learning-modellen die getraind zijn op enorme datasets van beeldmateriaal en video’s, en die leren om nieuwe content te produceren op basis van gebruikersopdrachten. Zo kunnen text-to-image diffusion models zoals Stable Diffusion fotorealistische naakt- of seksuele afbeeldingen maken op basis van een eenvoudige tekstbeschrijving globenewswire.com. “Deepfake”-technieken maken het mogelijk om gezichten in video’s te verwisselen of te synthetiseren, waardoor het lijkt alsof echte mensen (vaak beroemdheden of privépersonen) optreden in porno die ze nooit daadwerkelijk hebben gemaakt. Geavanceerde voice cloning-tools kunnen iemands stem met griezelige nauwkeurigheid nabootsen, waardoor het mogelijk wordt erotische audio of “dirty talk” in een doelstem te genereren. En grote taalmodellen kunnen stomende erotische verhalen genereren of deelnemen aan seksuele rollenspellen via chat.

In wezen gebruiken NSFW AI-systemen de zelfde algoritmes die elke AI-kunst of -media genereren – alleen getraind of bijgesteld op pornografische of erotische trainingsdata. Generative Adversarial Networks (GANs) waren vroege pioniers in het creëren van naaktbeelden, maar diffusie- en transformer-gebaseerde modellen hebben de nauwkeurigheid sterk verbeterd. Moderne NSFW-beeldgeneratoren kunnen hoge-definitie naaktbeelden op maat van de prompt van een gebruiker produceren met minimale inspanning globenewswire.com. Deepfake-videomakers gebruiken vaak gespecialiseerde software (soms open source) om één gezicht op een ander te plaatsen in bestaande adultvideo’s, waardoor synthetische pornografie ontstaat die moeilijk van echt beeldmateriaal te onderscheiden is cbsnews.com. Voice-AI-diensten kunnen een audiomonster nemen en nieuwe spraak (inclusief expliciete inhoud) in die stem genereren. En AI-gestuurde chatbots gebruiken natuurlijke taal om gepersonaliseerde erotische gesprekken of sexting op aanvraag te leveren.

De grenzen tussen fictie en realiteit vervagen. Zoals een waarnemer opmerkte: “al zeer realistische beelden, stemmen en video’s van NSFW AI-generatoren blijven zich ontwikkelen, wat de manier waarop adult content wordt gemaakt, geconsumeerd en begrepen verder verandert” chicagoreader.com. Een gebruiker kan nu een gepersonaliseerde pornografische scène oproepen – bijvoorbeeld een afbeelding van een fantasie met een beroemdheid of een audioclip van een ex die expliciete dingen zegt – met een simpele prompt, iets wat een paar jaar geleden nog onmogelijk was. Deze nieuwe macht roept dringende vragen op over toestemming, privacy en het verschil tussen creatieve fantasie en uitbuiting. De onderliggende technologie zelf is moreel agnostisch – het kan worden gebruikt om alles te creëren – maar wanneer het wordt gericht op menselijke seksualiteit en de gelijkenis van echte mensen, worden de implicaties lastig.

Belangrijkste vormen van AI-gegenereerde adult content

  • AI-gegenereerde beelden: Tekst-naar-beeldmodellen (bijv. Stable Diffusion) kunnen expliciete erotische of pornografische beelden produceren op basis van prompts. Gebruikers kunnen uiterlijk, scenario, enz. specificeren, wat unieke naakt- of seksuele beelden op aanvraag oplevert globenewswire.com. Veel van deze modellen zijn open source of door gebruikers aangepast, waardoor inhoud mogelijk is die verder gaat dan wat reguliere AI-tools toestaan.
  • Deepfake-porno-video’s: Met deepfake-technologie plaatsen makers het gezicht van een persoon op een adultvideo, waardoor er een nep-porno wordt gemaakt van iemand die nooit heeft deelgenomen. Deze door AI gemanipuleerde video’s zijn vaak gericht op beroemdheden of privépersonen zonder toestemming cbsnews.com theguardian.com. De kwaliteit van deepfakes is zo verbeterd dat in 2024–2025 veel ervan verontrustend realistisch lijken, geholpen door krachtigere GPU’s en algoritmes.
  • Stemklonen en audio: AI-stemgeneratoren klonen de stemmen van beroemdheden of bekenden om expliciete audioclips te produceren (bijvoorbeeld het simuleren van een beroemde actrice die seksueel praat, of het maken van erotische luisterboeken met elke gewenste stem). Geavanceerde stem-AI (zoals ElevenLabs) maakt het eenvoudig om kreunen, dialogen of vertellingen te genereren in een gekozen stem, wat zorgen oproept over imitatie in pornografische audio.
  • Erotische chatbots en fictie: AI-taalmodellen worden gebruikt voor NSFW-chat en verhalen. “AI-vriendin”-apps en erotische roleplay-chatbots werden razend populair rond 2023–2025. Deze bots kunnen gebruikers betrekken in pikante chats of sexting, en genereren onbeperkt erotische tekst. Sommige combineren ook beelden en spraakberichten. Dit vertegenwoordigt een nieuwe vorm van adult content – interactieve AI-companions die inspelen op intieme fantasieën chicagoreader.com sifted.eu.

Hoewel mainstream AI-platforms (zoals OpenAI’s DALL·E of Midjourney) pornografische output verbieden, hebben de open-source- en adulttech-gemeenschappen deze technologieën omarmd om NSFW-grenzen te verleggen. Het open-source karakter van veel tools “stimuleert innovatie en samenwerking” maar maakt het ook eenvoudig om beveiligingen te verwijderen en ongereguleerde expliciete content te genereren chicagoreader.com chicagoreader.com. Zoals we zullen zien, speelt deze spanning tussen innovatie en regulering op verschillende platforms.

Platforms, applicaties en communities die NSFW AI aandrijven

Er is een levendig (en soms schimmig) ecosysteem van platforms en online gemeenschappen ontstaan om AI-gegenereerde volwasseneninoud te creëren en te delen. Omdat grote technologiebedrijven expliciete inhoud niet toestaan op hun AI-diensten arnoldit.com blog.republiclabs.ai, wordt de NSFW AI-boom aangedreven door onafhankelijke ontwikkelaars, open-source modellen en niche-startups. Hier zijn enkele van de belangrijkste domeinen waar NSFW AI leeft en floreert:

  • Open-Source Model Hubs: CivitAI – een populair community-website – herbergt een enorme bibliotheek van door gebruikers gemaakte AI-modellen en afbeeldingen, waaronder veel die gespecialiseerd zijn in volwasseneninoud chicagoreader.com. Gebruikers kunnen fijn-afgestelde Stable Diffusion-modellen downloaden voor hentai, realistische naakten, fetisjkunst, enzovoort, en hun gegenereerde afbeeldingen delen. De openheid van dit soort sites heeft ze tot een favoriete plek gemaakt voor NSFW AI-makers. Het betekent echter ook minimale controle; de inhoud varieert van artistieke erotische kunst tot extreem pornografisch materiaal. Andere sites zoals Hugging Face hebben NSFW-modellen gehost (met waarschuwingen), en fora zoals 4chan of GitHub hebben ook “gelekte” ongecensureerde modellen gedeeld.
  • NSFW Afbeeldinggeneratoren en Apps: Tal van webgebaseerde diensten zijn nu gespecialiseerd in AI erotische afbeeldingsgeneratie. Zo laten platforms als Candy.ai, Arting.ai, Vondy, OurDream en anderen (vaak op abonnementsbasis) gebruikers aangepaste volwasseneninoud genereren met relatief weinig beperkingen chicagoreader.com chicagoreader.com. Sommigen pronken met hoogwaardige renders en een breed scala aan stijlen – van fotorealistisch tot anime – die verschillende smaken aanspreken. Velen verschenen in 2024–2025, bieden vaak gratis proefversies of tokens aan, en concurreren op wie de meest realistische of fantasierijke NSFW-kunst kan maken. Hun marketing benadrukt personalisatie en privacy, en belooft gebruikers dat ze precies kunnen creëren wat ze wensen “in een veilige, privéomgeving, vrij van de beperkingen van vooraf opgenomen inhoud” globenewswire.com.
  • AI-porno gemeenschappen en forums: Voor de recente hardhandige aanpak waren toegewijde deepfake-porno websites de centra voor deze activiteit. De meest beruchte was Mr. Deepfakes, opgericht in 2018, die “de meest prominente en mainstream marktplaats” werd voor deepfake celebrity-porno, maar ook voor niet-bekende doelwitten cbsnews.com. Gebruikers op de site konden expliciete deepfake-video’s uploaden en bekijken, en zelfs op maat gemaakte niet-consensuele porno laten maken tegen betaling cbsnews.com. De site stimuleerde een gemeenschap met forums om technieken te bespreken en content uit te wisselen. Echter, zoals we later zullen toelichten, werd Mr. Deepfakes gesloten in 2025 nadat het een cruciale dienstverlener verloor cbsnews.com. Na dergelijke hardhandige acties is de deepfake-porno gemeenschap niet verdwenen – ze is uiteengevallen en gemigreerd. Experts merken op dat het opheffen van een grote site “de gemeenschap van gebruikers verspreidt, waardoor ze waarschijnlijk naar minder mainstream platforms zoals Telegram worden geduwd” om content uit te wisselen cbsnews.com. Inderdaad, versleutelde apps en nicheforums zijn het nieuwe thuis voor veel NSFW AI-enthousiastelingen die van grotere platforms zijn verdreven.
  • AI “Vriendin” en Companion Services: Een golf van startups combineert het genereren van erotisch materiaal met interactieve gezelschapservaringen. Een opvallend voorbeeld is Oh (gevestigd in Londen), dat zichzelf presenteert als de bouwers van de “AI OnlyFans” – een erotisch companion-platform waar gebruikers via tekst, spraak en afbeeldingen communiceren met door AI gegenereerde virtuele modellen sifted.eu sifted.eu. Oh haalde begin 2025 $4,5 miljoen op om “autonome, schaars geklede bots” te creëren die zelfs proactief gebruikers kunnen benaderen met flirterige chats sifted.eu sifted.eu. Op de site zien gebruikers profielen van halfnaakte AI-bots – meestal fictieve vrouwelijke personages, hoewel sommige “digitale tweelingen” zijn van echte volwassen makers die hun gelijkenis in licentie geven (en een deel van de opbrengst krijgen) sifted.eu. Gebruikers kunnen met deze bots chatten en pikante teksten, door AI gegenereerde naaktfoto’s en zelfs spraakberichten ontvangen die zijn gemaakt met gekloonde stemmen sifted.eu. Een aantal vergelijkbare diensten verscheen rond 2023–2024: DreamGF, Kupid AI, FantasyGF, Candy.ai, enzovoort, wat wijst op een trend van door AI aangedreven volwassen chatcompanions sifted.eu. De aantrekkingskracht is een 24/7, volledig aanpasbare erotische interactie – in wezen een virtuele camgirl of vriend aangedreven door algoritmes.
  • Bestaande volwassenplatforms passen zich aan: Traditionele platforms voor volwassenenin­houd blijven niet onaangetast door de AI-golf. OnlyFans, de populaire abonnementsdienst voor makers, heeft te maken gehad met een toename van AI-gegenereerde volwassenenin­houd. Volgens het beleid staat OnlyFans AI-gegenereerde beelden alleen toe als deze de geverifieerde maker zelf bevatten en duidelijk als AI-inhoud zijn gelabeld reddit.com. Het is verboden om AI te gebruiken om anderen na te bootsen of om chats met fans te automatiseren reddit.com. Desondanks zijn er meldingen van accounts die pakketten met duidelijk AI-gegenereerde naaktfoto’s verkopen (met typische fouten zoals vreemde handen of “dode ogen” op elke afbeelding) aan nietsvermoedende abonnees reddit.com. Sommige menselijke makers zijn woedend, uit angst dat neppe AI-modellen het platform kunnen overspoelen en hun inkomsten schaden reddit.com uniladtech.com. Een sekswerker klaagde dat AI “de moeite, creativiteit en het gedoe” wegneemt die echte makers investeren, het een “slechte dienst aan mijn fans” noemt en zich zorgen maakt dat het onrealistische verwachtingen van seks zal verergeren reddit.com reddit.com. Aan de andere kant omarmen enkele slimme volwassen makers AI-tools – ze gebruiken beeldgeneratoren om hun inhoud te verbeteren of te vermenigvuldigen, of licentiëren hun gelijkenis aan bedrijven zoals Oh voor extra inkomsten sifted.eu. De volwassenenin­houdindustrie in het algemeen (pornostudio’s, cam-sites, enz.) experimenteert voorzichtig met AI voor het maken van inhoud, maar bekijkt het ook argwanend als een ontwrichtende kracht die een golf van door gebruikers gegenereerde expliciete inhoud buiten de professionele sfeer mogelijk kan maken. Industrie-analisten voorspellen dat AI-aangedreven volwassenenin­houd tegen 2027 meer dan 30% van het online pornogebruik kan uitmaken als de huidige trends zich voortzetten globenewswire.com, een teken van hoe snel deze technologie groeit.

De NSFW AI-gemeenschap is snelgroeiend en divers, van hobbyistische kunstenaars die AI-erotica verkennen als “creatieve en persoonlijke ontdekking” tot hardcore deepfake-ringen die kwaadaardige nepnaaktfoto’s genereren chicagoreader.com. Er verschijnen bijna wekelijks nieuwe platforms en tools, elk met een andere balans tussen vrijheid en beperkingen. Zoals een recensie uit 2025 het verwoordde: “de wereld van NSFW AI-generatoren is enorm en snel in beweging,” waarbij sommige platforms zich richten op hyperrealistische beelden, andere op interactieve verhalen, en elk hun eigen ethische grijze gebied innemen chicagoreader.com. Wat hen verenigt is de belofte van on-demand, sterk gepersonaliseerde volwassen content – en de gevaren die gepaard gaan met het hanteren van zulke macht.

2025: Een golf van AI-porno en een groeiende tegenreactie

Midden 2025 had NSFW AI een keerpunt bereikt. Enerzijds werd de content wijdverspreider en overtuigender dan ooit; anderzijds bereikten publieke bezorgdheid en toezicht door regelgevers een nieuw hoogtepunt. Recente ontwikkelingen omvatten spraakmakende misbruikincidenten, snelle reacties van toezichthouders en zelfs zelfregulering binnen de tech-industrie. Hieronder vatten we enkele van de belangrijkste nieuwsfeiten en trends van 2024–2025 rond AI-gegenereerde porno samen:

Controverses en niet-consensuele deepfake-schandalen

Misschien heeft niets het NSFW AI-debat zo aangewakkerd als de toename van non-consensual deepfake pornography – het gebruik van AI om het te laten lijken alsof iemand (meestal een vrouw) naakt of in seksuele handelingen verschijnt die ze nooit heeft gedaan. Deze praktijk begon met beroemdheden, maar heeft steeds vaker gewone mensen als doelwit, vaak als een vorm van intimidatie of “wraakporno.” In 2023 was het verontrustend wijdverspreid en toegankelijk geworden: uit onderzoeksrapporten bleek dat iedereen eenvoudig deepfake-porno websites via Google kon vinden, zich kon aansluiten bij een Discord om aangepaste deepfakes aan te vragen, en zelfs met een creditcard kon betalen – een bloeiende ondergrondse economie waarbij “makers” openlijk diensten adverteren theguardian.com theguardian.com. Uit onderzoeken blijkt consequent dat vrouwen en meisjes overwegend de slachtoffers zijn van deze trend. Een baanbrekend rapport van Sensity (een AI-veiligheidsbedrijf) stelde vast dat 95–96% van de deepfakes online niet-consensuele seksuele beelden waren, vrijwel allemaal van vrouwen theguardian.com. Vrouwelijke beroemdheden, van actrice Taylor Swift tot online persoonlijkheden, hebben meegemaakt dat nepnaaktfoto’s van hen viraal gingen op sociale media klobuchar.senate.gov. Nog verontrustender is dat ook privépersonen en minderjarigen het doelwit zijn: zo ontdekte een 14-jarig meisje dat klasgenoten een app hadden gebruikt om nep-pornobeelden van haar te maken en deze op Snapchat te delen klobuchar.senate.gov.Een opvallend incident vond plaats in januari 2023, toen een Twitch-videogamestreamer werd betrapt met een browsertabblad open op een deepfake-porno website met zijn vrouwelijke collega’s. De streamer bood huilend zijn excuses aan, maar een van de vrouwen, Twitch-streamer QTCinderella, gaf een heftige reactie: “Dit is hoe het voelt om geschonden te worden… om foto’s van mij ‘naakt’ te zien verspreiden” zonder toestemming theguardian.com. Ze benadrukte hoe oneerlijk het was dat zij als vrouw in de openbaarheid nu tijd en geld moet besteden om nepseksuele beelden van zichzelf van het internet te laten verwijderen theguardian.com theguardian.com. Haar oproep – “Het zou geen deel van mijn werk moeten zijn om op deze manier lastiggevallen te worden” – raakte een gevoelige snaar en bracht deepfake-porno als een ernstige vorm van misbruik onder de aandacht van het grote publiek.

Sindsdien zijn zulke gevallen alleen maar toegenomen. In 2024 werden studenten in meerdere landen zowel daders als slachtoffers van AI-nude swapping. In Australië werd een schoolgemeenschap opgeschrikt door nep-expliciete beelden van verschillende vrouwelijke studenten die zonder hun toestemming werden gegenereerd en gedeeld, wat leidde tot een politieonderzoek en publieke verontwaardiging theguardian.com. In Hongkong in 2025 zou een rechtenstudent aan de prestigieuze Universiteit van Hongkong AI-pornoafbeeldingen hebben gemaakt van minstens 20 vrouwelijke klasgenoten en docenten, wat een schandaal veroorzaakte toen de eerste straf van de universiteit slechts een waarschuwingsbrief was cbsnews.com cbsnews.com. De autoriteiten in Hongkong merkten op dat volgens de huidige wet alleen de verspreiding van dergelijke beelden strafbaar is, niet het louter maken ervan, waardoor er een maas in de wet ontstaat als de dader de nepfoto’s niet openbaar heeft gedeeld cbsnews.com. Vrouwenrechtenorganisaties veroordeelden de stad als “achterlopend” op het gebied van bescherming, en de privacycommissaris van Hongkong startte toch een strafrechtelijk onderzoek, onder verwijzing naar mogelijke schadelijke intentie cbsnews.com cbsnews.com. De zaak maakte duidelijk dat iedereen een doelwit kan zijn en dat bestaande wetten vaak moeite hebben om bij te blijven.

Te midden van deze misstanden beschrijven slachtoffers ernstige emotionele en reputatieschade. Afgebeeld worden in een hyperrealistische nep-seksdaad is diep traumatiserend, zelfs als je logisch weet dat het nep is. “Het is surreëel om mijn gezicht te zien… Ze keken een beetje doods uit hun ogen,” zei een studente die AI-gegenereerde video’s van zichzelf op een pornosite vond (geüpload door een ontevreden ex-klasgenoot) centeraipolicy.org. Slachtoffers voelen zich machteloos, niet alleen omdat ze nooit toestemming hebben gegeven voor zulke beelden, maar ook omdat het zo moeilijk is om ze te laten verwijderen. Zoals een journalist schreef, “niet-consensuele deepfake porno is een noodsituatie die levens verwoest.” Het dwingt vrouwen om in een staat van paranoia te leven, zich afvragend wie deze nepfoto’s heeft gezien, en het leidt hun energie af naar een “nachtmerrieachtig spelletje whack-a-mole” om de inhoud van het internet te verwijderen theguardian.com klobuchar.senate.gov. Pleitbezorgers hebben het vergeleken met een vorm van seksuele cyberterreur die bedoeld is om vrouwen het zwijgen op te leggen en te intimideren theguardian.com.

Zelfs reguliere sociale mediaplatforms hebben onbedoeld het verspreiden gefaciliteerd van expliciete AI-inhoud. Begin 2024 verspreidden expliciete deepfake-beelden van Taylor Swift zich zo wijd op X (voorheen Twitter) – met miljoenen weergaven – dat het platform tijdelijk zoekresultaten voor haar naam blokkeerde om de stroom in te dammen cbsnews.com. Meta (Facebook/Instagram) bleek in 2024 honderden advertenties te tonen voor “nudify”-apps (tools die via AI vrouwen digitaal uitkleden), ondanks dat zulke advertenties tegen het beleid zijn. Na een onderzoek van CBS News verwijderde Meta veel van deze advertenties en gaf toe dat ze door de controle waren geglipt cbsnews.com. De aanwezigheid van zulke advertenties laat zien hoe genormaliseerd en toegankelijk AI-“strip”-apps zijn geworden, zelfs op legitieme advertentienetwerken cbsnews.com.

Platformverboden en zelfregulering door de industrie

Onder publieke druk hebben sommige techplatforms en dienstverleners het afgelopen jaar stappen ondernomen om NSFW AI-inhoud in te perken. Een opvallende ontwikkeling was de sluiting van Mr. Deepfakes in mei 2025, eerder genoemd. De site kondigde aan te stoppen nadat “een cruciale dienstverlener zijn steun had ingetrokken,” waardoor de site feitelijk offline werd gehaald cbsnews.com. Hoewel het niet bevestigd is, suggereert dit dat een infrastructuur- of hostingprovider (mogelijk een clouddienst, domeinregistrar of DDoS-beschermingsdienst) besloot de banden te verbreken, waarschijnlijk vanwege juridische of reputatierisico’s. De timing was slechts enkele dagen nadat het Amerikaanse Congres een belangrijke anti-deepfakewet had aangenomen (hieronder besproken), waardoor velen het zagen als onderdeel van een bredere aanpak cbsnews.com. Henry Ajder, een bekende deepfake-expert, vierde de sluiting als het ontmantelen van het “centrale knooppunt” van een groot misbruiknetwerk cbsnews.com. “Dit is een moment om te vieren,” zei hij, terwijl hij waarschuwde dat het probleem van niet-consensuele deepfake-beelden “niet zal verdwijnen” – het zal zich verspreiden maar waarschijnlijk nooit meer zo’n mainstream positie innemen cbsnews.com. Ajder merkte inderdaad op dat die gemeenschappen nieuwe plekken zullen vinden, maar “het zal niet zo groot en prominent zijn” als het hebben van één grote centrale site, wat “cruciale” vooruitgang is cbsnews.com.

Grote technologiebedrijven zijn ook begonnen met het aanpakken van het tools en advertenties aspect. In mei 2024 heeft Google zijn beleid bijgewerkt om advertenties te verbieden voor platforms die deepfake porno maken of tutorials over hoe je dit maakt arnoldit.com. De stap van Google, die eind mei 2024 van kracht werd, was een poging om de promotie van deze diensten via Google Ads te stoppen. (Google had eerder al het gebruik van zijn Colab-platform voor het trainen van deepfake-modellen verboden, en al in 2018 hadden sites als Reddit en Pornhub officieel AI-gegenereerde niet-consensuele porno verboden arnoldit.com.) Dit werd gepresenteerd als een voorbereiding van Google op ergere dingen die nog komen: “als deepfake porno er in 2018 nog knullig uitzag, zal het er nu ongetwijfeld veel realistischer uitzien,” merkte een rapport van ExtremeTech op, waarmee de noodzaak voor strengere advertentieregels werd gerechtvaardigd arnoldit.com. Ook sociale mediabedrijven passen hun contentmoderatie aan – zo beloofden Pornhub en grote adultsites in 2018 deepfakes te verbieden (als niet-consensuele porno), en in Europa dwingen nieuwe regels in 2024–25 pornosites om actief “schadelijke inhoud aan te pakken” of riskeren ze boetes subscriber.politicopro.com. Als onderdeel van een bredere veiligheidsaanpak heeft de eigenaar van Pornhub zelfs tijdelijk de dienst in sommige regio’s (zoals Frankrijk en bepaalde Amerikaanse staten) opgeschort vanwege zorgen over naleving van nieuwe wetten subscriber.politicopro.com, wat illustreert hoe adultplatforms worden gedwongen om contentbeveiliging serieus te nemen of de toegang af te sluiten.

Mainstream AI-bedrijven blijven afstand nemen van NSFW-gebruik. OpenAI’s beeldmodel DALL·E en de ChatGPT-dienst hanteren strikte filters tegen seksueel getinte inhoud. Midjourney (een populaire AI-beeldgenerator) verbiedt niet alleen pornografische prompts, maar heeft ook geautomatiseerde moderatie die context herkent geïmplementeerd om te voorkomen dat gebruikers stiekem NSFW-verzoeken indienen arxiv.org. Wanneer de filters van een model worden omzeild door slimme formuleringen, worden deze incidenten openbaar en scherpen de ontwikkelaars de beveiliging aan (een voortdurende kat-en-muisspel). Aan de andere kant prijzen nieuwkomers soms hun gebrek aan censuur aan als verkooppunt: zo kan het nieuwste Stable Diffusion XL-model van Stability AI technisch gezien NSFW-beelden genereren als het lokaal zonder veiligheidsfilter wordt uitgevoerd, en sommige kleinere bedrijven adverteren openlijk met “minder beperkingen op NSFW-inhoud dan concurrenten” latenode.com. Dit laat een splitsing in de AI-industrie zien: de grote spelers kiezen voor voorzichtigheid en merkschadebeperking, terwijl kleinere of open projecten inspelen op de vraag naar ongecensureerde generatieve AI – inclusief porno.

Belangrijke juridische en regelgevende ontwikkelingen (2024–2025)

Misschien zijn de meest ingrijpende ontwikkelingen afkomstig van wetgevers die reageren op de gevaren van AI-porno. Over de hele wereld beginnen overheden wetten aan te nemen om niet-consensuele deepfakes te bestraffen, slachtoffers te beschermen en zelfs de AI-tools zelf te reguleren. Hier volgt een overzicht van belangrijke stappen:

  • Verenigde Staten – De Take It Down Act (2025): In april 2025 nam het Amerikaanse Congres met overweldigende meerderheid de bipartisane “Take It Down Act” aan, de eerste federale wet die zich direct richt op door AI gegenereerde intieme beelden klobuchar.senate.gov. Het maakt het een federale misdaad om zonder toestemming intieme beelden (echt of door AI gegenereerd) van een persoon te maken of te delen. Cruciaal is dat het online platforms verplicht om dergelijke inhoud binnen 48 uur te verwijderen nadat een slachtoffer hiervan melding heeft gemaakt klobuchar.senate.gov. Deze wet – gepromoot door First Lady Melania Trump en mede opgesteld door senatoren van beide partijen – werd in mei 2025 ondertekend door president Donald Trump klobuchar.senate.gov. Het wordt beschouwd als de eerste grote internetwet van Trumps tweede termijn en een direct antwoord op het “snelgroeiende probleem van [non-consensuele porno]” klobuchar.senate.gov. Slachtofferorganisaties prezen het als langverwacht. “Deepfakes creëren angstaanjagende nieuwe mogelijkheden voor misbruik,” zei senator Amy Klobuchar, eraan toevoegend dat slachtoffers nu materiaal kunnen laten verwijderen en daders verantwoordelijk kunnen houden klobuchar.senate.gov. Opvallend is dat grote technologiebedrijven zoals Meta, Google en Snap deze wet steunden – een teken van consensus dat er iets moest gebeuren klobuchar.senate.gov. De wet kent straffen waaronder boetes en tot 2 jaar gevangenisstraf voor overtreders cbsnews.com. Ook kunnen slachtoffers makers/verspreiders aanklagen voor schadevergoeding, waarmee civiele actie wordt versterkt. Groepen voor vrije meningsuiting en privacy waarschuwden voor mogelijk misbruik van de wet – zo noemde Fight for the Future’s Lia Holland het “goed bedoeld maar slecht geformuleerd,” uit vrees dat kwaadwillenden verwijderverzoeken zouden misbruiken om legitieme inhoud te censureren klobuchar.senate.gov. Desondanks is de Take It Down Act nu van kracht, waarmee de federale overheid van de VS haar eerste echte stap zet om AI-seksuele uitbuiting op grote schaal te bestrijden.
  • Amerikaanse staten: Nog voordat er federale actie was, voerden meerdere Amerikaanse staten hun eigen wetten in. Californië, Texas, Virginia, New York en anderen namen tussen 2019 en 2023 wetten aan die het illegaal maken om deepfake porno te maken of te verspreiden zonder toestemming (vaak gecategoriseerd onder wraakporno- of seksuele imitatie-wetten). In 2025 bleven staten de wetten verfijnen. Zo introduceerde Tennessee de “Preventing Deepfake Images Act”, die op 1 juli 2025 van kracht wordt en civiele en strafrechtelijke stappen mogelijk maakt voor iedereen van wie het intieme evenbeeld zonder toestemming wordt gebruikt wsmv.com wsmv.com. De aanleiding was dat een lokale tv-meteoroloog ontdekte dat er nepnaaktfoto’s van haar online circuleerden, waarna zij getuigde over de impact op haar en haar familie wsmv.com. Tennessee nam ook een wet aan die de tools voor AI-kindermisbruik strafbaar stelt – het wordt een misdrijf om bewust software te bezitten, verspreiden of produceren die bedoeld is om AI-gegenereerd kindermisbruikmateriaal te maken wsmv.com. Deze wet erkent de gruwel van AI-gegenereerde kinderpornografie en probeert dit te voorkomen door zich te richten op de technologie zelf (het bezit van zo’n tool is nu een misdrijf van klasse E in TN, productie een misdrijf van klasse B) wsmv.com.
  • Europa – EU-brede maatregelen: De Europese Unie hanteert een tweesporenbeleid: brede AI-regelgeving en specifieke strafrechtelijke richtlijnen. De aankomende EU AI-wet (naar verwachting afgerond in 2024/2025) zal vereisen dat generatieve AI-inhoud voldoet aan transparantieverplichtingen. Deepfakes, geclassificeerd als “beperkt risico” AI, worden niet volledig verboden maar moeten duidelijk worden gelabeld als AI-gegenereerd (bijv. watermerken of disclaimers), en bedrijven moeten details van hun trainingsdata bekendmaken euronews.com euronews.com. Niet-naleving kan leiden tot boetes tot €15 miljoen of meer euronews.com. Daarnaast heeft de EU een Richtlijn Geweld tegen Vrouwen goedgekeurd die expliciet het niet-consensueel maken of delen van seksuele deepfakes strafbaar stelt euronews.com. Deze verplicht EU-lidstaten om dit gedrag strafbaar te stellen (de exacte straffen worden aan elk land overgelaten) uiterlijk in 2027 euronews.com euronews.com. Dit betekent dat in heel Europa het maken van een nep-pornobeeld van iemand zonder toestemming een misdrijf wordt, in lijn met hoe echte wraakporno wordt behandeld.
  • Frankrijk: Frankrijk trad in 2024 streng op met een nieuwe bepaling in het Wetboek van Strafrecht. Het is nu illegaal in Frankrijk om enige door AI gegenereerde visuele of audio-opname van een persoon zonder diens toestemming te delen euronews.com. Als dit gebeurt via een online dienst, worden de straffen zwaarder (tot 2 jaar gevangenisstraf, €45.000 boete) euronews.com. Belangrijk is dat Frankrijk specifiek pornografische deepfakes volledig heeft verboden, zelfs als iemand probeert ze als nep te labelen euronews.com. Dus in Frankrijk is het maken of verspreiden van een seksuele deepfake strafbaar met maximaal 3 jaar gevangenisstraf en een boete van €75.000 euronews.com. De Franse wet geeft ook de digitale toezichthouder ARCOM de bevoegdheid om platforms te dwingen dergelijke inhoud te verwijderen en meldsystemen te verbeteren euronews.com.
  • Verenigd Koninkrijk: Het VK heeft in 2023–2024 ook wetten aangepast. Wijzigingen in de Sexual Offenses Act maken het aanmaken van een seksuele deepfake zonder toestemming strafbaar met maximaal 2 jaar gevangenisstraf euronews.com euronews.com. Daarnaast maakt de Online Safety Act 2023 (een ingrijpende internetregulering) het expliciet illegaal om niet-consensuele seksuele beelden (inclusief deepfakes) te delen of te dreigen met delen op sociale media, en verplicht platforms om “proactief te verwijderen” of te voorkomen dat dergelijk materiaal verschijnt euronews.com. Als platforms falen, riskeren ze boetes tot 10% van de wereldwijde omzet – een enorme stimulans om te voldoen euronews.com. Sommige experts merken echter op dat het VK het maken van een deepfake die niet gedeeld wordt nog steeds niet strafbaar stelt, een lacune waardoor slachtoffers kwetsbaar blijven als beelden privé worden gehouden (vergelijkbaar met het scenario in Hongkong) euronews.com. Er zijn oproepen om in het VK zelfs de ontwikkeling en distributie van deepfake-tools zelf strafbaar te stellen euronews.com.
  • Denemarken: In juni 2025 heeft het Deense parlement ingestemd met een baanbrekende wet om individuen auteursrecht te geven over hun eigen gelijkenis – in wezen wordt je gezicht “jouw intellectuele eigendom” als manier om deepfakes te bestrijden euronews.com. Deze wet maakt het illegaal om zonder toestemming “digitale imitaties” van iemands kenmerken te maken of te delen euronews.com. “Je hebt recht op je eigen lichaam, je eigen stem en je eigen gelaatstrekken,” zei de Deense minister van Cultuur, die het presenteerde als zowel een bescherming tegen desinformatie en seksueel misbruik euronews.com. Hoewel details nog volgen, suggereert dit dat Denemarken iemand die een deepfake van jou maakt zal behandelen als een inbreuk op je “portretrechten”, vergelijkbaar met een auteursrechtenschending, wat het verwijderen en juridische stappen aanzienlijk kan vereenvoudigen.
  • Zuid-Korea: Zuid-Korea was een van de eerste landen die zwaar werden getroffen door deepfake porno (gezien de recente problemen met digitale zedendelicten). In 2021 had Zuid-Korea het maken of delen van seksuele deepfakes verboden; eind 2024 ging het nog verder door het zelfs strafbaar stellen van bezit of het bekijken van dergelijk materiaal. Een wet die in september 2024 werd aangenomen (ondertekend door president Yoon in 2024/25) maakte het illegaal om seksueel expliciete deepfake-beelden/video’s te kopen, bezitten of bekijken, met straffen tot 3 jaar gevangenis voor overtreders cbsnews.com cbsnews.com. Het maken/verspreiden was al illegaal (5+ jaar gevangenisstraf) en werd verhoogd naar maximaal 7 jaar als de nieuwe wet werd ondertekend cbsnews.com. Deze harde aanpak erkent dat deze fakes vaak onder jongeren werden uitgewisseld; in 2024 meldde de Koreaanse politie zelfs 387 arrestaties gerelateerd aan deepfake seksueel materiaal in slechts de eerste helft van het jaar – 80% van de gearresteerden waren tieners cbsnews.com. Het probleem was zo wijdverspreid onder tieners (fakes maken van klasgenoten, leraren, enz.) dat Korea het nu als een ernstig misdrijf beschouwt om dergelijk materiaal zelfs maar op te zoeken cbsnews.com cbsnews.com. Activisten in Seoul demonstreerden met borden waarop stond: “Herhaalde deepfake zedendelicten, de staat is ook een medeplichtige” om strengere maatregelen te eisen cbsnews.com, en de overheid reageerde met deze maatregelen.
  • China: Pornografie van welke aard dan ook is strikt illegaal in China, en dat geldt ook voor door AI gegenereerde porno. Bovendien voerde China in januari 2023 baanbrekende regelgeving in voor “deep synthesis”-technologie, waarbij wordt vereist dat alle door AI gegenereerde of aangepaste media die kunnen misleiden duidelijke labels of watermerken moeten hebben en het gebruik van dergelijke technologie voor imitatie, fraude of het in gevaar brengen van de veiligheid wordt verboden oxfordmartin.ox.ac.uk afcea.org. In wezen heeft China preventief niet-gelabelde deepfakes verboden en de autoriteiten ruime bevoegdheden gegeven om degenen die ze maken te straffen. In combinatie met China’s algehele verbod op obsceen materiaal is NSFW AI-inhoud dubbel verboden – hoewel het waarschijnlijk in ondergrondse kringen bestaat, hebben Chinese censuurinstanties wettelijke middelen om het onmiddellijk te verwijderen en te vervolgen.

Wereldwijd is de trend duidelijk: niet-consensuele AI-seksuele beelden worden in verschillende rechtsgebieden strafbaar gesteld, en platforms worden verplicht deze te controleren. Eind 2025 is het juridische landschap veel minder tolerant tegenover deepfake-porno dan twee jaar eerder, toen slechts enkele Amerikaanse staten en landen als Zuid-Korea dergelijke wetten hadden. Handhaving en bewustwording blijven echter uitdagingen. Veel slachtoffers weten nog steeds niet dat de wet hen nu beschermt, en politie/justitie zijn vaak slecht toegerust om anonieme online daders op te sporen. De wetten verschillen ook – sommige plaatsen bestraffen zelfs privécreatie, andere alleen als het wordt verspreid. Toch is de beweging richting erkenning van door AI gegenereerd seksueel misbruik als echt misbruik onmiskenbaar. Zoals een Amerikaanse hoogleraar recht opmerkte, geeft deze golf van wetgeving de macht terug aan slachtoffers en geeft het het signaal dat “je rechten hebt over je eigen afbeelding en lichaam, zelfs in het tijdperk van AI” euronews.com.

Het ethische moeras: Toestemming, deepfakes en maatschappelijke impact

Buiten de juridische sfeer roept NSFW AI diepgaande ethische en maatschappelijke vragen op. De kern is het vraagstuk van toestemming – kan expliciete inhoud ooit ethisch zijn als deze wordt gegenereerd zonder de toestemming (of zelfs het bewustzijn) van de afgebeelde personen? De meesten zullen het erover eens zijn dat niet-consensuele deepfakes een duidelijk ethisch kwaad zijn, in wezen een vorm van seksuele schending. Maar de dilemma’s gaan verder: Hoe zit het met door AI gegenereerde pornografie waarbij beelden van echte mensen met toestemming zijn verkregen (bijvoorbeeld getraind op commerciële pornofilms) – is dat “slachtofferloos” of wordt het uiterlijk van die performers geëxploiteerd zonder verdere toestemming of compensatie? En hoe zit het met volledig fictieve AI-porno – waarbij geen echt persoon wordt afgebeeld – is dat vrij van schade, of kan het gevaarlijke fantasieën normaliseren (zoals kindermisbruik of verkrachtingsscenario’s)? En hoe spelen vooroordelen in AI-modellen een rol in erotische inhoud?

Toestemming en privacy: De meest directe zorg is dat mensen geen enkele controle of toestemming hebben over hoe AI hun gelijkenis kan gebruiken. Iedereen die ooit een foto online heeft geplaatst (of zelfs degenen die dat niet hebben gedaan, als een kennis een foto van hen heeft), loopt theoretisch het risico het gezicht te worden van een pornografische deepfake. Vrouwen, vooral degenen die in de publieke belangstelling staan, leven nu met een huiveringwekkende realiteit: je kunt wakker worden en ontdekken dat het internet “denkt” dat er naaktfoto’s of sekstapes van jou bestaan, dankzij AI theguardian.com. Dit schendt fundamentele persoonlijke waardigheid en privacy. Zoals de Deense wet het stelt, zou je recht moeten hebben op je eigen gezicht en lichaam – maar huidige technologie en normen garanderen dat niet. Ethici stellen dat het louter bestaan van deze fakes, zelfs als ze niet wijdverspreid zijn, al schadelijk is – het is een weergave van een seksuele handeling waarbij jij betrokken bent, gemaakt zonder jouw toestemming. Het kan qua psychologisch effect aanvoelen als een vorm van seksueel geweld. Het feit dat “het internet eeuwig is” vergroot de schade: eenmaal verspreid kunnen deze beelden steeds opnieuw opduiken, waardoor slachtoffers het trauma telkens herbeleven. Al deze factoren maken niet-consensuele AI-porno tot een ernstige ethische schending. De samenleving begint het op één lijn te stellen met andere zedendelicten qua stigma en gevolgen, maar zoals besproken, lopen de wetten nog achter.

Deepfakes en waarheid: Een ander aspect is hoe deepfakes de realiteit vervagen. Nu AI-porno-afbeeldingen er steeds echter uitzien, beseffen kijkers mogelijk niet dat ze nep zijn, wat de reputatie verder kan schaden. Een nep-seksvideo kan iemand zijn baan kosten, relaties vernietigen of worden gebruikt voor chantage (“sextortion”). Zelfs als later wordt bewezen dat het nep is, kunnen de vernedering en reputatieschade niet volledig ongedaan worden gemaakt. Dit verhoogt de ethische inzet voor de makers van zulke fakes – ze spelen met echte levens en bestaanszekerheid. Het onderstreept ook een maatschappelijke uitdaging: hoe behouden we vertrouwen in media als zien niet langer geloven is? Sommige experts noemen deepfakes een “aanval op de waarheid” die in de context van porno wordt ingezet om vrouwen te vernederen en te straffen theguardian.com.

Minderjarigen en door AI gegenereerd CSAM: Misschien wel de meest unaniem aanvaarde ethische grens is door AI gegenereerd kinderpornografisch materiaal (CSAM) – oftewel afbeeldingen van minderjarigen in seksuele situaties. Zelfs als er geen echt kind is geschaad bij de creatie ervan, behandelen vrijwel alle toezichthouders en platforms door AI gegenereerde kinderporno als even illegaal en schadelijk als echt CSAM. De ethische reden is duidelijk: zulke inhoud seksualiseert kinderen en kan echte misdrijven aanwakkeren. Het wordt ook vaak gegenereerd met behulp van foto’s van echte kinderen (bijvoorbeeld door een onschuldige foto van een kind te nemen en deze via AI te “ontkleden” of te bewerken – een afschuwelijke schending van de waardigheid en privacy van dat kind) centeraipolicy.org. Helaas is er bewijs dat dit gebeurt. Een onderzoeker van Stanford, David Thiel, ontdekte honderden bekende afbeeldingen van kindermisbruik in een populair AI-trainingsdataset voor Stable Diffusion centeraipolicy.org. Dit betekent dat het model deels is getraind op echte criminele misbruikbeelden, wat zeer problematisch is. Zelfs als deze nu worden verwijderd, benadrukt het feit dat ze überhaupt zijn gebruikt hoe AI-ontwikkelaars mogelijk onbewust modellen hebben getraind op misbruikmateriaal. Erger nog, zonder zorgvuldige waarborgen zou een AI mogelijk nieuwe beelden kunnen genereren die lijken op die illegale trainingsinputs. Sommige gebruikers op fora hebben geprobeerd AI te gebruiken om foto’s van minderjarigen “uit te kleden” of illegale beelden te maken – een trend die de politie probeert te onderscheppen. Ethisch gezien is er bijna consensus: AI mag nooit worden gebruikt om CSAM te creëren. Maar de uitvoering daarvan is lastig – het vereist dat modellen expliciet worden getraind om elke prompt of poging tot het produceren van dergelijke inhoud te weigeren, of dat wetten elke poging daartoe tot een ernstig misdrijf maken (zoals in Tennessee). Techbedrijven bouwen nu vaak filters in zodat zelfs het woord “kind” of toespelingen op minderjarigheid in een prompt worden geblokkeerd. Maar tegenwerkende gebruikers proberen omwegen te vinden. De inzet is extreem hoog, want als AI op deze manier wordt misbruikt, kan het overlevenden van misbruik opnieuw slachtofferen en nieuw materiaal leveren aan pedofielen onder het valse voorwendsel dat “er geen echt kind is geschaad.” Veel ethici weerleggen het argument van een “slachtofferloos misdrijf” hier door te stellen dat het consumeren van elke afbeelding van kindermisbruik, echt of door AI, waarschijnlijk echt misbruik aanwakkert door het te normaliseren centeraipolicy.org reddit.com. Dit is dus een harde ethische grens waarover de meesten het eens zijn: het genereren of gebruiken van AI voor kinderpornografische inhoud is categorisch verkeerd en moet met alle mogelijke middelen (technisch en juridisch) worden voorkomen.

Trainingsgegevens en gedwongen inhoud: Er is een minder voor de hand liggend, maar belangrijk ethisch probleem in hoe NSFW AI-modellen worden gebouwd. Veel AI-porngeneratoren zijn getraind op grote datasets die van het internet zijn gehaald – waaronder pornografische websites. Dat betekent dat de beelden van echte mensen (pornoacteurs, webcammodellen, zelfs gelekte persoonlijke naaktfoto’s van mensen) als trainingsdata zijn gebruikt zonder toestemming van die individuen. AI-bedrijven deden dit stilletjes, en pas later begonnen onderzoekers de omvang te onthullen. Zo werd bijvoorbeeld ontdekt dat een AI-naaktgenerator genaamd “These Nudes Do Not Exist” getraind was op materiaal van “Czech Casting”, een pornobedrijf dat wordt onderzocht wegens het dwingen van vrouwen tot seks centeraipolicy.org. De AI werd dus letterlijk getraind op video’s van vrouwen die mogelijk slachtoffer waren van mensenhandel of verkrachting – en leerde feitelijk om beelden van hun lichamen of anderen in soortgelijke posities te regenereren. Die vrouwen hebben zeker geen toestemming gegeven voor het verdere gebruik van hun beelden om eindeloos nieuwe porno te maken. Zoals een slachtoffer uit die situatie zei over haar afbeelding in een AI-trainingsset: “het voelt oneerlijk, het voelt alsof mijn vrijheid wordt afgenomen” centeraipolicy.org. Zelfs in minder extreme gevallen kunnen modellen miljoenen alledaagse foto’s van vrouwen van sociale media of modelfotoshoots hebben opgenomen – ook die mensen hebben er niet mee ingestemd om bronmateriaal voor porngeneratie te worden. Elk AI-pornomodel draagt de geesten van echte mensen in zijn trainingsdata. Veel van die mensen zouden er misschien geen probleem mee hebben – bijvoorbeeld volwassen performers die vrijwillig porno hebben opgenomen, zouden het niet erg vinden of zelfs technologie aanmoedigen die voortbouwt op hun werk. Maar anderen (zoals privépersonen in gelekte beelden, of pornoacteurs die de industrie hebben verlaten en verder willen met hun leven) zouden geschokt zijn als ze wisten dat een AI hun gelijkenis voor altijd in nieuwe seksuele inhoud zou kunnen verwerken. Dit roept ethische vragen op over intellectueel eigendom en portretrechten. Moeten individuen worden gecompenseerd als hun beelden hebben bijgedragen aan het creëren van een winstgevend AI-pornotool? Sommigen zeggen van wel – deze modellen “profiteren direct van de mannen en vrouwen die in de trainingsdata voorkwamen” zonder zelfs maar een bedankje centeraipolicy.org. Anderen stellen dat als de data openbaar beschikbaar was, het volgens de huidige IE-wetgeving vrij gebruikt mag worden voor AI-training. De ethische consensus neigt ernaar om in elk geval geen duidelijk niet-consensueel of misbruikend materiaal te gebruiken in de training (bijvoorbeeld bekende wraakporno of mensenhandelvideo’s moeten taboe zijn). Bedrijven beginnen datasets op dergelijke inhoud te controleren, maar historisch gezien deden ze dat niet, wat zorgwekkend is. Zoals het Center for AI Policy het verwoordde, is het bijna “zeker” dat AI-pornomodellen zijn getraind op enige niet-consensuele intieme beelden (NCII) centeraipolicy.org. Vooruitkijkend zijn er oproepen voor strengere datasetcuratie en misschien zelfs een “opt-out”-register zodat mensen hun beelden uit AI-trainingssets kunnen laten verwijderen centeraipolicy.org. Dit is technisch en logistiek complex, maar het gesprek over data-ethiek in generatieve AI wordt alleen maar luider.

Fictieve maar Extreme Inhoud: Nog een lastig gebied – als er geen echt persoon wordt afgebeeld, zijn er dan grenzen aan wat AI-porno mag creëren? Sommigen maken zich zorgen dat AI ultra-extreme of rand seksuele inhoud mogelijk maakt die in de echte wereld onmogelijk te verkrijgen zou zijn, en dat dit schadelijk kan zijn. Bijvoorbeeld simulaties van verkrachting, bestialiteit, “snuff” (moord) porno, of zoals genoemd, kinderscenario’s. Verdedigers zouden kunnen zeggen: “Beter dat het AI is dan dat iemand het in het echt doet,” maar critici vrezen dat het mensen kan desensibiliseren of aanzetten tot het uitvoeren. Op zijn minst roept het morele vragen op over of het toestaan dat AI aan zulke fantasieën voldoet, een maatschappelijke grens overschrijdt. Platforms zoals Oh zeggen dat ze alle “illegale praktijken” blokkeren – hun bots zullen niet ingaan op pedofilie-inhoud of andere criminele seksuele thema’s sifted.eu. Dit is een ethische waarborg die verantwoordelijke bedrijven proberen te hanteren. Maar open-source modellen hebben geen aangeboren moraal; gebruikers kunnen ze vrijwel alles laten genereren als het model niet expliciet is beperkt. Dit betekent dat de verantwoordelijkheid bij het individuele geweten (en de lokale wet) ligt. De ethische houding van de meeste AI-gemeenschappen is om harde filters tegen illegale of gewelddadige seksuele inhoud te plaatsen. Toch, zoals een OnlyFans-maker somber voorspelde, is het waarschijnlijk slechts een kwestie van tijd voordat iemand AI gebruikt om dingen te genereren als “AI-kindermisbruik gelabeld als age-play, of AI-verkrachtingsscenario’s,” en dat “hier meer over gepraat moet worden” reddit.com. De ethische vraag blijft onopgelost: is het bestaan van een hyperrealistische denkbeeldige afbeelding van een misdrijf op zichzelf al schadelijk? Velen neigen naar ja, vooral als het minderjarigen betreft (waar het duidelijk crimineel is). Voor andere extreme fantasieën is er nog geen maatschappelijk consensus, maar het is een actief debat in digitale ethiek.

Geslacht en Representatie: NSFW AI erft ook de vooroordelen en stereotypen van de brondata. Veel mainstream porno is bekritiseerd vanwege seksistische of onrealistische weergaven van vrouwen, en AI kan die tropen versterken. Als modellen voornamelijk worden getraind op bijvoorbeeld porno die vrouwen objectiveert of slechts een beperkt scala aan lichaamstypes toont, zullen de uitkomsten dat weerspiegelen. Dit kan onrealistische schoonheidsnormen of seksuele scripts versterken. Bovendien zijn de meeste erotische AI-companions en afbeeldingsbots standaard vrouwelijk, gericht op veronderstelde heteroseksuele mannelijke gebruikers. Zo is het aanbod van AI-bots op het Oh-platform “meerderheid vrouwelijk” als schaars geklede avatars sifted.eu. Critici maken zich zorgen dat dit het beeld van vrouwen als digitale speeltjes versterkt en invloed kan hebben op hoe (voornamelijk mannelijke) gebruikers echte relaties zien. Sommige oprichters van AI-companions erkennen zelf dat de toekomst van intimiteit “vreemd” of “dystopisch” kan worden als mensen echte partners inruilen voor AI-fantasie sifted.eu. Er is betoogd dat deze AI-vriendinnen mogelijk schadelijke stereotypen versterken over vrouwen die altijd beschikbaar, meegaand en op elke wens afgestemd zijn sifted.eu. Psychologen en feministen uiten hun zorgen dat dergelijke technologieën problemen als eenzaamheid, misogynie of vertekende verwachtingen van seks kunnen verergeren. Aan de andere kant zeggen voorstanders dat deze tools een veilige uitlaatklep kunnen bieden voor mensen die moeite hebben met menselijke relaties, of kunnen helpen seksualiteit zonder stigma te verkennen. Ethisch gezien is het een tweesnijdend zwaard: Kan een AI-vriendin iemand een betere communicator maken of troost bieden? Mogelijk. Kan het ook iemand in staat stellen zich terug te trekken uit echte menselijke connecties en vrouwen te behandelen als louter aanpasbare objecten? Mogelijk. De samenleving zal deze vragen meer onder ogen moeten zien naarmate dergelijke diensten groeien.

Samengevat draaien de ethische kwesties rond NSFW AI om toestemming, schade en de maatschappelijke boodschappen die we uitzenden over seksualiteit en persoonszijn. De gouden regel van ethische porno – dat iedereen die wordt afgebeeld een instemmende volwassen deelnemer is – wordt volledig op zijn kop gezet door AI-porno, waar vaak niemand die wordt afgebeeld daadwerkelijk “deelnam” en dus nooit had kunnen instemmen. We worden gedwongen ons begrip van toestemming uit te breiden naar iemands gelijkenis en zelfs iemands data. Zoals een commentaar stelde, dwingt deze technologie ons om “de fundamenten van intimiteit, toestemming en creatieve vrijheid” in het digitale tijdperk te heroverwegen chicagoreader.com. Het ethische landschap kent veel grijze gebieden, maar de groeiende consensus is dat bepaalde rode lijnen (kindercontent, niet-consensueel gebruik van echte identiteiten) moeten worden gehandhaafd, en dat respect voor de autonomie van individuen leidend moet zijn voor wat als acceptabel wordt beschouwd. Ondertussen moeten we oppassen om niet alle seksuele contentcreatie met AI te problematiseren – voor instemmende volwassenen die het voor zichzelf gebruiken, kan het juist een positief hulpmiddel zijn. De uitdaging is om de innovatieve, consensuele toepassingen te laten bloeien en de uitbuitende te bestrijden.

Voorstanders versus Critici: Het Debat over NSFW AI

Reacties op NSFW AI zijn gepolariseerd. Sommigen vieren het als een spannende evolutie in volwassen entertainment en persoonlijke vrijheid; anderen veroordelen het als een maatschappelijke bedreiging. Laten we de belangrijkste argumenten van beide kanten op een rijtje zetten:

Argumenten van voorstanders (Pro-NSFW AI):

  • Creatieve vrijheid en seksuele verkenning: Voorstanders stellen dat AI een positieve uitlaatklep kan zijn voor het verkennen van seksualiteit, fantasieën en fetisjen op een privé en oordeelvrije manier. Gebruikers die zich misschien schamen of niet in staat zijn bepaalde fantasieën in het echte leven uit te voeren, kunnen dit veilig doen met door AI gegenereerde content of chatbots. Dit zou mogelijk het taboe en de schaamte rond seksualiteit kunnen verminderen. Sommigen noemen het zelfs empowerend: “consensuele volwassenen kunnen hun visuele fantasieën samen creëren in een veilige, privé omgeving” met AI, zegt de CEO van een AI-volwassenenplatform globenewswire.com. In deze visie is generatieve AI gewoon een hulpmiddel – vergelijkbaar met erotische kunst of seksspeeltjes – dat gezonde seksuele expressie kan versterken.
  • Personalisatie en innovatie in volwassen entertainment: Voorstanders benadrukken hoe NSFW AI zorgt voor ongeëvenaarde personalisatie vergeleken met traditionele porno globenewswire.com. In plaats van passief te consumeren wat studio’s produceren, kunnen individuen content genereren die precies is afgestemd op hun voorkeuren (lichaamstypes, scenario’s, enz.). Dit door gebruikers aangestuurde model wordt gezien als een innovatie die het one-size-fits-all paradigma van volwassen content “verstoort” globenewswire.com. Het kan inspelen op niche-interesses die door mainstream producenten worden genegeerd (zolang ze legaal zijn). Startups in deze sector prijzen AI vaak aan als een kwantumsprong in de manier waarop volwassen content wordt geleverd – waarbij de controle bij de gebruiker ligt globenewswire.com. Ze stellen ook dat het de privacy respecteert: gebruikers hoeven niet met een ander mens te communiceren of hun fantasieën aan iemand anders dan de AI te onthullen.
  • Veilig alternatief voor schadelijke verlangens: Een meer controversieel pro-argument is dat AI-porno zou kunnen dienen als een onschadelijk alternatief voor anderszins schadelijk gedrag. Zo is er bijvoorbeeld gesuggereerd dat pedofielen die CGI- of AI-gegenereerde kinderporno gebruiken, hun drang kunnen bevredigen zonder echte kinderen te schaden (dit argument is zeer omstreden en de meeste experts wijzen het af, maar het wordt wel genoemd). Anderen stellen dat mensen met gewelddadige seksuele fantasieën AI-simulaties kunnen gebruiken in plaats van echte slachtoffers te zoeken. In wezen is dit het standpunt: “beter dat ze het op pixels uiten dan op mensen.” Het blijft echter speculatief en ethisch beladen – er is geen duidelijk bewijs dat AI daadwerkelijk misdaad vermindert; het zou het zelfs kunnen aanmoedigen (zoals critici tegenwerpen). Toch zeggen sommige voorstanders van vrije meningsuiting dat zelfs afschuwelijke fantasieën in AI-vorm gedachte-experimenten zijn die niet strafbaar zouden moeten zijn zolang er geen echt persoon direct wordt geschaad. Dit standpunt is niet mainstream, maar het bestaat in debatten over extreem materiaal reddit.com.
  • Ondersteuning van nichegemeenschappen en identiteiten: AI kan content genereren voor gemeenschappen die historisch gezien weinig vertegenwoordiging hadden in mainstream porno – bijvoorbeeld bepaalde LGBTQ-fantasieën, BDSM-scenario’s met specifieke toestemmingsparameters, of erotische kunst met fantastische elementen. Sommige leden van furry- of hentai-subculturen gebruiken bijvoorbeeld AI-kunst om content te maken die onmogelijk zou zijn met echte acteurs. Dit wordt gezien als het verbreden van de reikwijdte van erotische kunst. Daarnaast kan AI mensen met een beperking of andere beperkingen in staat stellen virtuele intimiteit te ervaren op manieren die anders niet mogelijk zouden zijn. Degenen die moeite hebben met sociale interactie, kunnen gezelschap vinden in een AI-partner die hen niet beoordeelt. Voorstanders zoals de oprichter van de “AI OnlyFans”-startup beweren dat deze AI-metgezellen een “netto positief” voor de samenleving kunnen zijn, vooral voor mensen die andere vormen van gezelschap missen sifted.eu. In zijn visie, als iemand eenzaam is of uitbuitende vormen van porno consumeert, is een AI-partner een gecontroleerd, mogelijk gezonder alternatief sifted.eu.
  • Toestemming van de Gemaakte vs. Echte Modellen: Een ander pro-NSFW AI argument is dat het gebruik van AI-gegenereerde acteurs (die niet echt bestaan) in porno veel problemen van de volwassenindustrie zou kunnen elimineren. Er is geen risico op uitbuiting van een echte performer als de pornoactrice door AI is gegenereerd. Niemand loopt daadwerkelijk risico op SOA’s of misbruik op een AI-set. In theorie zou het uiteindelijk een deel van de echte pornoproductie kunnen vervangen, waardoor de schade aan menselijke performers in risicovolle situaties verminderd wordt. (Natuurlijk is het tegenargument dat die performers er vaak zelf voor kiezen en mogelijk inkomen verliezen als ze vervangen worden, dus het is ingewikkeld.) Maar futuristen stellen zich een wereld voor waarin perfect realistische AI-porno aan de vraag kan voldoen zonder dat een echt persoon potentieel vernederend werk hoeft te doen – in wezen een meer ethische pornoketen. Sommige volwassen makers creëren zelfs vrijwillig “digitale tweelingen” van zichzelf (door hun beeld/stem in licentie te geven) zodat een AI een deel van het werk voor hen kan doen – met toestemming en winstdeling sifted.eu. Dit model, als het wordt uitgebreid, zou menselijke makers in staat kunnen stellen geld te verdienen terwijl ze een deel van de contentcreatie aan AI overlaten onder hun eigen controle, mogelijk een win-winsituatie.
  • Vrijheid van Meningsuiting en Artistieke Waarde: Vanuit een burgerrechtenperspectief verdedigen sommigen zelfs NSFW AI als een vorm van expressie. Erotische kunst en porno worden al lang beschouwd als beschermde uitingsvormen (behalve obsceniteit) in veel landen. AI breidt simpelweg het expressiemedium uit. Als een kunstenaar een naakt kan tekenen of een consensuele pornoscène kan filmen, waarom zou hij dan geen AI kunnen aansturen om een naakt kunstwerk te maken? Zij stellen dat het volledig verbieden van AI-seksuele content een te grote stap zou zijn die seks-positieve kunst of legitieme creatieve inspanningen zou kunnen censureren. Zolang alle betrokkenen toestemming geven (wat lastig is als AI betrokken is, maar stel dat het proces consensueel is), beweren ze dat volwassenen de vrijheid moeten hebben om seksuele content naar keuze te maken en te consumeren, al dan niet met hulp van AI. Groepen zoals de Electronic Frontier Foundation hebben gewaarschuwd voor brede verboden op deepfake-technologie, en merken op dat de technologie nuttige toepassingen heeft en dat het beter is om kwaadwillenden gericht aan te pakken dan de technologie zelf te verbieden klobuchar.senate.gov. Deze libertaire stroming in het debat zegt: bestraf daadwerkelijk kwaad (zoals niet-consensueel gebruik), maar criminaliseer het hulpmiddel of consensuele fantasie niet.

Argumenten van Critici (Anti-NSFW AI):

  • Schending van Toestemming en Beeldmisbruik: Critici benadrukken dat NSFW AI al heeft geleid tot massaal misbruik van de toestemming en gelijkenis van individuen. De niet-consensuele deepfake-epidemie spreekt voor zich – levens verwoest, privacy aan diggelen. Zij stellen dat dit geen randverschijnsel is, maar tot nu toe het belangrijkste gebruik van deepfake-technologie: 96% van de deepfakes was pornografisch en vrijwel allemaal zonder toestemming theguardian.com. Deze technologie, zeggen ze, leent zich van nature voor dergelijk misbruik en is daarmee een gevaarlijk wapen. Zelfs als mensen niet direct worden getarget, is het gebrek aan enige mogelijkheid om toestemming te geven voor opname in trainingsdata of iemands fantasie zorgwekkend. Iemands seksuele autonomie kan volledig ondermijnd worden doordat anderen expliciete beelden van hen uit het niets genereren. Dit, zeggen critici, is fundamenteel onethisch en zou veroordeeld moeten worden, net als voyeurisme of andere zedendelicten. Het bestaan van “honderden AI-uitkleedapps” die gemakkelijk toegankelijk zijn klobuchar.senate.gov betekent dat de foto van elke vrouw in enkele seconden gepornificeerd kan worden, een situatie die velen onhoudbaar en beangstigend noemen.
  • Emotionele en Psychologische Schade: Het slachtoffer zijn van een AI-pornofake kan acute mentale stress veroorzaken – vernedering, angst, PTSS, zelfs suïcidale gedachten. Een tragisch voorbeeld: een 17-jarige jongen in de VS pleegde in 2022 zelfmoord nadat een sextortion-oplichter valse naaktfoto’s gebruikte om hem te chanteren klobuchar.senate.gov. De psychologische tol voor vrouwen die deepfakes van zichzelf ontdekken is enorm; het wordt omschreven als een virtuele vorm van seksueel geweld. Daarom zien critici NSFW AI als een instrument dat intimidatie en misbruik faciliteert op een potentieel enorme schaal – een “noodsituatie” voor kwetsbare mensen (vooral vrouwen, minderjarigen, LHBTQ-individuen die doelwit kunnen zijn van haatgedreven seksuele fakes, enz.) theguardian.com. Zij stellen dat geen enkel vermeend voordeel van de technologie opweegt tegen deze daadwerkelijke schade die nu plaatsvindt.
  • Normalisatie van uitbuitende inhoud: Tegenstanders maken zich zorgen dat de overvloed aan AI-porno, vooral extreme of niet-consensuele scenario’s, zulke beelden zou kunnen normaliseren en sociale sancties rond zaken als privacy en toestemming zou kunnen ondermijnen. Als nepnaaktfoto’s van beroemdheden of klasgenoten “gewoon internetvoer” worden, kunnen mensen ongevoelig raken voor het schenden van andermans privacy. Het zou ook vrouwonvriendelijke denkbeelden kunnen voeden (vrouwen zien als altijd beschikbare seksobjecten van wie de beelden naar believen gebruikt kunnen worden). Ethisch gezien is het vergelijkbaar met wraakporno of upskirting – het laten verspreiden ervan geeft de boodschap dat vrouwenlichamen niet van henzelf zijn. Daarnaast vrezen critici dat AI afwijkende voorkeuren kan aanwakkeren – bijvoorbeeld: iemand die AI-gesimuleerde verkrachtingsporno consumeert, zou eerder geweld kunnen plegen, of een pedofiel met door AI gegenereerde kinderporno zou alsnog echte kinderen kunnen gaan misbruiken. Hoewel het bewijs wordt betwist, dringen veel psychologen aan op voorzichtigheid, gezien de manier waarop media gedrag kunnen versterken.
  • Impact op relaties en samenleving: Sommige sociologen en feministen uiten zorgen dat AI-seksuele metgezellen en hyper-gepersonaliseerde porno echte menselijke relaties kunnen ondermijnen. Als veel mensen zich wenden tot AI-“vriendinnen” die altijd meegaand zijn, wat gebeurt er dan met hun vermogen om relaties aan te gaan met echte partners die eigen behoeften en grenzen hebben? Er is vrees voor toenemende sociale isolatie en vertekende verwachtingen van seks en romantiek. De oprichter van een AI-metgezel-app noemde het zelf mogelijk “zeer dystopisch” en dat het een “vreemde toekomst voor intimiteit” zou kunnen creëren waarin mensen zich van elkaar losmaken sifted.eu. De stereotypen die worden versterkt – vaak zijn de AI-vriendinnen onderdanige vrouwelijke persona’s – zouden seksistische houdingen bij gebruikers kunnen bestendigen. Zo stellen critici dat NSFW AI problemen als eenzaamheid, vrouwenhaat en de commodificatie van intimiteit kan verergeren.
  • Bedreiging voor kunstenaars, artiesten en arbeiders: Degenen in creatieve sectoren en de adult-industrie zien NSFW AI als een bedreiging voor hun levensonderhoud en rechten. Beeldend kunstenaars (bijv. illustratoren van erotica of modellen) merken dat AI hun werk zonder toestemming afstruint, en vervolgens nieuwe beelden genereert in hun stijl of van hun persoon. Dit voelt als diefstal van intellectueel eigendom en ondermijnt de markt voor opdrachtkunst. Fotografen maken zich zorgen dat AI-beeldgeneratoren het inhuren van modellen voor fotoshoots zullen vervangen. Pornoacteurs en sekswerkers zijn bezorgd dat AI “klonen” of volledig fictieve AI-modellen consumenten zullen wegtrekken – of de markt zullen overspoelen met content die hun werk in waarde doet dalen. Verschillende OnlyFans-makers hebben melding gemaakt van inkomensdalingen en klachten van fans, mogelijk door concurrentie van AI-gegenereerde content die goedkoper is en altijd beschikbaar reddit.com. Zij stellen dat het oneerlijke concurrentie is omdat AI in feite hun beelden en aantrekkingskracht heeft toegeëigend zonder de inspanning of menselijke touch, en dat dit de prijzen tot onhoudbare niveaus voor echte werkers zal drukken. Sekswerkers vrezen ook dat ze onder druk kunnen worden gezet om AI te gebruiken om meer content te maken of 24/7 beschikbaar te zijn, waardoor hun arbeid verder wordt gecommodificeerd reddit.com. Vakbonden en belangenorganisaties maken zich zorgen over een wereld waarin bedrijven misschien liever een AI-pornostar (zonder rechten, eisen of loon) hebben dan een menselijke – een scenario dat banen kan wegvagen en de gelijkenis van artiesten kan uitbuiten die oorspronkelijk deze modellen trainden. Kortom, critici zien NSFW AI als ondermijning van menselijke creativiteit en arbeid door gebruik te maken van menselijke data om een eindeloze voorraad gratis (of goedkope) content te produceren.
  • Glijdende schaal van moraal en wet: Vanuit beleidsmatig perspectief stellen critici dat het uitblijven van strikte grenzen aan NSFW AI nu kan leiden tot een oncontroleerbare toekomst. Als we AI-porno accepteren als “gewoon fantasie”, wat gebeurt er dan als het kruist met echte kwesties zoals toestemming? Bijvoorbeeld, als iemand AI-porno maakt van zijn/haar ex en beweert dat het slechts fantasie is, is dat dan een excuus? De meesten zouden nee zeggen – de ex wordt duidelijk geschaad. Dus neigen critici naar een voorzorgsprincipe: trek vroeg grenzen. Sommigen hebben zelfs gepleit om deepfake-creatietools te behandelen zoals we lockpicktools of hackingtools behandelen – niet per se illegaal, maar streng gecontroleerd, en tools die duidelijk voor misbruik zijn ontworpen (zoals de “nudify”-apps die puur bestaan om beelden zonder toestemming uit te kleden) volledig te verbieden. Ethici die voorstander zijn van strenge regulering stellen dat het potentieel voor misbruik ruimschoots opweegt tegen de zeldzame positieve toepassingen. Ze halen vaak de stemmen van slachtoffers aan: zoals een tech-ethicus zei, “Een tienermeisje dat zichzelf ziet in AI-gegenereerde porno – die ene ervaring, dat ene verwoeste leven, rechtvaardigt strenge controle op deze technologie.” Vrijheid van meningsuiting is belangrijk, zeggen ze, maar het mag niet ten koste gaan van andermans autonomie en veiligheid.
Het is belangrijk op te merken dat niet iedereen zich aan één van de uitersten bevindt – velen erkennen zowel de belofte als het gevaar van NSFW AI. Zo kan een gebruiker het waarderen om op maat gemaakte erotica van fictieve personages te genereren (een onschuldige toepassing), terwijl hij het volledig afkeurt om het te gebruiken om een echt persoon na te maken. Het debat draait dus vaak om waar de grens getrokken moet worden. De opkomende consensus in het publieke debat lijkt te zijn: AI-volwassenencontent is alleen acceptabel met toestemming en transparantie, en strikt verboden wanneer het echte mensen zonder toestemming betreft of minderjarigen in welke vorm dan ook. Zelfs veel technologen die volwassen AI-content steunen, zijn het erover eens dat niet-consensuele deepfakes onverdedigbaar zijn en strafbaar gesteld moeten worden cbsnews.com. Aan de andere kant geven zelfs sommige critici toe dat instemmende volwassenen deze tools voor zichzelf moeten kunnen gebruiken (bijvoorbeeld een koppel dat AI-kunst maakt van hun gedeelde fantasie, of een sekswerker die AI gebruikt om haar bedrijf uit te breiden, zou de keuze van het individu moeten zijn).

De scheidslijn tussen voorstanders en critici valt soms samen met technologische optimisten versus sociale sceptici. Tech-enthousiastelingen zien NSFW AI als een spannend nieuw terrein (met enkele kwesties om te beheren), terwijl sociale voorvechters het zien als een nieuwe vorm van digitaal misbruik die moet worden ingeperkt. Beide zijn valide perspectieven – en de uitdaging voor de toekomst zal zijn om de voordelen (creatieve vrijheid, privéplezier, innovatie in de sector) te maximaliseren en de nadelen (niet-consensuele uitbuiting, desinformatie, verdringing van werknemers) te minimaliseren. Elke oplossing vereist input van technologen, wetgevers, ethici, de volwassenensector en slachtoffers van beeldmisbruik. In 2025 is dat gesprek echt begonnen.

(Samengevat volgt hier een snelle vergelijking van de twee kanten:)

  • Voorstanders zeggen dat NSFW AI volwassen creativiteit stimuleert, veilige fantasievervulling biedt, en zelfs kan helpen dat instemmende makers geld verdienen of eenzame individuen gezelschap vinden – in wezen een technologische evolutie van porno die, mits ethisch gebruikt, niemand schaadt en de persoonlijke vrijheid vergroot globenewswire.com sifted.eu.
  • Critici zeggen dat het een golf van op afbeeldingen gebaseerde seksuele misbruik aanwakkert, instemming en privacy ondermijnt, mogelijk het beeld van gebruikers over seks en relaties vervormt, en de beelden en arbeid van echte mensen uitbuit voor winst zonder hun toestemming theguardian.com reddit.com. Volgens hen wegen de maatschappelijke kosten van NSFW AI (vooral voor vrouwen en kwetsbare groepen) veel zwaarder dan de privévoordelen die sommige gebruikers krijgen, wat sterke beperkingen en toezicht rechtvaardigt.

Terugvechten: AI-inhoudsmoderatie en waarborgen voor NSFW-materiaal

Gezien de risico’s van NSFW AI is er een parallelle race om technologische en beleidsmatige waarborgen te ontwikkelen om het te beheersen. Deze strijd vindt plaats op meerdere fronten: het bouwen van betere detectietools voor AI-gegenereerde inhoud, het implementeren van inhoudsfilters, en het bevorderen van normen of watermerken om echt van nep te onderscheiden. Zo proberen AI en platforms de duistere kant van NSFW AI in te dammen:

  • Geautomatiseerde NSFW-filters: Veel AI-beeldgeneratoren bevatten pornografieclassificaties die proberen expliciete output te blokkeren of te filteren. Zo wordt de officiële Stable Diffusion-release geleverd met een “Safety Checker” die naakt- of seksuele beelden markeert en vervaagt arxiv.org. OpenAI’s DALL·E weigert simpelweg elke prompt die zelfs maar naar seksuele inhoud hint. Midjourney heeft een uitgebreide lijst met verboden woorden en gebruikt AI om de context van prompts te interpreteren – het zal geen beelden produceren als het vermoedt dat het verzoek pornografisch of uitbuitend is arxiv.org. Deze filters zijn niet perfect (gebruikers vinden voortdurend manieren om ze te omzeilen, bijvoorbeeld door eufemismen of spelfouten te gebruiken voor verboden termen arxiv.org). Toch voorkomen ze dat gewone gebruikers per ongeluk of uit nieuwsgierigheid NSFW-beelden genereren. Ze vormen een eerste verdedigingslinie, vooral op mainstream platforms die geen expliciete inhoud willen hosten. Sommige open-sourceversies verwijderen deze filters, maar dan verschuift de verantwoordelijkheid naar de gebruiker (en elk platform waarop de inhoud wordt geplaatst).
  • Deepfake-detectietools: Aan de onderzoekskant wordt er veel moeite gestoken in deepfake-detectie-algoritmen. Bedrijven zoals Microsoft en startups zoals Sensity hebben AI ontwikkeld die video’s/afbeeldingen analyseert op tekenen van manipulatie (zoals inconsistente belichting, gezichtsartefacten of digitale watermerken). In een evaluatie had het Hive Moderation-model (een AI-moderatiesuite die door sommige sociale media wordt gebruikt) de hoogste nauwkeurigheid in het detecteren van AI-gegenereerde personages versus echte emerginginvestigators.org. Deze detectors worden door platforms gebruikt om uploads te scannen (bijvoorbeeld: Facebook kan een afbeelding scannen op naaktheid en ook op of het een bekende nepafbeelding van iemand is). De ontwikkeling van detectors is een kat-en-muisspel: naarmate generatieve modellen verbeteren, moeten detectors ook verbeteren. De EU dringt erop aan dat bedrijven dergelijke systemen implementeren – de transparantieregels van de AI Act en de richtlijn Geweld tegen Vrouwen verplichten platforms feitelijk om AI-porno te kunnen identificeren en te verwijderen euronews.com euronews.com. Sommige detectiemethoden vertrouwen op metadata of bekende patronen van specifieke generators (bijvoorbeeld: bepaalde AI-tools laten onzichtbare watermerken achter in pixelpatronen). De industrie overweegt ook een proactievere aanpak: AI-inhoud watermerken op het moment van creatie. Google werkt bijvoorbeeld aan methoden om AI-gegenereerde afbeeldingen te taggen, zodat elke kopie als AI-gemaakt kan worden herkend, zelfs na bewerking. OpenAI heeft cryptografische watermerken voorgesteld voor tekst van taalmodellen. Als dit breed wordt toegepast, kan dit geautomatiseerde filters helpen AI-porno te markeren voordat het zich verspreidt. Open-sourcemodellen zullen echter waarschijnlijk niet vrijwillig outputs watermerken, en tegenstanders kunnen proberen watermerken te verwijderen.
  • Content-hashing en databases: Om wraakporno en deepfakes aan te pakken, hebben techbedrijven en NGO’s databases gemaakt van bekende misbruikafbeeldingen (met cryptografische hashes zoals PhotoDNA voor echte afbeeldingen van kindermisbruik, bijvoorbeeld). Een vergelijkbare aanpak wordt overwogen voor deepfakes: als een slachtoffer zich meldt met een nepafbeelding, kan daarvan een hash worden toegevoegd aan een verwijderdatabase zodat deze direct herkend en verwijderd kan worden als hij elders wordt geüpload. Het aankomende systeem van het VK onder de Online Safety Act kan dergelijke proactieve detectie omvatten – platforms moeten dan “voorkomen dat [verboden inhoud] überhaupt verschijnt” euronews.com. In de praktijk betekent dat het scannen op bekende illegale afbeeldingen of video’s bij upload. De uitdaging bij AI-fakes is dat daders eindeloze varianten kunnen genereren, dus het hashen van één afbeelding vangt de volgende niet. Daar is AI-gebaseerde gelijkenisdetectie voor nodig, die inhoud kan markeren die sterk lijkt op bekende fakes of overeenkomt met een persoon die zich heeft geregistreerd als iemand die geen expliciete afbeeldingen online wil.
  • Moderatie op pornosites: Interessant genoeg hebben grote adultsites zoals Pornhub hun moderatie moeten upgraden vanwege deepfakes. Pornhub heeft sinds 2018 het uploaden van AI-gegenereerde content die echte mensen zonder toestemming afbeeldt, verboden. Ze vertrouwen op gebruikersmeldingen en beoordeling door moderators om deze te onderscheppen, maar met miljoenen uploads is dat lastig. De Digital Services Act van de EU zorgt voor strengere aansprakelijkheid: in 2024 werden Pornhub (en vergelijkbare sites Xvideos, Xnxx) aangewezen als grote platforms die proactief illegale en schadelijke content moeten tegengaan of boetes riskeren subscriber.politicopro.com. Dit betekent waarschijnlijk investeren in geautomatiseerde filters. Pornosites kunnen deepfakedetectoren gaan gebruiken op elke nieuwe video. Ze hebben nu ook identiteitsverificatie voor uploaders; hoewel dat niet waterdicht is (fakers kunnen zichzelf verifiëren en een fake van iemand anders uploaden), zorgt het wel voor meer traceerbaarheid.
  • Beleid op sociale media: Sociale netwerken zoals Twitter (X) en Reddit hebben hun beleid aangepast om expliciet het delen van “intieme beelden die door AI zijn gemaakt of aangepast” zonder toestemming van de betrokkene te verbieden. Reddit verbood deepfakes al in 2018 na de eerste golf. De communityrichtlijnen van Facebook verbieden synthetische media die waarschijnlijk op schadelijke wijze misleiden (waaronder nep-pornografie van iemand). Handhaving blijft echter gebrekkig – zoals genoemd, ging deepfake-content in 2024 nog viraal op X cbsnews.com, en Meta moest worden aangespoord om AI-naaktreclames te verwijderen cbsnews.com. Dat gezegd hebbende, leggen de nieuwe wetten (Take It Down Act, EU-regels) nu juridische verplichtingen op. We kunnen snellere reactietijden verwachten – bijvoorbeeld, volgens de Amerikaanse wet hebben platforms 48 uur om gemelde NCII te verwijderen of riskeren ze sancties klobuchar.senate.gov klobuchar.senate.gov. Dit betekent waarschijnlijk dat bedrijven bij twijfel eerder zullen verwijderen. Ze kunnen ook meldingsmechanismen integreren voor “dit is een AI-fake van mij” zodat gebruikers snel misbruik kunnen signaleren.
  • Leeftijdsverificatie en toegangscontroles: Een ander aspect van moderatie is het voorkomen dat minderjarigen toegang krijgen tot AI-porno. Traditionele pornosites hebben leeftijdscontroles (die niet altijd goed worden gehandhaafd), en sommige rechtsgebieden (zoals Frankrijk, Utah, Texas) hebben wetten aangenomen die strikte leeftijdsverificatie voor volwassenensites vereisen versustexas.com. AI-tools maken dit ingewikkelder – generatieve modellen kunnen privé worden gebruikt zonder enige vorm van controle. Maar sommige AI-platforms zijn begonnen met het eisen van ID-verificatie om toegang te krijgen tot NSFW-modi, om te garanderen dat gebruikers volwassen zijn. Zo benadrukte het Infatuated.ai-platform robuuste leeftijdsverificatieprotocollen en het blokkeren van alle prompts die minderjarigen betreffen globenewswire.com. Replika (een AI-chatbot-app) had een beruchte episode waarbij erotische rollenspellen werden toegestaan en veel minderjarigen hiervan gebruikmaakten; na ophef beperkten ze erotische content tot gebruikers van 18+ door leeftijd te verifiëren via betaling of ID. Dus, althans bij de commerciële diensten, is er een poging om AI-content voor volwassenen af te schermen van kinderen. Dit is belangrijk omdat kinderen zelf deepfake-tools hebben gebruikt om leeftijdsgenoten te pesten (zoals we op scholen zagen) cbsnews.com. Jongeren onderwijzen over de ethische en juridische gevolgen is ook onderdeel van moderatie – sommige scholen zijn begonnen met het opnemen van deepfake-bewustzijn in digitale burgerschapslessen nea.org.
  • Samenwerking en best practices: De strijd tegen misbruik van AI heeft geleid tot samenwerkingen tussen technologiebedrijven, wetshandhaving en NGO’s. Initiatieven zoals de Partnership on AI’s media integrity group of de Coalition for Content Provenance and Authenticity (C2PA) streven ernaar standaarden te stellen voor het verifiëren van content. Bedrijven kunnen metadata toevoegen over hoe een afbeelding/video is gemaakt (camera versus AI-software). Ondertussen wordt wetshandhaving getraind in deepfakes zodat ze aangiftes van slachtoffers serieus nemen en weten hoe ze bewijs moeten verzamelen. Europol waarschuwde in 2023 voor deepfake-porno als opkomende dreiging en riep lidstaten op om middelen vrij te maken om dit te bestrijden theguardian.com.
  • Beperkingen op AI-modellen: Een directere verdedigingslinie is het beperken van de distributie van modellen die in staat zijn om schadelijke inhoud te creëren. Sommige AI-modelrepositories hanteren voorwaarden: zo koos Stability AI ervoor om geen duidelijk pornografische afbeeldingen op te nemen in hun Stable Diffusion 2.0 trainingsset, deels om te voorkomen dat het model te goed zou worden in het genereren van porno (gebruikers klaagden dat het nieuwe model hierdoor “preuts” was). Hugging Face (de AI-modelhub) weigert soms het hosten van modellen die duidelijk voor porno zijn gemaakt, of voegt een grote disclaimer toe waarbij gebruikers moeten instemmen dat ze het niet zullen misbruiken. Er was ook een opmerkelijk geval: eind 2022 verbood het crowdfundingplatform Kickstarter een campagne voor “Unstable Diffusion,” een poging om geld in te zamelen voor het bouwen van een op porno geoptimaliseerd AI-model. Kickstarter verwees naar een beleid tegen pornografische AI-projecten en zette het stop arnoldit.com. Dit incident liet zien dat zelfs financiering en steun voor NSFW AI obstakels kunnen tegenkomen. App stores zoals die van Apple zijn ook vijandig tegenover ongefilterde AI-apps – Apple verwijderde enkele AI-afbeeldingsgenerator-apps die NSFW-uitvoer konden produceren, waardoor ontwikkelaars werden gedwongen om filters toe te voegen. Zo kan toegang tot de meest geavanceerde AI-modellen tot op zekere hoogte worden beperkt door bedrijfsbeleid. Echter, echt open-source modellen zijn niet gemakkelijk in te dammen – eenmaal vrijgegeven verspreiden ze zich via torrents en fora. Dit is dus een beperkte maatregel.

Contentmoderatie in het tijdperk van AI-porno is ongetwijfeld een uitdaging. De hoeveelheid potentieel schendende inhoud is enorm en groeit. Maar technologie wordt ingezet tegen technologie: AI zelf wordt gebruikt om AI te bestrijden. Zo gebruikt Meta naar verluidt machine learning-classifiers om bekende gezichten in naaktbeelden te detecteren om deepfakes van beroemdheden op te sporen, en om de typische blend-artefacten van deepfakes te herkennen. Startups zoals Reality Defender bieden diensten aan bedrijven om deepfake-inhoud in realtime te scannen en te verwijderen realitydefender.com. En de juridische middelen die nieuwe wetten nu bieden, betekenen dat platforms die niet in deze maatregelen investeren, het risico lopen op forse boetes of rechtszaken.

Een veelbelovende mogelijkheid is het idee van geauthenticeerde media: als bijvoorbeeld alle legitieme pornoproducenten hun video’s cryptografisch ondertekenen als echt, dan kan alles zonder handtekening dat beweert “de sekstape van die-en-die” te zijn, als verdacht worden aangemerkt. Dit is universeel lastig te implementeren, maar het concept van herkomst wordt onderzocht (niet alleen voor porno, maar voor alle media, om desinformatie tegen te gaan).

Uiteindelijk zal moderatie nooit waterdicht zijn – er zal altijd veel door de mazen van het net glippen op het wilde web. Versleutelde of gedecentraliseerde platforms zullen de slechtste content herbergen. Maar tenminste in de mainstream en legale arena’s is er een gezamenlijke inspanning om de schade van NSFW AI te beperken. De hoop is om een omgeving te creëren waarin legitiem gebruik (consensuele volwassen content, fantasiekunst, enz.) kan bestaan, maar kwaadaardig gebruik snel wordt geïdentificeerd en verwijderd. Het is een zware opgave – door slachtoffers omschreven als een potje “mollen meppen” klobuchar.senate.gov – maar de toolkit van wetten, AI-detectoren, platformbeleid en gebruikerseducatie vormt samen een gelaagde verdediging.

Gevolgen en Toekomst: De impact op makers en de adult-industrie

Nu NSFW AI de status quo verstoort, heeft het nu al invloed op echte mensen in het ecosysteem van de volwassen entertainmentindustrie – van pornosterren en sekswerkers tot erotische kunstenaars en contentstudio’s. Sommigen zien kansen in de nieuwe technologie, terwijl anderen vrezen dat ze overbodig worden of er ongewild in meegesleurd worden.

Volwassen artiesten en sekswerkers: Misschien is het meest directe effect te zien bij degenen die hun brood verdienen met het maken van volwassen content. Aan de ene kant omarmen sommige slimme makers AI om hun werk te versterken. Zo kunnen volwassen modellen AI-fotogeneratoren gebruiken om verbeterde of gestileerde afbeeldingen van zichzelf te maken om te verkopen (waardoor dure fotoshoots overbodig worden) – zolang de beelden nog op hen lijken en voldoen aan de platformregels reddit.com. Een paar influencers haalden het nieuws door “AI-versies” van zichzelf te maken: zo lanceerde in 2023 een influencer genaamd Caryn Marjorie een AI-chatbot van haar persoonlijkheid waarmee fans tegen betaling intiem konden chatten. Op vergelijkbare wijze betekent het concept “digitale tweelingen” van startup Oh dat een pornoster haar afbeelding kan licentiëren om een AI-avatar te creëren die chat of optreedt voor fans, wat een nieuwe inkomstenstroom oplevert met minimale extra arbeid sifted.eu. Deze ontwikkelingen geven aan dat sommigen in de industrie AI zien als een hulpmiddel om zichzelf op te schalen – ze kunnen theoretisch meer fans via AI vermaken dan ze fysiek één-op-één zouden kunnen.

Aan de andere kant maken veel artiesten zich zorgen. Als fans hun fantasie-inhoud op maat kunnen laten maken door AI, zullen ze dan stoppen met betalen aan echte mensen? Er zijn meldingen van AI-gegenereerde OnlyFans-profielen die volledig fictieve (maar realistische) vrouwen gebruiken, soms voorzien van een #AI-watermerk na verdenking, die goedkopere content verkopen of gebruikers spammen op reddit.com. Dit soort concurrentie kan het inkomen van echte makers schaden. Sommige sekswerkers zeggen dat het “ontmoedigend” is om een opkomende standaard te zien waarbij succes betekent dat je 24/7 content moet produceren als een algoritme – een standaard die voor een mens onmogelijk is, maar voor AI gemakkelijk, waardoor mensen onder druk worden gezet om AI te gebruiken of achter te blijven reddit.com. Er is ook een emotionele component: zoals een ervaren maker schreef, voelt het gebruik van AI om effectief te “valsspelen” door een perfect lichaam of eindeloze output te genereren alsof het de echte inspanning en authenticiteit die menselijke makers erin stoppen, reddit.com. “Dat is een b*h move – een belediging voor mijn fans… en voor het harde werk dat ik in mijn eigen lichaam [en content] steek,” zei ze over degenen die AI gebruiken om content te faken reddit.com.

We zien nu al enige tegenreactie en aanpassing: makers die samenkomen om nep-AI-profielen aan te wijzen, en platforms die hun beleid aanpassen om te verzekeren dat echte makers niet door AI geïmiteerd worden. OnlyFans, zoals vermeld, verbiedt het gebruik van andermans gelijkenis en vereist het taggen van AI-content reddit.com. Er is zelfs sprake van dat makers juridische stappen ondernemen tegen AI-fakes – bijvoorbeeld het gerucht over een rechtszaak om botaccounts op OnlyFans aan te pakken reddit.com. Daarnaast maken artiesten zich zorgen over toestemming en portretrechten – bijvoorbeeld, een gepensioneerde pornoactrice kan ontdekken dat haar oude scènes worden gebruikt om een AI te trainen die nu nieuwe expliciete video’s van “haar” genereert zonder haar toestemming of enige betaling. Dit is vergelijkbaar met de zorgen van Hollywood-acteurs over AI die hun gelijkenis gebruikt – behalve dat pornoacteurs nog meer te verliezen hebben omdat hun imago aan iets zeer gevoeligs is gekoppeld. De industrie zal misschien iets moeten ontwikkelen zoals het standpunt van de Screen Actors Guild, waarbij acteurs kunnen onderhandelen over hoe AI hen wel of niet mag simuleren. Inderdaad, de aanpak van Denemarken om individuen portretrechten te geven zou artiesten wereldwijd in staat kunnen stellen om eigenaarschap over hun gezicht/lichaam in deze contexten te claimen euronews.com.

Studio’s en producenten: Traditionele pornostudio’s kunnen ook worden ontwricht. Als een klein team met AI-tools een acceptabele adultvideo kan maken zonder acteurs in te huren, verliezen grote studio’s hun voorsprong. De huidige AI-video’s zijn echter nog niet van professionele studiokwaliteit voor langere content – het zijn meestal korte clips of vereisen het combineren met echt beeldmateriaal. Sommige studio’s kunnen AI gaan gebruiken voor speciale effecten of post-productie (bijv. het verjongen van performers, het verbeteren van visuals, of zelfs het verwijderen van herkenbare tatoeages voor anonimiteit). Een ander mogelijk gebruik: het genereren van realistische erotische animaties die voorheen duur waren om handmatig te maken. Maar studio’s worden ook geconfronteerd met het gevaar van piraterij-achtig gedrag: gewetenloze actoren kunnen AI gebruiken om imitaties te maken van premium content of modellen. Bijvoorbeeld, als een studio een populaire ster onder contract heeft, kan iemand die ster deepfaken in nieuwe scènes en deze lekken. Dit kan ten koste gaan van de winst van de studio en het merk van de ster. Studio’s kunnen reageren door streng handelsmerken of persoonsrechten van hun gecontracteerde talent te handhaven. We zouden kunnen zien dat pornostudio’s samenwerken met technologiebedrijven om geautoriseerde AI-content van hun sterren te maken (met inkomstenverdeling) voordat piraten dat doen, als een verdedigende zet.

Erotische kunstenaars en schrijvers: Naast videoperformers zijn er ook mensen die erotische strips, illustraties of literatuur maken. AI is al in staat om kunststijlen na te bootsen – vooral de hentai-artcommunity zag eind 2022 een toestroom van AI-gegenereerde anime-erotica, wat tot verdeeldheid leidde. Sommige opdrachtgevers begonnen AI te gebruiken in plaats van menselijke artiesten te betalen, vanwege kosten en gemak. Artiesten hebben geprotesteerd op platforms als DeviantArt (dat kritiek kreeg na het introduceren van AI-functies). Er is angst dat de markt voor op maat gemaakte erotische kunst en verhalen kan instorten als je gratis een gepersonaliseerde strip of erotisch verhaal kunt laten genereren. Enthousiastelingen wijzen er echter op dat AI nog steeds moeite heeft met complexe verhaallijnen en echt verfijnde kunst – menselijke artiesten bieden een niveau van creativiteit en emotie dat AI kan missen. Een waarschijnlijke uitkomst is een hybride aanpak: artiesten gebruiken AI om stukken te schetsen of in te kleuren, en voegen daarna hun eigen accenten toe. Maar minder gevestigde artiesten kunnen het moeilijk vinden om te concurreren met one-click AI-uitvoer die veel kijkers “goed genoeg” vinden. Dit roept misschien de behoefte op aan een nieuwe “authentieke handgemaakte” waarde in erotische kunst, vergelijkbaar met hoe sommige fans extra betalen als ze weten dat een mens het echt heeft gemaakt.

De houding van de adultindustrie: Interessant genoeg zijn grote bedrijven in de adult entertainment relatief stil geweest over AI. Mogelijk omdat ze intern hun strategieën verkennen of omdat aandacht vragen meer toezicht kan uitlokken. De adultindustrie heeft historisch gezien technologie snel omarmd (ze waren er vroeg bij met internet, webcams, VR-porno, enz.). We zien nu al adultsites die “deepfake celebrity lookalike”-content verkopen (een juridisch grijs gebied op sommige plekken) en experimenteren met AI-gedreven aanbevelingen. In de camwereld hebben enkele camsites geëxperimenteerd met AI-chatbots om klanten betrokken te houden als modellen offline zijn. Maar een volledige vervanging van menselijke entertainers door AI is op grote platforms nog niet gebeurd, deels door het gebrek aan volwassen technologie en de voorkeur van gebruikers voor echte interactie.

Echter, kan economische druk aanpassing afdwingen. Stel dat AI over 2-3 jaar op aanvraag een volledige HD-porno video van eender welke twee beroemdheden kan genereren, dan zou de markt voor professionele porno met onbekende acteurs kunnen instorten – waarom betalen of abonneren als er oneindig veel gratis fantasieën beschikbaar zijn? De industrie zou zich kunnen richten op authenticiteit, live interactie en gemeenschap – dingen die AI niet kan bieden. We zouden porno kunnen zien die ironisch genoeg wordt gepromoot met labels als “100% menselijk, echt genot” als verkooppunt. Omgekeerd zou de industrie AI kunnen inzetten om kosten te besparen – bijvoorbeeld door één acteur te laten optreden en vervolgens AI te gebruiken om hun gezicht te veranderen, zodat er meerdere “verschillende” video’s uit één opname ontstaan (idealiter met toestemming). Dat scenario zou ethische kwesties oproepen (weten kijkers dat het dezelfde persoon is die is gemorpht? Wordt de performer per variant betaald of slechts één keer?).

Een positief effect zou kunnen zijn op het gebied van veiligheid: Als AI risicovolle handelingen kan simuleren, zouden studio’s dit kunnen gebruiken om te voorkomen dat performers in gevaar worden gebracht. Bijvoorbeeld, in plaats van dat performers een extreme stunt uitvoeren, kunnen ze iets eenvoudigs filmen en genereert AI het intense deel. Of, zoals eerder genoemd, kan een performer gekleed filmen en genereert AI een naakte versie, wat een manier zou kunnen zijn om iemand in porno te laten verschijnen zonder daadwerkelijk naakt op de set te zijn (al roept dat op zich weer discussie op over authenticiteit en toestemming).

Marktfragmentatie: Waarschijnlijk zal de markt voor volwassen content fragmenteren in verschillende niveaus:

  • High-end menselijke content met nadruk op echte interactie (gepersonaliseerde video’s, OnlyFans met direct contact met de maker, live camshows – dingen waarbij menselijke aanwezigheid centraal staat).
  • AI-gegenereerde content die extreem goedkoop of gratis kan zijn, en tube-sites of privékanalen kan overspoelen. Dit zou de casual kijkers of mensen met zeer specifieke fantasieën (beroemdheden, etc.) kunnen bedienen. Als deepfake porno semi-illegaal blijft, zal het waarschijnlijk meer ondergronds of op niet-commerciële fora blijven.
  • Hybride content waarbij makers AI gebruiken maar zelf betrokken blijven. Bijvoorbeeld, een model verkoopt AI-verrijkte sets van haar beelden – feitelijk haar gelijkenis, maar geperfectioneerd of in fantasierijke scènes geplaatst door AI. Zolang het transparant en met toestemming gebeurt, zullen fans de variatie wellicht waarderen.

Mentale en sociale impact op makers: Men kan de emotionele tol voor makers niet negeren wanneer ze mogelijk hun eigen gezichten zonder toestemming gebruikt zien worden, of gewoon de druk voelen om te concurreren met machines. De Reddit-reacties van OnlyFans-makers legden enige angst en zelfs wanhoop bloot reddit.com reddit.com. Dit weerspiegelt wat er in andere creatieve sectoren (kunstenaars, acteurs) gebeurt rond AI – maar in de adult-industrie kunnen stigma en gebrek aan institutionele steun het moeilijker maken om zorgen te uiten of bescherming te zoeken. We zouden kunnen zien dat belangenorganisaties voor sekswerkers hun focus uitbreiden naar digitale rechten en AI, en strijden voor zaken als het recht om uit trainingsdatasets verwijderd te worden of om deepfakes van performers zonder toestemming te verbieden. Vakbonden (zoals de Adult Performers Actors Guild in de VS) zouden AI-clausules in contracten kunnen onderhandelen. Zo zou een performer kunnen eisen dat een studio haar beeldmateriaal niet gebruikt om AI te trainen die haar afbeelding later zou kunnen vervangen, of haar op zijn minst te betalen als ze dat wel doen.

Wat betreft consumentengedrag, suggereert vroeg anekdotisch bewijs dat veel pornowatchers nog steeds de voorkeur geven aan het weten dat iets echt is – er is een aantrekkingskracht in echte menselijke performers. AI-porno kan soms “zieloos” of minder bevredigend aanvoelen, rapporteren sommige gebruikers, zodra het nieuwe eraf is. Dus menselijke makers kunnen hun publiek behouden door hun authenticiteit en persoonlijke connectie te benadrukken, iets wat AI nooit echt kan nabootsen. Dat gezegd hebbende, naarmate AI verbetert, kan het verschil kleiner worden, en jongere generaties die met AI opgroeien, maken mogelijk geen onderscheid meer.

Kans voor nieuw talent? Er is een interessante keerzijde: AI zou de drempels kunnen verlagen om op een gecontroleerde manier de adult content-wereld te betreden. Iemand die nooit zijn of haar echte lichaam of gezicht zou delen, kan een AI-persoonlijkheid creëren – een fictieve sexy avatar – en content van die avatar verkopen. In wezen een camgirl of OnlyFans-model zijn via een AI-proxy. Sommige gebruikers hebben dit met wisselend succes geprobeerd. Het opent de deur voor mensen om fantasieën te gelde te maken zonder hun identiteit of lichaam bloot te geven. Platforms vereisen echter momenteel identiteitsverificatie om catfishing en minderjarigen te voorkomen, dus een individu zou zich nog steeds moeten registreren en waarschijnlijk moeten aangeven dat de content AI-gegenereerd is van een fictief persoon. Als dit wordt toegestaan, zou dit een nieuwe categorie contentmakers kunnen opleveren: AI-gedreven adult creators die echte ondernemers zijn, maar waarvan het product een volledig virtueel personage is. Zij zouden concurreren met echte modellen. Zouden gebruikers betalen voor een “nep” model? Mogelijk, als ze aantrekkelijk en interactief genoeg is, en vooral als ze aanvankelijk niet doorhebben dat het nep is. Je kunt je voorstellen dat sommige gebruikers zelfs de voorkeur geven aan een AI-model dat “altijd beschikbaar is en nooit een slechte dag heeft.” Dit is om voor de hand liggende redenen verontrustend voor menselijke performers.

Regulatoire en juridische impact op de industrie: Met nieuwe wetten over deepfakes hebben adult platforms juridische prikkels om alles wat niet-consensueel is te verbieden. Ironisch genoeg kan dit de positie van gevestigde, gereguleerde adult bedrijven (die alleen werken met instemmende performers) versterken ten opzichte van malafide AI-sites. Als de handhaving sterk is, kunnen gebruikers die deepfake porno willen het moeilijker krijgen om eraan te komen, wat hen kan drijven naar illegale dark web-bronnen of het gebruik kan ontmoedigen. Ondertussen kunnen instemmende AI-creaties (zoals een model dat toestemming geeft voor een AI-versie van zichzelf) een nieuwe gelicentieerde productcategorie worden. Dit vereist juridische verduidelijking: bijvoorbeeld, kan een model auteursrecht of een handelsmerk krijgen op haar gezicht zodat ze iemand kan aanklagen die zonder toestemming een AI-kloon van haar maakt? Sommige landen zoals Denemarken en mogelijk aankomende Amerikaanse staatswetten bewegen in die richting euronews.com. Dat zou performers helpen hun merk te beschermen.

Samenvatting van de impact: De adult content-industrie staat aan het begin van een mogelijke paradigmaverschuiving. Degenen die zich aanpassen – door AI ethisch en transparant te gebruiken – kunnen floreren of in ieder geval overleven. Degenen die het negeren, kunnen moeite hebben om te concurreren met de vloedgolf aan content en veranderende consumentengewoonten. Zoals een AI-ondernemer zei over AI-companions: “elke nieuwe innovatie kan als een drastische verandering voelen… het is een evolutie” sifted.eu. De vraag is of deze evolutie het bestaande ecosysteem van makers zal aanvullen of kannibaliseren.

Conclusie: Een nieuw erotisch grensgebied, vol dilemma’s

De opkomst van NSFW AI heeft onmiskenbaar een Pandora’s box geopend. In slechts een paar jaar hebben we gezien hoe AI is geëvolueerd van het genereren van grappige kattenplaatjes tot het maken van nepnaaktfoto’s die iemands leven kunnen verwoesten. Deze technologie is krachtig, tweesnijdend en blijvend. Aan de ene kant stelt het gewone mensen in staat om elk erotisch beeld of scenario te creëren dat ze maar kunnen bedenken, waardoor de grenzen tussen consument en maker in adult entertainment vervagen. Het biedt de belofte van gepersonaliseerd genot, creatieve verkenning en misschien nieuwe businessmodellen in een miljardenindustrie die vaak technologisch stilstond. Aan de andere kant heeft NSFW AI nieuwe vormen van misbruik mogelijk gemaakt – “digitale verkrachting” noemen sommigen het – door individuen (voornamelijk vrouwen) de controle over hun eigen beelden en lichamen in het digitale domein te ontnemen. Het daagt onze rechtssystemen uit, die zich haasten om definities van nabootsing, pornografie en toestemming te updaten voor het AI-tijdperk. En het dwingt de samenleving om ongemakkelijke vragen te stellen over de aard van seksualiteit, vrije expressie en menselijke connectie wanneer deze worden versterkt of gesimuleerd door AI.

Vanaf eind 2025 slaat de pendule door naar waarborgen en verantwoordelijkheid. Grote wetgeving in de VS en EU, hardere aanpak in Azië en beleidswijzigingen bij platforms geven allemaal aan dat niet-consensuele AI-porno breed wordt gezien als onacceptabel. Tegelijkertijd wordt er technologie ontwikkeld om misbruik op te sporen en te voorkomen, zelfs nu de generatieve technologie zelf verbetert. We kunnen verwachten dat het kat-en-muisspel doorgaat: op elke nieuwe veiligheidsmaatregel zullen kwaadwillenden nieuwe ontwijkingstechnieken bedenken. Maar het collectieve bewustzijn is nu veel groter – AI-porno is niet langer een vreemde internetniche; het is een mainstream onderwerp van zorg in parlementen en redacties. Dat publieke bewustzijn kan slachtoffers in staat stellen zich uit te spreken en gerechtigheid te eisen, en bedrijven aansporen verantwoordelijkheid te nemen.

Met het oog op de toekomst zal wereldwijde samenwerking cruciaal zijn. Deze problemen stoppen niet bij grenzen – een deepfake gemaakt in het ene land kan iemands leven in een ander land verwoesten. Het zal belangrijk zijn dat overheden best practices delen (zoals de Euronews-enquête over Europese wetten laat zien, leren veel landen van elkaars aanpak euronews.com euronews.com). Misschien ontstaat er de komende jaren een internationaal kader of verdrag om beeld-gebaseerd seksueel misbruik te bestrijden, waarbij de zwaarste overtredingen als mensenrechtenschendingen worden behandeld. In de tussentijd zullen maatschappelijke organisaties en docenten het bewustzijn moeten blijven vergroten, mediageletterdheid onderwijzen (zodat mensen twee keer nadenken voordat ze “gelekte” intieme inhoud geloven of delen), en slachtoffers ondersteunen.

Ondanks alle duisternis rond NSFW AI is het goed om te beseffen dat niet alles kommer en kwel is. In consensuele contexten halen sommige mensen er echt geluk uit – of het nu een stel is dat hun intimiteit opfleurt met AI-gegenereerde rollenspelscenario’s, een volwassen maker die met een AI-persona veilig vanuit huis inkomen verdient, of gewoon individuen die eindelijk hun specifieke fantasie terugzien in een AI-kunstwerk of verhaal. Deze toepassingen mogen niet verloren gaan in het gesprek; ze onderstrepen dat de technologie zelf niet inherent slecht is. Het is een hulpmiddel – een dat menselijke intenties versterkt, goed of slecht. Onze taak is om het gebruik te sturen naar consensuele en creatieve doelen, en krachtig te waken tegen kwaadaardige doeleinden.

Artiesten, makers en sekswerkers – de mensen die de wereld van volwassen content bewonen – zullen zich waarschijnlijk blijven aanpassen en hun plek opeisen in dit nieuwe landschap. Velen strijden ervoor dat “AI-ethiek” ook hun stem omvat, en eisen mechanismen voor toestemming en compensatie. Ze vragen in feite iets eenvoudigs: neem niet van ons zonder te vragen. De samenleving als geheel worstelt met dat principe in alle AI-domeinen, van kunst tot nieuws tot porno.

Tot slot staat NSFW AI op het kruispunt van technologie, seksualiteit, wetgeving en ethiek. Het daagt ons uit om de begrippen toestemming, privacy en zelfs de realiteit zelf in het digitale tijdperk opnieuw te definiëren. De tweede helft van de jaren 2020 zal bepalend zijn voor het vaststellen van de normen en regels die dit domein beheersen. Gaan we richting een toekomst waarin AI-porno alomtegenwoordig maar streng gereguleerd is, en vooral voor goede of neutrale doeleinden wordt gebruikt? Of zien we een balkanisering, waarbij reguliere platforms het verwijderen terwijl het floreert in de schaduw, vergelijkbaar met een illegale handel? De uitkomst hangt af van de beslissingen die nu worden genomen – door wetgevers, technologiebedrijven en gebruikers.

Eén ding is zeker: de geest is uit de fles. We kunnen NSFW AI niet on-uitvinden. Maar we kunnen en moeten leren er verantwoordelijk mee om te gaan. Als gebruikers betekent dat het respecteren van andermans waardigheid bij het gebruik van deze tools; als bedrijven, veiligheid vanaf het begin inbouwen; als overheden, duidelijke grenzen stellen; en als gemeenschappen, misbruik niet tolereren. Met waakzaamheid en empathie is de hoop dat de “wilde westen”-fase van AI-porno zal evolueren naar een meer beschaafd terrein – een plek waar instemmende volwassenen kunnen genieten van nieuwe vormen van erotische kunst en verbinding, terwijl degenen die de technologie willen misbruiken op afstand worden gehouden. Het verhaal van NSFW AI wordt nog steeds geschreven, en medio 2025 is slechts hoofdstuk één. De reactie van de samenleving nu zal bepalen of deze technologie ons uiteindelijk verrijkt of in gevaar brengt op het gebied van intieme content.

Bronnen:

  • Oremus, Will. “Congress passes bill to fight deepfake nudes, revenge porn.” The Washington Post (via Klobuchar Senate site), 28 april 2025 klobuchar.senate.gov klobuchar.senate.gov.
  • Fawkes, Violet. “8 Best NSFW AI Image Generators – Finding pleasure at the crossroads of code and consent.” Chicago Reader, 13 april 2025 chicagoreader.com chicagoreader.com.
  • Mahdawi, Arwa. “Nonconsensual deepfake porn is an emergency that is ruining lives.” The Guardian, 1 april 2023 theguardian.com theguardian.com.
  • Ferris, Layla. “AI-gegenereerde pornosite Mr. Deepfakes sluit na stopzetting van ondersteuning door dienstverlener.” CBS News, 5 mei 2025 cbsnews.com cbsnews.com.
  • CBS News/AFP. “AI-gegenereerd pornoschandaal schokt Universiteit van Hong Kong nadat rechtenstudent naar verluidt deepfakes van 20 vrouwen maakte.” CBS News, 15 juli 2025 cbsnews.com cbsnews.com.
  • Lyons, Emmet. “Zuid-Korea staat op het punt bezit of bekijken van seksueel expliciete deepfake-video’s strafbaar te stellen.” CBS News, 27 september 2024 cbsnews.com cbsnews.com.
  • Wethington, Caleb. “Nieuwe wetten tegen deepfakes en AI-gegenereerde kinderporno van kracht in Tennessee.” WSMV News Nashville, 30 juni 2025 wsmv.com wsmv.com.
  • Desmarais, Anna. “Denemarken vecht terug tegen deepfakes met auteursrechtbescherming. Welke andere wetten bestaan er in Europa?” Euronews, 30 juni 2025 euronews.com euronews.com.
  • Nicol-Schwarz, Kai. “Maak kennis met de AI OnlyFans: hoe een startup miljoenen ophaalde om een platform voor ‘erotische metgezellen’ te bouwen.” Sifted, 13 maart 2025 sifted.eu sifted.eu.
  • Wilson, Claudia. “De Senaat neemt de DEFIANCE-wet aan.” Center for AI Policy (CAIP), 1 aug 2024 centeraipolicy.org centeraipolicy.org.
  • Arnold, Stephen. “Google neemt stelling — tegen twijfelachtige inhoud. Zal AI het goed doen?” Beyond Search blog, 24 mei 2024 arnoldit.com arnoldit.com.
  • Holland, Oscar. “Taiwan’s Lin Chi-ling over haar deepfake-beproeving en de strijd tegen AI-desinformatie.” CNN, 5 okt 2023 (voor context over celebrity deepfakes).
  • (Aanvullende beleidsdocumenten, persberichten en rapporten zoals geciteerd in de tekst.)

Tags: , ,