LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

Elon Musks ‘Spicy’ AI-modus veroorzaakt NSFW-deepfake-schandaal – Waarom vrouwen het doelwit zijn van een nieuwe AI-porno-crisis

Elon Musks ‘Spicy’ AI-modus veroorzaakt NSFW-deepfake-schandaal – Waarom vrouwen het doelwit zijn van een nieuwe AI-porno-crisis

Grok 4: Inside Elon Musk’s Most Powerful (and Controversial) AI Chatbot Yet

Elon Musks nieuwe AI-onderneming ligt onder vuur omdat het niet-consensuele naakt deepfakes van beroemdheden genereert – en dat op een verontrustend gender-vooringenomen manier. Uit een recent onderzoek van Gizmodo blijkt dat Musks Grok Imagine-tool, met de “Spicy”-modus, gemakkelijk NSFW-video’s van beroemde vrouwen maakt (denk aan Taylor Swift of Melania Trump), maar weigert hetzelfde te doen voor mannen gizmodo.com gizmodo.com. Dit rapport gaat dieper in op de bevindingen van Gizmodo over Groks controversiële functie, onderzoekt de snelle opkomst van AI-gegenereerde pornografische inhoud en deepfakes, en verkent de ethische, juridische en maatschappelijke implicaties. We bekijken ook de huidige ontwikkelingen per augustus 2025 – van publieke verontwaardiging en waarschuwingen van experts tot nieuwe wetten die gericht zijn op het terugdringen van AI “wraakporno.” Het doel: begrijpen hoe “Spicy Mode” het nieuwste brandpunt werd in de voortdurende NSFW AI-inhoudscrisis, en wat eraan gedaan kan worden.

Groks “Spicy Mode” – NSFW Deepfakes en een ingebouwde vooringenomenheid

Grok Imagine is de beeld- en videogenerator van xAI (beschikbaar voor betalende abonnees op Musk’s X-platform) en staat gebruikers opvallend genoeg toe om volwassen inhoud te maken via een “Spicy”-modus gizmodo.com. Terwijl gangbare AI-tools zoals Google’s Veo en OpenAI’s Sora expliciete of beroemdheden-beelden verbieden, moedigt Grok’s Spicy-modus dit juist actief aan avclub.com avclub.com. Uit tests van The Verge bleek dat de AI “zonder aarzelen volledig ongecensureerde topless video’s van Taylor Swift produceerde” bij de eerste poging – zonder dat er zelfs om naaktheid werd gevraagd theverge.com. Evenzo vond Deadline het kinderlijk eenvoudig om Grok een afbeelding te laten genereren van Scarlett Johansson die haar ondergoed laat zien avclub.com. In schril contrast leverden pogingen om mannelijke naaktheid te produceren niets op. Zoals Gizmodo meldt, “maakte het alleen de afbeeldingen van vrouwen echt niet-veilig-voor-werk. Video’s van mannen waren het soort dingen waar niemand echt van op zou kijken.” gizmodo.com In de praktijk laat Grok’s Spicy-modus een man hooguit zonder shirt zien, terwijl vrouwen topless of volledig naakt worden weergegeven.

Deze flagrante dubbele standaard heeft alarmbellen doen afgaan. Grok genereert met één druk op de knop een softcore porno-achtige clip van een vrouwelijke publieke figuur gizmodo.com, maar hetzelfde “Spicy”-filter houdt blijkbaar op bij slechts ontbloot bovenlijf voor mannen gizmodo.com. Matt Novak van Gizmodo probeerde zelfs een generieke, niet-bekende man tegenover een generieke vrouw te prompten: het mannelijke avatar trok onhandig aan zijn broek maar bleef bedekt, terwijl het vrouwelijke avatar prompt haar borsten ontblootte gizmodo.com. Zulke resultaten suggereren een genderbias ingebed in de contentmoderatie van de AI (of dit nu opzettelijk is of een bijproduct van de training). Musks eigen staat van dienst met vrouwonvriendelijke opmerkingen – van het versterken van beweringen dat vrouwen “zwak” zijn gizmodo.com tot grappen maken over het zwanger maken van Taylor Swift – versterkt het vermoeden dat deze bias eerder een kenmerk dan een fout is gizmodo.com.

Mogelijkheden & Beperkingen: Het is het vermelden waard dat de deepfakes van Grok vaak van slechte kwaliteit zijn. De gelijkenissen met beroemdheden die het produceert, zijn vaak niet overtuigend of bevatten storingen gizmodo.com gizmodo.com. (Zo leken beelden die bedoeld waren als actrice Sydney Sweeney of politicus J.D. Vance totaal niet op hun echte zelf gizmodo.com.) Bizarre continuïteitsfouten – zoals een man met ongelijke broekspijpen in een video – komen vaak voor gizmodo.com. Grok genereert ook automatisch generieke achtergrondmuziek of audio voor elk fragment, wat bijdraagt aan de surreële “uncanny valley”-sfeer gizmodo.com. Deze technische tekortkomingen zouden momenteel een redding kunnen zijn voor xAI, aangezien echt levensechte naaktvervalsingen van beroemdheden vrijwel zeker rechtszaken en verboden zouden uitlokken gizmodo.com. Zoals Gizmodo grapte, is Musks beste verdediging tegen juridische stappen misschien wel dat “de beelden er niet eens op lijken” op de echte beroemdheden gizmodo.com. Maar de technologie verbetert snel, en zelfs deze onvolmaakte deepfakes zijn herkenbaar genoeg om zorgwekkend te zijn avclub.com.

Publieke reactie: De uitrol van “Spicy Mode” veroorzaakte onmiddellijk verontwaardiging op sociale media en in de pers. Binnen enkele dagen na de lancering van Grok Imagine, werd X (Twitter) overspoeld met door AI gegenereerde afbeeldingen van naakte vrouwen, waarbij gebruikers gretig tips deelden over hoe ze zoveel mogelijk naaktheid in hun prompts konden krijgen gizmodo.com. Dit leidde tot brede kritiek dat Musk feitelijk de poorten had geopend voor door AI aangedreven seksuele intimidatie en uitbuiting. “Veel van de Grok Imagine-inhoud die Musk heeft gedeeld of opnieuw gepost, zijn clips van generiek ogende, rondborstige blondines of vrouwen in onthullende fantasiekleding,” merkte de A.V. Club op, waarbij werd opgemerkt dat Musk lijkt te willen concurreren met Pornhub avclub.com avclub.com. Techbloggers en commentatoren hebben spottend gesuggereerd dat Musk “praktisch smeekt om een rechtszaak van Taylor Swift” vanwege de automatisch gegenereerde naaktfoto’s van Grok avclub.com. Sommige commentatoren hebben zelfs aangedrongen dat prominente doelwitten zoals Swift Musk voor de rechter moeten dagen en “de wereld veiliger moeten maken voor andere vrouwen en meisjes” avclub.com. Tot nu toe is er geen publieke aanwijzing voor juridische stappen vanuit het kamp van Swift of anderen – maar de oproepen tot verantwoording worden steeds luider.

Zelfs buiten de Grok-controverse om was er in 2024 een grote publieke verontwaardiging over door AI gegenereerde porno op X. In één geval verspreidden deepfake pornografische beelden van Taylor Swift zich razendsnel op het platform, waarbij één nep-foto 47 miljoen weergaven kreeg voordat deze werd verwijderd theguardian.com. Fans kwamen massaal in actie om de beelden te rapporteren, en zelfs het Witte Huis mengde zich in de zaak en noemde de situatie “alarmerend” theguardian.com. De zaak van Swift is alleen uitzonderlijk vanwege de aandacht die ze kreeg; talloze vrouwen (beroemd of niet) hebben gezien hoe hun gelijkenis werd gebruikt voor expliciete content die platforms niet snel genoeg verwijderen theguardian.com theguardian.com. De publieke woede over deze incidenten – en nu over Grok’s ingebouwde NSFW-modus – weerspiegelt een groeiende consensus dat AI-tools die seksuele deepfakes mogelijk maken ethische grenzen overschrijden.

De snelle opkomst van door AI gegenereerde NSFW-inhoud en deepfakes

De Grok-episode is het nieuwste hoofdstuk in een zorgwekkende trend: door AI gegenereerde porno (“deepfake porno”) is de afgelopen jaren explosief toegenomen. Het fenomeen kreeg voor het eerst beruchtheid in 2017, toen hobbyisten op Reddit vroege deep-learning-algoritmen gebruikten om gezichten van beroemdheden op de lichamen van pornosterren te plaatsen. In 2018 verspreidden zogenaamde “deepfake”-video’s van Gal Gadot, Emma Watson, Scarlett Johansson en anderen zich op pornosites – wat leidde tot verboden van platforms als Reddit, Twitter en Pornhub op dergelijke niet-consensuele inhoud theguardian.com theverge.com.

Ondanks die vroege verboden trok de deepfake-porno-industrie zich terug in de schaduw en bleef groeien. Eind 2019 bleek uit een baanbrekend rapport van het cybersecuritybedrijf Deeptrace dat 96% van alle deepfake-video’s die online circuleren pornografisch waren, niet-consensuele face-swaps, bijna uitsluitend met vrouwelijke doelwitten regmedia.co.uk. De vier grootste deepfake-porno-websites die werden onderzocht, hadden samen meer dan 134 miljoen weergaven op video’s die “honderden vrouwelijke beroemdheden wereldwijd” viseerden. regmedia.co.uk Deze scheve verhouding was duidelijk: de slachtoffers waren overwegend vrouwen, en de consumenten waren overwegend geïnteresseerd in vrouwen als seksuele objecten. “99% van de deepfake-seksvideo’s betreft vrouwen, meestal vrouwelijke beroemdheden,” merkte hoogleraar recht Danielle Citron op, waarmee ze benadrukte hoe deze creaties “je tot seksueel object maken op manieren die je niet zelf hebt gekozen” nymag.com. Er is “niets mis met pornografie zolang je er zelf voor kiest,” voegde Citron toe – het gruwelijke aan deepfakes is dat deze vrouwen nooit gekozen hebben om hun gelijkenis te laten gebruiken in expliciete scènes nymag.com.

In het begin domineerden deepfakes van beroemdheden, maar nu worden steeds vaker gewone mensen het doelwit. In januari 2023 werd de Twitch-streaminggemeenschap opgeschrikt door een schandaal toen de populaire streamer Brandon “Atrioc” Ewing per ongeluk onthulde dat hij een deepfake-porno-website had bekeken die expliciete video’s van vrouwelijke streamers verkocht – waarbij hun gezichten op de lichamen van pornosterren werden gemonteerd polygon.com. De vrouwen (van wie sommigen persoonlijke vrienden van Atrioc waren) waren kapot van verdriet en werden geconfronteerd met golven van intimidatie toen de deepfakes aan het licht kwamen polygon.com. Eén slachtoffer, streamer QTCinderella, gaf een emotionele verklaring waarin ze de schending veroordeelde en hielp later bij het organiseren van juridische stappen om dergelijke inhoud te laten verwijderen polygon.com polygon.com. Het “Twitch deepfake”-schandaal maakte duidelijk dat je geen Hollywoodster hoeft te zijn om dit mee te maken – iedereen met afbeeldingen online is mogelijk kwetsbaar om door AI onvrijwillig “digitaal uitgekleed” te worden.

De opkomst van gebruiksvriendelijke AI-tools heeft deze trend alleen maar versneld. In 2019 ging een app genaamd DeepNude kortstondig viraal omdat deze AI gebruikte om met één druk op de knop foto’s van vrouwen “uit te kleden” en nepnaaktfoto’s te maken onezero.medium.com. Hoewel de maker van DeepNude de app stopzette na publieke verontwaardiging, was het kwaad al geschied. Tegen 2023–2025 hebben open-source beeldgeneratoren (zoals afgeleiden van Stable Diffusion) en speciale deepfake-diensten het triviaal gemaakt voor iedereen met een paar foto’s en minimale technische kennis om naakt- of seksuele beelden van anderen te maken. Sommige fora ruilen openlijk AI-gegenereerde naaktfoto’s van vrouwen die van sociale media zijn gehaald. Zoals een slachtoffer, een Twitch-streamer, klaagde nadat ze pornografische nepfoto’s van zichzelf ontdekte: “Dit heeft niets met mij te maken. En toch staat het hier met mijn gezicht.” theguardian.com Het gevoel van schending en machteloosheid is tastbaar onder degenen die “digitaal slachtoffer” zijn geworden.

Kortom, AI heeft het vermogen om pornografische nepfoto’s te maken gedemocratiseerd, en die mogelijkheid is onevenredig vaak tegen vrouwen gebruikt als wapen. Het zijn niet alleen beroemdheden die doelwit zijn – het is iedereen, van journalisten en activisten (die mogelijk worden aangevallen om te intimideren of in diskrediet te brengen) tot ex-partners en privépersonen (doelwit van wraakzuchtige creeps of voor afpersingspraktijken). De komst van functies zoals Grok’s Spicy-modus – die een officieel, gebruiksvriendelijk keurmerk geeft aan wat voorheen een ondergrondse praktijk was – geeft aan dat NSFW generatieve AI nu echt mainstream is geworden, met alle ethische bagage die daarbij hoort.

Ethische, juridische en maatschappelijke implicaties van door AI gegenereerde porno

De ethische verontwaardiging over deepfake-porno is breed gedragen. In de kern is het maken of delen van seksueel materiaal van iemand zonder diens toestemming een diepgaande schending van privacy, waardigheid en autonomie. Zoals Citron en andere ethici stellen, is dit meer dan alleen beeldmisbruik – het is een vorm van seksuele uitbuiting. Slachtoffers beschrijven gevoelens van “machteloosheid, vernedering en angst” bij de gedachte dat vreemden (of daders) nepfoto’s of -video’s van hen bekijken waarin ze seksuele handelingen verrichten die ze nooit hebben gedaan. Het kan neerkomen op een virtuele vorm van seksueel geweld, met blijvend trauma tot gevolg. Niet verrassend dragen vrouwen en meisjes de zwaarste last: “Niet-consensuele intieme deepfakes” zijn “een actueel, ernstig en groeiend gevaar, dat vrouwen onevenredig treft,” concluderen onderzoekers sciencedirect.com.

Er is ook een misogynistische ondertoon in veel van deze content. Experts merken op dat deepfakeporno vaak wordt gebruikt als wapen om vrouwen die machtige posities bekleden of avances afwijzen, te vernederen. “AI-gegenereerde porno, gevoed door misogynie, overspoelt het internet,” merkte The Guardian op te midden van de ophef rond de Taylor Swift deepfake theguardian.com. De handeling om een vrouw via AI uit te kleden kan worden gezien als een poging om haar “op haar plaats te zetten.” “Het zijn mannen die een krachtige vrouw terug in haar hok proberen te krijgen,” zoals een waarnemer de sfeer rond het Swift-incident omschreef. Of het nu anonieme trollen zijn die naaktbeelden van een vrouwelijke politicus maken, of een geobsedeerde fan die nepsekstapes van een popster maakt, de boodschap is vergelijkbaar – een vorm van digitale objectificatie en intimidatie.

Naast individuele schade zijn de maatschappelijke implicaties verontrustend. Als iedereen in porno kan worden gemonteerd, is visuele media niet langer te vertrouwen. Deepfakes brengen reputatieschade en afpersing op grote schaal met zich mee. Vrouwen in de publieke belangstelling kunnen zichzelf censureren of zich terugtrekken uit online interactie uit angst om doelwit te worden. Er is ook een afschrikkend effect op vrije meningsuiting: stel je voor dat een journalist die kritisch is op een regime, het onderwerp wordt van een realistische nepsekstape die wordt verspreid om haar in diskrediet te brengen. In het geheel genomen roept de normalisering van “designerporno” met onwillige deelnemers vragen op over toestemming, seksploitatie en de commercialisering van menselijke gelijkenis. Zelfs bij consensuele volwassen entertainment maken sommigen zich zorgen dat AI-gegenereerde performers echte modellen kunnen vervangen – maar als die AI-performers de gezichten dragen van echte mensen die van Facebook of Instagram zijn gestolen, is de grens van toestemming duidelijk overschreden.

Vrije meningsuiting vs. privacy: Er bestaat een spanningsveld tussen degenen die pleiten voor het verbieden van alle pornografische deepfakes en voorstanders van vrije meningsuiting die zich zorgen maken over te vergaande maatregelen. Zou een deepfake van een beroemdheid ooit als legitieme parodie of kunst kunnen worden beschouwd? In theorie wel – satire en parodie zijn beschermde uitingsvormen, zelfs als het gaat om het gebruik van het uiterlijk van publieke figuren. Sommige verdedigers van AI-technologie wijzen erop dat gemanipuleerde beelden van publieke figuren al lang deel uitmaken van de populaire cultuur (bijvoorbeeld bewerkte tijdschriftcovers), en stellen dat impulsieve criminalisering creativiteit kan belemmeren. Toch trekken zelfs de meeste voorstanders van vrije meningsuiting een grens bij niet-consensuele seksuele afbeeldingen. De schade voor het individu is zo intens en persoonlijk dat deze waarschijnlijk zwaarder weegt dan enig publiek belang. Juridische experts wijzen erop dat smaad- of intimidatiewetten sommige gevallen kunnen dekken, maar niet allemaal. Er groeit een consensus dat nieuwe wettelijke waarborgen nodig zijn om specifiek deepfakeporno aan te pakken, zonder legitieme uitingen te ondermijnen apnews.com apnews.com. Het zorgvuldig opstellen van die wetten – zodat duidelijke misstanden worden bestraft zonder satire of consensuele erotiek te verbieden – is een uitdaging waar beleidsmakers nu mee worstelen apnews.com apnews.com.

Huidige ontwikkelingen (stand van zaken augustus 2025): Van technologische tegenreactie tot nieuwe wetgeving

De controverse rond Grok’s “Spicy”-modus komt op een moment dat overheden en platforms wereldwijd eindelijk stappen ondernemen tegen de epidemie van door AI gegenereerde intieme beelden. Hier zijn enkele van de laatste ontwikkelingen:

  • Nationale verontwaardiging en activisme: De virale incidenten met Taylor Swift en anderen hebben de publieke opinie in beweging gebracht. Zelfs het Witte Huis van de VS reageerde op de Swift-deepfakes, zoals vermeld, en noemde ze “alarmerend” theguardian.com. Belangengroepen zoals het National Center on Sexual Exploitation hebben zich uitgesproken en veroordeelden Musk’s xAI voor “het bevorderen van seksuele uitbuiting door AI-video’s in staat te stellen naaktheid te creëren” en dringen aan op het verwijderen van dergelijke functies time.com. “xAI zou manieren moeten zoeken om seksueel misbruik en uitbuiting te voorkomen,” zei Haley McNamara van NCOSE in een verklaring, waarmee ze een bredere oproep vanuit de samenleving weerspiegelt time.com.
  • Peilingen tonen overweldigende publieke steun voor verboden: Recente enquêtes laten zien dat het publiek duidelijk voor strengere regelgeving is. Uit een peiling van het Artificial Intelligence Policy Institute in januari 2025 bleek dat 84% van de Amerikanen het expliciet illegaal wil maken om niet-consensuele deepfakeporno te maken, en dat men ook wil dat AI-bedrijven “[AI]-modellen beperken om te voorkomen dat ze worden gebruikt voor het maken van deepfakeporno.” time.com. Een Pew Research-peiling uit 2019 liet eveneens zien dat ongeveer driekwart van de Amerikaanse volwassenen voorstander is van beperkingen op digitaal bewerkte video’s/afbeeldingen time.com. Kortom, kiezers uit het hele spectrum lijken actie te willen tegen deze vorm van misbruik.
  • Nieuwe wetten en wetsvoorstellen: Wetgevers hebben gehoor gegeven aan de oproep. In de VS werd de Take It Down Act in mei 2025 ondertekend, waarmee de eerste federale wetgeving werd ingevoerd die zich richt op deepfakepornografie time.com. Deze bipartisane wet maakt het illegaal om “opzettelijk intieme beelden te publiceren of te dreigen met publicatie” zonder toestemming – inclusief door AI gemaakte deepfakes – en verplicht platforms om dergelijk materiaal binnen 48 uur na melding door het slachtoffer te verwijderen apnews.com apnews.com. De straffen zijn streng, en de wet geeft slachtoffers de mogelijkheid om snel content te laten verwijderen apnews.com apnews.com. “We moeten slachtoffers van online misbruik de wettelijke bescherming bieden die ze nodig hebben, zeker nu deepfakes gruwelijke nieuwe mogelijkheden voor misbruik creëren,” zei senator Amy Klobuchar, mede-indiener, die de wet “een grote overwinning voor slachtoffers van online misbruik” noemde apnews.com apnews.com. Nog vóór de federale wet hadden meer dan 15 Amerikaanse staten het maken of verspreiden van expliciete deepfakes verboden (vaak door “wraakporno”-wetten aan te passen). Nu ontstaat er een uniforme federale standaard. Ook andere landen bewegen mee. Zo heeft de Britse overheid bijvoorbeeld het delen van deepfakepornografie strafbaar gesteld in de Online Safety Act (van kracht begin 2024), en werkt aan wetgeving om zelfs het maken van seksueel expliciete deepfakes zonder toestemming strafbaar te stellen hsfkramer.com hsfkramer.com. In januari 2025 heeft het VK een voorstel opnieuw ingediend om het maken van deepfake-naaktbeelden illegaal te maken, en noemt dit een “mijlpaal voor de bescherming van vrouwen en meisjes.” <a href=”https://www.hsfkramer.com/notes/tmt/2024-05/criminalising-deepfakes-the-uks-new-offences-following-the-online-safety-act#:~:text=Further%20update%3A%20On%207%20January,Act%2020hsfkramer.com hsfkramer.com Australië heeft in 2024 een wet aangenomen die zowel het maken als het verspreiden van deepfake seksueel materiaal verbiedt, en Zuid-Korea is zelfs zo ver gegaan dat het voorstelt om zelfs het bezit of het bekijken van dergelijke deepfake porno strafbaar te stellen (niet alleen de productie ervan) hsfkramer.com. De wereldwijde trend is duidelijk: niet-consensuele AI-seksuele beelden worden als een misdrijf gezien. Wetgevers erkennen dat deze beelden “levens en reputaties kunnen ruïneren,” zoals Klobuchar het verwoordde apnews.com, en nemen maatregelen – hoewel waakhonden voor vrije meningsuiting zoals EFF waarschuwen dat slecht opgestelde wetten tot overmatige censuur kunnen leiden of misbruikt kunnen worden apnews.com apnews.com.
  • Beleidsmaatregelen van techplatforms: Grote techplatforms zijn begonnen hun beleid (althans op papier) aan te passen om AI-gecreëerde seksuele content aan te pakken. Facebook, Instagram, Reddit en het traditionele Twitter verbieden allemaal officieel niet-consensuele intieme beelden, inclusief deepfakes theguardian.com theverge.com. Pornhub en andere adultsites voerden ook al in 2018 een verbod in op AI-gegenereerde content met echte personen zonder toestemming theguardian.com theverge.com. In de praktijk blijft de handhaving gebrekkig – een vastberaden gebruiker kan op veel platforms nog steeds illegale deepfakes vinden of delen. Er zijn echter tekenen van vooruitgang: zo reageerde X (Twitter) na het Swift-incident uiteindelijk door zoekopdrachten naar haar naam te blokkeren om de verspreiding te stoppen theguardian.com theguardian.com. Reddit verbiedt niet alleen deepfakeporno, maar sloot ook hele communities die dergelijk materiaal uitwisselden. YouTube en TikTok hebben ook beleid dat AI-gemanipuleerde expliciete beelden verbiedt. De uitdaging is schaal en detectie – en daar wordt nieuwe technologie voor ingezet.
  • Detectie en Bescherming: Een groeiende cottage-industrie van technologische oplossingen is gericht op het detecteren en verwijderen van deepfake porno. AI-bedrijven zoals Sensity (voorheen Deeptrace) en startups zoals Ceartas ontwikkelen detectie-algoritmes die het internet afspeuren naar het gezicht van een persoon in pornografische inhoud en overeenkomsten markeren polygon.com polygon.com. Na het Twitch-schandaal werkte Atrioc bijvoorbeeld samen met Ceartas om de getroffen streamers te helpen: het bedrijf gebruikte zijn AI om deepfake-inhoud van deze vrouwen op te sporen en DMCA-verwijderingsverzoeken in te dienen polygon.com polygon.com. OnlyFans, een platform met een groot belang bij het beschermen van makers, heeft ook dergelijke tools ingezet om nep-inhoud van zijn modellen te bestrijden polygon.com. Er wordt ook gewerkt aan het inbedden van watermerken of metadata in door AI gegenereerde afbeeldingen om fakes te helpen identificeren, evenals voorstellen om cryptografische authenticatie van echte afbeeldingen te vereisen (zodat niet-gelabelde afbeeldingen als nep kunnen worden beschouwd). Bovendien bevat de AI-wet van de Europese Unie (overeengekomen in 2024) bepalingen dat ontwikkelaars van deepfake-tools ervoor moeten zorgen dat outputs duidelijk als AI-gegenereerd zijn gelabeld bioid.com. Verschillende Amerikaanse staten (en de EU) overwegen verplichtingen dat alle door AI aangepaste inhoud bij publicatie vergezeld moet gaan van een melding cjel.law.columbia.edu bioid.com. Hoewel dergelijke labels kwaadwillenden er niet van zullen weerhouden ze te verwijderen, vormen ze een poging om normen van transparantie te vestigen rond synthetische media.
  • Platform versus Musks X: Het is de moeite waard om te benadrukken hoe ongebruikelijk Musks aanpak met X en xAI is. Terwijl de meeste platforms de beperkingen aanscherpen, heeft Musk ze in feite juist versoepeld, en richt hij zich op een gebruikersgroep die “gedurfde” AI-mogelijkheden wil. X heeft Grok’s output niet alleen niet verboden; het is het thuis van Grok. Deze afwijking heeft X in conflict gebracht met veel experts. In augustus 2024 verwees een groep Democratische wetgevers specifiek naar Musks Grok in een brief aan toezichthouders, waarin werd gewaarschuwd dat lakse regels rond deepfakes (waaronder expliciete van figuren als Kamala Harris of Taylor Swift) verkiezingen en meer kunnen ontwrichten time.com. Musk lijkt erop te gokken dat inspelen op de vraag naar door AI gegenereerde erotica (en zelfs AI-chatpartners die flirten of strippen, zoals de nieuwe functies van xAI laten zien time.com) inkomsten en gebruikers zal opleveren. Maar de tegenreactie – juridisch, maatschappelijk en mogelijk financieel (door zorgen van adverteerders) – kan op de lange termijn een ander verhaal vertellen.

Beleidsvoorstellen en de weg vooruit: Kunnen we deepfakeporno beteugelen?

De consensus onder beleidsmakers en ethici is dat er meervoudige actie nodig is om AI-gegenereerde NSFW-inhoud aan te pakken. Belangrijke voorstellen en ideeën zijn onder meer:

  • Sterkere wetten en handhaving: Zoals genoemd zijn wetten als de Take It Down Act een begin. Experts stellen verdere verfijningen voor, zoals het strafbaar stellen van het maken van een nepseksueel beeld van iemand zonder toestemming, niet alleen het verspreiden ervan. (Het VK gaat deze kant op hsfkramer.com hsfkramer.com.) Duidelijke wettelijke straffen voor daders – en voor degenen die bewust dergelijk materiaal hosten of er geld aan verdienen – kunnen als afschrikmiddel werken. Belangrijk is dat elke wetgeving zorgvuldig moet worden afgebakend om te voorkomen dat consensuele erotische kunst of legitieme politieke satire onbedoeld strafbaar wordt gesteld apnews.com apnews.com. Civielrechtelijke mogelijkheden zijn ook van groot belang: slachtoffers moeten eenvoudig schade kunnen verhalen en via de rechter verwijdering van de inhoud kunnen afdwingen. Veel voorstanders willen uitzonderingen in Section 230 (de Amerikaanse wet die platforms beschermt tegen aansprakelijkheid voor gebruikersinhoud) zodat websites verantwoordelijk kunnen worden gehouden als ze niet reageren op verwijderingsverzoeken voor deepfakeporno. Dit zou platforms onder druk zetten om veel alerter te zijn.
  • Technologische Waarborgen: Aan de ontwikkelingskant stellen voorstellen dat makers van AI-modellen preventieve waarborgen moeten inbouwen. Bedrijven zouden bijvoorbeeld contentfilters kunnen trainen om te detecteren wanneer een gebruikersprompt de naam of gelijkenis van een echt persoon bevat en elke expliciete output met betrekking tot die persoon blokkeren. (Sommige AI-beeldgeneratoren weigeren nu al prompts die lijken te verwijzen naar privépersonen of naaktheid van publieke figuren produceren – xAI’s Grok is een uitzondering en doet dit niet avclub.com.) Een ander idee is het vereisen van toestemmingsverificatie voor expliciete generaties: bijvoorbeeld, een AI-dienst zou alleen een naaktbeeld genereren als de gebruiker bewijst dat het onderwerp hij/zij zelf is of een instemmend model. Natuurlijk kunnen kwaadwillenden gewoon open-source modellen gebruiken zonder zulke filters, maar als de grote platforms strikte waarborgen invoeren, kan dat de mainstream verspreiding beperken. Leeftijdsverificatie is ook een punt van zorg – Grok’s enige controle was een eenvoudig te omzeilen geboortedatum-prompt gizmodo.com – dus er zijn oproepen voor robuustere leeftijdscontroles om te zorgen dat minderjarigen (die vaak doelwit zijn van pesten via nepnaaktfoto’s) deze tools niet kunnen gebruiken of door hen afgebeeld worden.
  • Onderzoek en Detectie: Overheden financieren onderzoek naar deepfake-detectie, en bedrijven werken samen aan standaarden voor het authentiseren van media. Het doel is het makkelijker maken om nep-pornografie snel te identificeren en te verwijderen zodra het opduikt. Detectie zal echter altijd een kat-en-muisspel blijven naarmate AI-vervalsingen geavanceerder worden. Sommige experts vinden dat de focus moet verschuiven naar het voorkomen van schade (door juridische sancties en educatie) in plaats van te hopen op een technische “nepdetector” die alles vangt. Toch zullen vooruitgangen in AI voor het goede – zoals betere beeld-hashing om bekende vervalsingen te traceren, of tools waarmee individuen kunnen vinden of hun afbeelding is misbruikt – een rol spelen in de beperking ervan.
  • Platformverantwoordelijkheid: Belangengroepen dringen erop aan dat sociale media en platforms voor volwassen content proactief toezicht houden op AI-porno-inhoud. Dit kan betekenen dat er wordt geïnvesteerd in contentmoderatie-teams die getraind zijn in het herkennen van deepfakes, samenwerken met wetshandhaving bij verwijderingsbevelen, en het verbannen van recidivisten die niet-consensueel materiaal maken of delen. Sommigen pleiten ook voor opt-out- of registratiesystemen, waarbij individuen hun gelijkenis (of die van hun kinderen) kunnen registreren en platforms ervoor moeten zorgen dat er geen AI-inhoud over hen wordt toegestaan – al zou dit administratief lastig te handhaven zijn. Minimaal moeten snelle responsprotocollen – zoals de 48-uurs verwijderingsverplichting in de Amerikaanse wet apnews.com – standaardpraktijk worden op alle platforms wereldwijd.
  • Onderwijs en Normen: Ten slotte ligt een deel van de oplossing in het verschuiven van sociale normen. Net zoals de samenleving “wraakporno” breed veroordeelde en het als misbruik erkende, is de hoop dat deepfake porno universeel gestigmatiseerd wordt. Als de gemiddelde persoon het kwaad begrijpt en weigert dergelijk materiaal te delen of te consumeren, zal de vraag afnemen. Tech-ethici benadrukken het belang van mediawijsheid – mensen leren dat zien niet altijd geloven is, en dat een pikante foto van Beroemdheid X nep kan zijn. Jongere generaties in staat stellen kritisch om te gaan met een wereld vol AI-gemanipuleerde media zal cruciaal zijn. Even belangrijk zijn campagnes om potentiële daders te informeren dat het maken van deze nepfoto’s geen grap is – het is een ernstige schending met mogelijk strafrechtelijke gevolgen.

Conclusie

De opkomst van Grok’s “Spicy Mode” heeft olie op het vuur gegooid in het al woedende debat rond AI en seksueel expliciete deepfakes. Elon Musks AI-tool, die het makkelijk en zelfs “officieel” maakt om naaktfoto’s van beroemdheden te genereren, heeft tot snelle verontwaardiging geleid – en het bredere deepfake-porno-probleem in de schijnwerpers gezet. Van de gangen van het Congres tot de commentaren op techforums groeit de consensus dat er iets moet gebeuren om individuen (vooral vrouwen) te beschermen tegen de duistere toepassingen van deze technologie.

Zoals we hebben gezien, is door AI gegenereerde NSFW-inhoud geen op zichzelf staande nieuwigheid – het is een groeiende maatschappelijke uitdaging. Het zet creatieve vrijheid en technologische innovatie tegenover privacy, toestemming en veiligheid. De geest gaat niet terug in de fles, maar met slim beleid, verantwoordelijke technologische ontwikkeling en culturele verandering kunnen we hopen de schade te beperken. De komende maanden en jaren zullen waarschijnlijk meer rechtszaken, meer wetten en verbeterde AI-veiligheidsmaatregelen brengen. Grok van Musk zal zich mogelijk onder druk aanpassen of een waarschuwend voorbeeld worden van een AI-project dat ethische grenzen negeerde met alle gevolgen van dien.

Voor nu is de boodschap van zowel experts als het publiek duidelijk: deepfake porno is een grens die AI niet mag overschrijden. En als bedrijven als xAI die grens niet zelf trekken, zijn regelgevers en de samenleving steeds meer bereid dat voor hen te doen. Zoals een technologie-ethicus het verwoordde: “Je afbeelding zonder toestemming in porno veranderen is verwoestend – het is hoog tijd dat we het behandelen als het ernstige misbruik dat het is, en niet als een onvermijdelijkheid van technologie.” De discussie gaat niet langer over óf er actie nodig is, maar over hoe snel en effectief we AI-aangedreven seksuele uitbuiting kunnen beteugelen, voordat meer levens worden ontwricht door de volgende “Spicy” innovatie.

Bronnen:

  • Novak, Matt. “Grok’s ‘Spicy’ Mode Makes NSFW Celebrity Deepfakes of Women (But Not Men).Gizmodo, 6 aug. 2025 gizmodo.com gizmodo.com.
  • Weatherbed, Jess. “Groks ‘Spicy’-videoinstelling maakte meteen naakt-deepfakes van Taylor Swift voor mij.The Verge, 5 aug. 2025 theverge.com.
  • Carr, Mary Kate. “Elon Musk smeekt praktisch om een rechtszaak van Taylor Swift met Grok AI naakt-deepfakes.AV Club, 7 aug. 2025 avclub.com avclub.com.
  • Saner, Emine. “Binnen het Taylor Swift deepfake-schandaal: ‘Het zijn mannen die een krachtige vrouw terug in haar hok willen zetten’.The Guardian, 31 jan. 2024 theguardian.com theguardian.com.
  • Clark, Nicole. “Streamer die Twitch deepfake-porno-schandaal veroorzaakte keert terug.Polygon, 16 mrt. 2023 polygon.com polygon.com.
  • Patrini, Giorgio. “De stand van zaken rond deepfakes.” Deeptrace Labs Report, okt. 2019 regmedia.co.uk.
  • Citron, Danielle. Interview in NYMag Intelligencer, okt. 2019 nymag.com.
  • Ortutay, Barbara. “President Trump ondertekent Take It Down Act, gericht op niet-consensuele deepfakes. Wat is het?AP News, aug. 2025 apnews.com apnews.com.
  • Burga, Solcyre. “Elon Musks Grok zal gebruikers binnenkort toestaan om AI-video’s te maken, inclusief van expliciete aard.TIME, aug. 2025 time.com time.com.
  • Herbert Smith Freehills Advocatenkantoor. “Deepfakes strafbaar stellen – de nieuwe strafbare feiten van het VK…,” 21 mei 2024 hsfkramer.com hsfkramer.com.

Tags: , ,