LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

La modalità AI “piccante” di Elon Musk scatena uno scandalo di deepfake NSFW: perché le donne sono il bersaglio della nuova crisi del porno AI

La modalità AI “piccante” di Elon Musk scatena uno scandalo di deepfake NSFW: perché le donne sono il bersaglio della nuova crisi del porno AI

Grok 4: Inside Elon Musk’s Most Powerful (and Controversial) AI Chatbot Yet

La nuova iniziativa di intelligenza artificiale di Elon Musk è sotto accusa per generare deepfake di celebrità nude senza consenso – e farlo in modo inquietantemente di parte dal punto di vista di genere. Un’indagine recente di Gizmodo rivela che lo strumento Grok Imagine di Musk, con la sua modalità “Spicy”, crea facilmente video NSFW di donne famose (come Taylor Swift o Melania Trump) ma si rifiuta di fare lo stesso per gli uomini gizmodo.com gizmodo.com. Questo report approfondisce i risultati di Gizmodo sulla controversa funzione di Grok, esamina la rapida ascesa dei contenuti pornografici generati dall’IA e dei deepfake, ed esplora le implicazioni etiche, legali e sociali. Analizziamo anche gli sviluppi attuali ad agosto 2025 – dalla protesta pubblica e gli avvertimenti degli esperti alle nuove leggi volte a limitare il “revenge porn” tramite IA. L’obiettivo: capire come la “Spicy Mode” sia diventata l’ultimo punto critico nella crisi in corso dei contenuti NSFW generati dall’IA, e cosa si possa fare al riguardo.

La “Spicy Mode” di Grok – Deepfake NSFW e un pregiudizio incorporato

Grok Imagine è il generatore di immagini e video di xAI (disponibile per gli abbonati paganti sulla piattaforma X di Musk) e in particolare permette agli utenti di creare contenuti per adulti tramite una modalità “Spicy” gizmodo.com. Mentre gli strumenti di IA mainstream come Veo di Google e Sora di OpenAI vietano immagini esplicite o di celebrità, la modalità Spicy di Grok le incoraggia attivamente avclub.com avclub.com. I test di The Verge hanno mostrato che l’IA “non ha esitato a generare video completamente senza censura di Taylor Swift a seno nudo” al primo tentativo – senza nemmeno che fosse richiesta la nudità theverge.com. Allo stesso modo, Deadline ha scoperto che era estremamente facile far generare a Grok un’immagine di Scarlett Johansson che mostra la biancheria intima avclub.com. In netto contrasto, i tentativi di produrre nudità maschile non hanno avuto successo. Come riporta Gizmodo, “realizzava solo quelle che raffiguravano donne davvero non adatte all’ambiente di lavoro. I video di uomini erano il tipo di cose che non avrebbero davvero destato molte reazioni.” gizmodo.com In pratica, la modalità Spicy di Grok può al massimo mostrare un uomo a torso nudo, mentre le donne vengono rappresentate a seno nudo o completamente nude.

Questa palese doppia morale ha sollevato allarmi. Grok genererà una clip in stile softcore pornografico di una figura pubblica femminile con un semplice clic gizmodo.com, ma lo stesso filtro “Spicy” apparentemente si ferma alla sola nudità del torso per i maschi gizmodo.com. Matt Novak di Gizmodo ha persino provato a inserire come prompt un uomo generico, non famoso, rispetto a una donna generica: l’avatar maschile si tirava goffamente i pantaloni ma restava coperto, mentre l’avatar femminile mostrava subito il seno gizmodo.com. Tali risultati suggeriscono un pregiudizio di genere incorporato nella moderazione dei contenuti dell’IA (sia intenzionale che come sottoprodotto del suo addestramento). Lo stesso passato di Musk con commenti misogini – dall’aver amplificato affermazioni secondo cui le donne sarebbero “deboli” gizmodo.com fino a scherzare sull’impregnare Taylor Swift – alimenta i sospetti che questo pregiudizio sia più una caratteristica che un difetto gizmodo.com.

Capacità e Limitazioni: Vale la pena notare che i deepfake di Grok sono spesso di bassa qualità. Le somiglianze con le celebrità che produce sono frequentemente poco convincenti o piene di glitch gizmodo.com gizmodo.com. (Ad esempio, le immagini che dovevano rappresentare l’attrice Sydney Sweeney o il politico J.D. Vance non assomigliavano affatto alle loro controparti reali gizmodo.com.) Errori di continuità bizzarri – come un uomo che indossa pantaloni con gambe spaiate in un video – sono comuni gizmodo.com. Grok genera anche automaticamente musica di sottofondo generica o audio per ogni clip, aggiungendo all’atmosfera surreale della “uncanny valley” gizmodo.com. Queste carenze tecniche potrebbero essere una salvezza per xAI in questo momento, poiché falsificazioni nude davvero realistiche di persone famose scatenerebbero quasi certamente cause legali e ingiunzioni gizmodo.com. Come ha scherzato Gizmodo, la migliore difesa di Musk contro azioni legali potrebbe essere che “le immagini non ci assomigliano nemmeno lontanamente” alle vere celebrità gizmodo.com. Ma la tecnologia sta migliorando rapidamente, e anche questi deepfake imperfetti sono abbastanza riconoscibili da essere preoccupanti avclub.com.

Risposta pubblica: Il lancio della “Modalità Piccante” ha immediatamente suscitato indignazione sui social media e sulla stampa. Nel giro di pochi giorni dal lancio di Grok Imagine, X (Twitter) è stato sommerso da immagini generate dall’IA di donne nude, con utenti che condividevano con entusiasmo suggerimenti su come massimizzare la nudità nei loro prompt gizmodo.com. Questo ha suscitato ampie critiche secondo cui Musk avrebbe di fatto aperto le porte a molestie e sfruttamento sessuale alimentati dall’IA. “Gran parte dei contenuti di Grok Imagine che Musk ha condiviso o ripubblicato sono clip di bionde formose dall’aspetto generico o donne in abiti fantasy succinti,” ha osservato l’A.V. Club, notando che Musk sembra intenzionato a entrare nel territorio di Pornhub avclub.com avclub.com. Blogger tecnologici e commentatori hanno suggerito ironicamente che Musk stia “praticamente implorando una causa da parte di Taylor Swift” per i nudi generati automaticamente da Grok avclub.com. In effetti, alcuni commentatori hanno esortato bersagli di alto profilo come la Swift a portare Musk in tribunale e “rendere il mondo più sicuro per altre donne e ragazze” avclub.com. Finora, non ci sono indicazioni pubbliche di azioni legali da parte del team di Swift o di altri – ma le richieste di responsabilità si fanno sempre più forti.

Anche al di fuori della controversia su Grok, il 2024 ha visto una grande protesta pubblica per il porno generato dall’IA su X. In un caso, immagini pornografiche deepfake di Taylor Swift si sono diffuse rapidamente sulla piattaforma, con una foto falsa che ha raggiunto 47 milioni di visualizzazioni prima di essere rimossa theguardian.com. I fan si sono mobilitati in massa per segnalare le immagini, e persino la Casa Bianca è intervenuta, definendo la situazione “allarmante” theguardian.com. Il caso di Swift è eccezionale solo per l’attenzione ricevuta; innumerevoli donne (famose o meno) hanno visto la propria immagine trasformata in contenuti espliciti che le piattaforme non riescono a rimuovere rapidamente theguardian.com theguardian.com. La rabbia pubblica intorno a questi episodi – e ora intorno alla modalità NSFW integrata di Grok – riflette un consenso crescente sul fatto che gli strumenti di IA che permettono deepfake sessuali stanno superando i limiti etici.

La rapida ascesa dei contenuti NSFW e dei deepfake generati dall’IA

L’episodio di Grok è l’ultimo capitolo di una tendenza preoccupante: il porno generato dall’IA (“deepfake porn”) è esploso in termini di diffusione negli ultimi anni. Il fenomeno ha acquisito notorietà per la prima volta nel 2017, quando appassionati su Reddit hanno iniziato a usare i primi algoritmi di deep learning per sovrapporre i volti delle celebrità ai corpi di attori porno. Già nel 2018, i cosiddetti video “deepfake” di Gal Gadot, Emma Watson, Scarlett Johansson e altri si stavano diffondendo sui siti per adulti – portando piattaforme come Reddit, Twitter e Pornhub a vietare tali contenuti non consensuali theguardian.com theverge.com.

Nonostante quei primi divieti, l’industria del deepfake porn si è spostata nell’ombra e ha continuato a crescere. Alla fine del 2019, un rapporto fondamentale della società di cybersecurity Deeptrace ha rilevato che il 96% di tutti i video deepfake che circolavano online erano pornografici, con scambi di volti non consensuali, con vittime quasi esclusivamente donne regmedia.co.uk. I quattro principali siti di deepfake porn analizzati avevano accumulato oltre 134 milioni di visualizzazioni su video che prendevano di mira “centinaia di celebrità femminili in tutto il mondo.” regmedia.co.uk Questo squilibrio era evidente: le vittime erano in stragrande maggioranza donne, e i consumatori erano in stragrande maggioranza interessati alle donne come oggetti sessuali. “Il 99% dei video deepfake a sfondo sessuale coinvolge donne, di solito celebrità femminili,” ha osservato la professoressa di diritto Danielle Citron, sottolineando come queste creazioni “ti rendono un oggetto sessuale in modi che non hai scelto” nymag.com. “Non c’è nulla di sbagliato nella pornografia finché la scegli tu,” ha aggiunto Citron – l’orrore dei deepfake è che queste donne non hanno mai scelto di vedere la propria immagine usata in scene esplicite nymag.com.

All’inizio, i deepfake di celebrità dominavano la scena, ma ora persone comuni sono sempre più prese di mira. Nel gennaio 2023, la community di streaming su Twitch è stata scossa da uno scandalo quando il popolare streamer Brandon “Atrioc” Ewing ha rivelato accidentalmente di aver visitato un sito di deepfake porn che vendeva video espliciti di streamer donne – montando i loro volti sui corpi di attrici porno polygon.com. Le donne coinvolte (alcune delle quali erano amiche personali di Atrioc) sono rimaste devastate e hanno subito ondate di molestie una volta che i deepfake sono venuti alla luce polygon.com. Una delle vittime, la streamer QTCinderella, ha rilasciato una dichiarazione in lacrime denunciando la violazione e in seguito ha contribuito a organizzare sforzi legali per far rimuovere tali contenuti polygon.com polygon.com. Lo scandalo “Twitch deepfake” ha sottolineato che non bisogna essere una star di Hollywood perché questo accada – qualsiasi persona con immagini online è potenzialmente vulnerabile a essere “spogliata” dall’IA contro la propria volontà.

L’ascesa di strumenti di intelligenza artificiale facili da usare ha solo accelerato la tendenza. Nel 2019, un’app chiamata DeepNude è diventata brevemente virale per aver utilizzato l’IA per “spogliare” le foto di donne con un semplice clic, producendo falsi nudi onezero.medium.com. Sebbene il creatore di DeepNude l’abbia chiusa a seguito della reazione pubblica, il genio era ormai uscito dalla bottiglia. Tra il 2023 e il 2025, generatori di immagini open-source (come le derivate di Stable Diffusion) e servizi deepfake dedicati hanno reso banale per chiunque abbia a disposizione alcune foto e una minima dimestichezza tecnologica creare immagini nude o sessuali di altre persone. Alcuni forum scambiano apertamente nudi generati dall’IA di donne presi dai social media. Come ha lamentato una vittima streamer di Twitch dopo aver scoperto falsi pornografici su di sé, “Questo non ha nulla a che fare con me. Eppure è qui con la mia faccia.” theguardian.com Il senso di violazione e impotenza è palpabile tra coloro che sono stati “vittime digitali”.

In breve, l’IA ha democratizzato la capacità di creare falsi pornografici, e questa possibilità è stata sfruttata in modo sproporzionato contro le donne. Non sono solo le celebrità a essere nel mirino – ora è chiunque, da giornalisti e attivisti (che possono essere presi di mira per intimidire o screditare) a ex-partner e persone comuni (presi di mira da individui vendicativi o per ricatti). L’avvento di funzionalità come la modalità Spicy di Grok – che ha dato un timbro ufficiale, facile da usare, a ciò che prima era una pratica sotterranea – segnala che l’IA generativa NSFW è davvero entrata nel mainstream, trascinando con sé tutto il suo bagaglio etico.

Implicazioni etiche, legali e sociali della pornografia generata dall’IA

L’indignazione etica per la deepfake porn è diffusa. Alla base, creare o condividere contenuti sessuali di qualcuno senza il suo consenso è una profonda violazione della privacy, della dignità e dell’autonomia. Come sostengono Citron e altri eticisti, si tratta di più di un semplice abuso basato sulle immagini – è una forma di sfruttamento sessuale. Le vittime descrivono sentimenti di “impotenza, umiliazione e terrore” sapendo che sconosciuti (o abusatori) stanno guardando video falsi di loro in atti sessuali mai compiuti. Può equivalere a una forma virtuale di aggressione sessuale, lasciando traumi duraturi. Non sorprende che donne e ragazze ne subiscano le conseguenze peggiori: “I deepfake intimi non consensuali” sono “una minaccia attuale, grave e in crescita, che colpisce in modo sproporzionato le donne,” concludono i ricercatori sciencedirect.com.

C’è anche una sottotraccia misogina in gran parte di questi contenuti. Gli esperti notano che il porno deepfake viene spesso usato come arma per degradare le donne che occupano posizioni di potere o che rifiutano le avance di qualcuno. “Il porno generato dall’IA, alimentato dalla misoginia, sta invadendo internet,” ha osservato The Guardian durante il clamore per il deepfake su Taylor Swift theguardian.com. Il semplice atto di spogliare una donna tramite l’IA può essere visto come un tentativo di “rimetterla al suo posto”. “Sono uomini che dicono a una donna potente di tornare nella sua scatola,” come ha descritto un osservatore il clima attorno all’incidente Swift. Che si tratti di troll anonimi che producono immagini di una politica nuda, o di un fan ossessionato che crea falsi video porno di una pop star, il messaggio è simile: una forma di oggettivazione e intimidazione digitale.

Oltre al danno individuale, le implicazioni sociali sono inquietanti. Se chiunque può essere sovrapposto alla pornografia, i media visivi non possono più essere considerati affidabili. I deepfake minacciano danni reputazionali ed estorsioni su larga scala. Le donne sotto i riflettori potrebbero autocensurarsi o ritirarsi dall’attività online per paura di essere prese di mira. C’è anche un effetto raggelante sulla libertà di espressione: immaginate una giornalista critica verso un regime che si ritrova protagonista di un realistico video porno falso diffuso per screditarla. Nel complesso, la normalizzazione di “porno su misura” con partecipanti non consenzienti solleva domande su consenso, sexploitation e mercificazione dell’immagine umana. Anche per l’intrattenimento per adulti consenziente, alcuni temono che performer generati dall’IA possano sostituire i modelli reali – ma quando quei performer IA indossano i volti reali di persone rubati da Facebook o Instagram, il confine del consenso è chiaramente superato.

Libertà di espressione vs. Privacy: Esiste una tensione tra chi chiede di vietare tutti i deepfake pornografici e i sostenitori della libertà di espressione preoccupati per possibili eccessi. Un deepfake di una celebrità potrebbe mai essere considerato una parodia o un’opera d’arte legittima? In teoria sì: la satira e la parodia sono espressioni protette, anche utilizzando l’immagine di personaggi pubblici. Alcuni difensori della tecnologia AI fanno notare che immagini modificate di personaggi pubblici fanno parte da tempo della cultura popolare (ad esempio, copertine di riviste ritoccate con Photoshop), sostenendo che una criminalizzazione impulsiva potrebbe frenare la creatività. Tuttavia, anche la maggior parte degli studiosi della libertà di espressione traccia un limite alle rappresentazioni sessuali non consensuali. Il danno per l’individuo è così intenso e personale che supera probabilmente qualsiasi interesse pubblico. Gli esperti legali sottolineano che le leggi su diffamazione o molestie potrebbero coprire alcuni casi, ma non tutti. C’è un consenso crescente sul fatto che sono necessarie nuove tutele legali per affrontare specificamente il deepfake pornografico, senza compromettere l’espressione legittima apnews.com apnews.com. Redigere queste leggi in modo preciso – per punire gli abusi evidenti senza colpire satira o erotismo consensuale – è una sfida con cui i legislatori si stanno ora confrontando apnews.com apnews.com.

Sviluppi attuali (a agosto 2025): dalla reazione contro la tecnologia a nuove leggi

La controversia intorno alla modalità “Spicy” di Grok arriva in un momento in cui governi e piattaforme di tutto il mondo stanno finalmente agendo per combattere l’epidemia di immagini intime generate dall’IA. Ecco alcuni degli ultimi sviluppi:

  • Indignazione nazionale e attivismo: Gli episodi virali che hanno coinvolto Taylor Swift e altri hanno galvanizzato l’opinione pubblica. Perfino la Casa Bianca degli Stati Uniti ha commentato i deepfake su Swift, come già detto, definendoli “allarmanti” theguardian.com. Gruppi di advocacy come il National Center on Sexual Exploitation si sono espressi apertamente, condannando la xAI di Musk per “favorire lo sfruttamento sessuale consentendo ai video AI di creare nudità” e sollecitando la rimozione di tali funzionalità time.com. “xAI dovrebbe cercare modi per prevenire abusi e sfruttamento sessuale,” ha dichiarato Haley McNamara di NCOSE in un comunicato, riflettendo una spinta più ampia da parte della società civile time.com.
  • I sondaggi mostrano un ampio sostegno pubblico ai divieti: Sondaggi recenti mostrano che l’opinione pubblica è decisamente a favore di una regolamentazione più severa. Un sondaggio del gennaio 2025 dell’Artificial Intelligence Policy Institute ha rilevato che l’84% degli americani sostiene che la pornografia deepfake non consensuale sia resa esplicitamente illegale, e desidera allo stesso modo che le aziende di AI “limitino i modelli [di AI] per impedirne l’uso nella creazione di pornografia deepfake.” time.com. Un sondaggio Pew Research del 2019 ha ugualmente rilevato che circa tre quarti degli adulti statunitensi sono favorevoli a limiti sui video/immagini digitalmente alterati time.com. In breve, gli elettori di tutto lo spettro sembrano volere azioni contro questa forma di abuso.
  • Nuove leggi e proposte di legge: I legislatori hanno ascoltato la richiesta. Negli Stati Uniti, il Take It Down Act è stato firmato come legge a maggio 2025, segnando la prima legislazione federale che prende di mira la pornografia deepfake time.com. Questa legge bipartisan rende illegale “pubblicare o minacciare di pubblicare consapevolmente” immagini intime senza consenso – incluse le deepfake create dall’IA – e richiede alle piattaforme di rimuovere tale materiale entro 48 ore dalla segnalazione della vittima apnews.com apnews.com. Le sanzioni sono severe, e la legge dà potere alle vittime di far rimuovere rapidamente i contenuti apnews.com apnews.com. “Dobbiamo fornire alle vittime di abusi online le tutele legali di cui hanno bisogno, soprattutto ora che i deepfake stanno creando nuove, terrificanti opportunità di abuso,” ha dichiarato la senatrice Amy Klobuchar, co-sponsor, definendo la legge “una grande vittoria per le vittime di abusi online.” apnews.com apnews.com Anche prima della legge federale, oltre 15 stati americani avevano già vietato la creazione o la distribuzione di deepfake espliciti (spesso aggiornando le leggi sul “revenge porn”). Ora sta emergendo uno standard federale unificato. Anche altri paesi si stanno muovendo in parallelo. Il governo del Regno Unito, ad esempio, ha criminalizzato la condivisione di pornografia deepfake nel suo Online Safety Act (in vigore dai primi mesi del 2024), e sta avanzando una legislazione per criminalizzare anche la creazione di deepfake sessualmente espliciti senza consenso hsfkramer.com hsfkramer.com. A gennaio 2025 il Regno Unito ha ripresentato una proposta per rendere illegale la creazione di nudi deepfake, sottolineandola come “uno sviluppo fondamentale per la protezione di donne e ragazze.” <a href=”https://www.hsfkramer.com/notes/tmt/2024-05/criminalising-deepfakes-the-uks-new-offences-following-the-online-safety-act#:~:text=Further%20update%3A%20On%207%20January,Act%2020hsfkramer.com hsfkramer.com L’Australia ha approvato una legge nel 2024 che vieta sia la creazione che la distribuzione di materiale sessuale deepfake, e la Corea del Sud si è spinta fino a proporre la criminalizzazione persino del possesso o della visione di tale pornografia deepfake (non solo della sua produzione) hsfkramer.com. La tendenza globale è chiara: le immagini sessuali AI non consensuali vengono considerate un crimine. I legislatori riconoscono che queste immagini “possono rovinare vite e reputazioni,” come ha affermato Klobuchar apnews.com, e stanno agendo – anche se gruppi a tutela della libertà di espressione come EFF avvertono che leggi scritte male potrebbero portare a una censura eccessiva o a un uso improprio apnews.com apnews.com.
  • Politiche delle piattaforme tecnologiche: Le principali piattaforme tecnologiche hanno iniziato ad aggiornare le loro politiche (almeno sulla carta) per affrontare i contenuti sessuali creati dall’IA. Facebook, Instagram, Reddit e il tradizionale Twitter vietano ufficialmente le immagini intime non consensuali, inclusi i deepfake theguardian.com theverge.com. Pornhub e altri siti per adulti hanno anche istituito divieti sui contenuti generati dall’IA che raffigurano persone reali senza consenso già dal 2018 theguardian.com theverge.com. Nella pratica, l’applicazione rimane irregolare – un utente determinato può ancora trovare o condividere deepfake illeciti su molte piattaforme. Tuttavia, ci sono segnali di progresso: ad esempio, dopo l’incidente Swift, X (Twitter) ha effettivamente risposto bloccando le ricerche per il suo nome per fermare la diffusione theguardian.com theguardian.com. Reddit non solo vieta il porno deepfake, ma ha chiuso intere comunità che scambiavano tale materiale. YouTube e TikTok hanno anch’essi politiche che vietano immagini esplicite manipolate dall’IA. La sfida è la scala e il rilevamento – ed è qui che viene applicata la nuova tecnologia.
  • Rilevamento e misure di salvaguardia: Un settore in crescita di soluzioni tecnologiche mira a rilevare e rimuovere il porno deepfake. Aziende di IA come Sensity (precedentemente Deeptrace) e startup come Ceartas stanno sviluppando algoritmi di rilevamento che scansionano Internet alla ricerca del volto di una persona nei contenuti pornografici e segnalano le corrispondenze polygon.com polygon.com. In effetti, dopo lo scandalo di Twitch, Atrioc ha collaborato con Ceartas per aiutare le streamer vittime: l’azienda ha utilizzato la sua IA per individuare contenuti deepfake di quelle donne e presentare richieste di rimozione DMCA polygon.com polygon.com. OnlyFans, una piattaforma con un interesse diretto nella protezione dei creator, ha anch’essa adottato tali strumenti per monitorare i contenuti falsi delle sue modelle polygon.com. Si sta inoltre lavorando all’inserimento di filigrane o metadati nelle immagini generate dall’IA per aiutare a identificare i falsi, così come a proposte per richiedere la autenticazione crittografica delle immagini reali (in modo che le immagini non etichettate possano essere considerate false). Inoltre, l’AI Act dell’Unione Europea (approvato nel 2024) include disposizioni secondo cui gli sviluppatori di strumenti deepfake devono garantire che i risultati siano chiaramente etichettati come generati dall’IA bioid.com. Diversi stati USA (e l’UE) stanno valutando l’obbligo che qualsiasi contenuto alterato dall’IA sia accompagnato da una dichiarazione al momento della pubblicazione cjel.law.columbia.edu bioid.com. Sebbene tali etichette non impediranno agli attori malintenzionati di rimuoverle, rappresentano un tentativo di stabilire norme di trasparenza attorno ai media sintetici.
  • Piattaforma vs. X di Musk: Vale la pena sottolineare quanto sia insolito l’approccio di Musk con X e xAI. Mentre la maggior parte delle piattaforme sta inasprendo le restrizioni, Musk le ha sostanzialmente allentate, attirando una base di utenti che desidera capacità di IA “trasgressive”. X non solo non ha vietato i risultati di Grok; è la casa di Grok. Questa divergenza ha messo X in contrasto con molti esperti. Nell’agosto 2024, un gruppo di legislatori democratici ha citato specificamente Grok di Musk in una lettera ai regolatori, avvertendo che politiche lassiste sui deepfake (inclusi quelli espliciti di figure come Kamala Harris o Taylor Swift) potrebbero causare il caos nelle elezioni e oltre time.com. Sembra che Musk stia scommettendo che soddisfare la domanda di erotismo generato dall’IA (e persino di compagni di chat IA che flirtano o si spogliano, come dimostrano le nuove funzionalità di xAI time.com) porterà entrate e utenti. Ma la reazione negativa – legale, sociale e potenzialmente finanziaria (a causa delle preoccupazioni degli inserzionisti) – potrebbe raccontare una storia diversa sul lungo periodo.

Proposte politiche e la strada da seguire: possiamo frenare il porno deepfake?

Il consenso tra i responsabili politici e gli eticisti è che sia necessaria un’azione su più fronti per affrontare i contenuti NSFW generati dall’IA. Le principali proposte e idee includono:

  • Leggi più forti e applicazione rigorosa: Come già detto, leggi come il Take It Down Act sono un inizio. Gli esperti suggeriscono ulteriori perfezionamenti, come rendere l’atto di creare un’immagine sessuale falsa di qualcuno senza consenso un reato, non solo la sua distribuzione. (Il Regno Unito si sta muovendo in questa direzione hsfkramer.com hsfkramer.com.) Sanzioni legali chiare per i colpevoli – e per coloro che consapevolmente ospitano o traggono profitto da tali contenuti – possono fungere da deterrente. È importante che qualsiasi legislazione sia attentamente definita per evitare di criminalizzare involontariamente arte erotica consensuale o legittima satira politica apnews.com apnews.com. Anche i rimedi civili sono fondamentali: le vittime devono avere vie semplici per citare in giudizio per danni e ottenere ordini del tribunale per rimuovere i contenuti. Molti sostenitori vogliono vedere eccezioni alla Sezione 230 (la legge statunitense che protegge le piattaforme dalla responsabilità per i contenuti degli utenti) in modo che i siti web possano essere ritenuti responsabili se non rispondono alle richieste di rimozione di porno deepfake. Questo spingerebbe le piattaforme a essere molto più vigili.
  • Paletti tecnologici: Dal lato dello sviluppo, le proposte suggeriscono che i creatori di modelli AI dovrebbero integrare misure preventive. Ad esempio, le aziende potrebbero addestrare filtri di contenuto per rilevare quando un prompt dell’utente coinvolge il nome o l’immagine di una persona reale e bloccare qualsiasi output esplicito che la riguardi. (Alcuni generatori di immagini AI già rifiutano prompt che sembrano riferirsi a persone private o producono nudità di personaggi pubblici – Grok di xAI è un’eccezione in quanto non lo fa avclub.com.) Un’altra idea è richiedere la verifica del consenso per generazioni esplicite: ad esempio, un servizio AI potrebbe generare un’immagine di nudo solo se l’utente dimostra che il soggetto è se stesso o un modello consenziente. Ovviamente, i malintenzionati potrebbero semplicemente usare modelli open-source senza tali filtri, ma se le principali piattaforme adottassero paletti rigorosi, si potrebbe limitare la diffusione mainstream. Anche la verifica dell’età è una preoccupazione – l’unico controllo di Grok era un prompt sulla data di nascita facilmente aggirabile gizmodo.com – quindi si richiedono sistemi di controllo dell’età più robusti per garantire che i minori (spesso vittime di bullismo tramite falsi nudi) non possano usare questi strumenti né esserne rappresentati.
  • Ricerca e rilevamento: I governi stanno finanziando la ricerca sul rilevamento dei deepfake e le aziende stanno collaborando su standard per autenticare i media. L’obiettivo è rendere più facile identificare e rimuovere rapidamente i porno falsi quando compaiono. Tuttavia, il rilevamento sarà sempre un gioco del gatto col topo man mano che i fake AI diventano più sofisticati. Alcuni esperti ritengono che l’attenzione dovrebbe spostarsi sulla prevenzione del danno (attraverso sanzioni legali ed educazione) piuttosto che sperare in un “rilevatore di falsi” tecnico che intercetti tutto. Tuttavia, i progressi dell’AI per il bene – come un migliore hashing delle immagini per tracciare i fake noti, o strumenti per consentire agli individui di scoprire se la propria immagine è stata usata impropriamente – avranno un ruolo nella mitigazione.
  • Responsabilità delle piattaforme: I gruppi di advocacy sostengono che le piattaforme social e di contenuti per adulti debbano sorvegliare proattivamente i contenuti pornografici AI. Questo potrebbe significare investire in team di moderazione dei contenuti esperti nel riconoscere i deepfake, collaborare con le forze dell’ordine per gli ordini di rimozione e bandire i recidivi che creano o condividono materiale non consensuale. Alcuni chiedono anche sistemi di opt-out o registri, in cui le persone possano registrare la propria immagine (o quella dei figli) e le piattaforme debbano garantire che nessun contenuto AI che li rappresenti sia consentito – anche se amministrativamente sarebbe difficile da far rispettare. Al minimo, protocolli di risposta rapida – come il requisito di rimozione entro 48 ore previsto dalla legge statunitense apnews.com – devono diventare prassi standard su tutte le piattaforme a livello globale.
  • Educazione e norme: Infine, parte della soluzione risiede nel cambiare le norme sociali. Proprio come la società è arrivata a condannare ampiamente il “revenge porn” e a riconoscerlo come una forma di abuso, si spera che il deepfake porn venga universalmente stigmatizzato. Se la persona comune comprende il danno e si rifiuta di condividere o consumare tali contenuti, la domanda diminuirà. Gli esperti di etica tecnologica sottolineano l’importanza della alfabetizzazione mediatica – insegnare alle persone che vedere non significa sempre credere, e che una foto scandalosa della Celebrità X potrebbe essere falsa. Dare alle nuove generazioni gli strumenti per navigare criticamente in un mondo di media alterati dall’IA sarà fondamentale. Lo saranno anche le campagne per informare i potenziali autori che creare questi falsi non è uno scherzo – è una grave violazione con possibili conseguenze penali.

Conclusione

L’emergere della “Spicy Mode” di Grok ha gettato benzina su un fuoco già acceso riguardo a IA e deepfake pornografici espliciti. Lo strumento di IA di Elon Musk, rendendo facile e persino “ufficiale” generare sosia nudi di celebrità, ha scatenato una rapida reazione – e ha puntato i riflettori sulla più ampia crisi del deepfake porn. Dai corridoi del Congresso ai thread di commento nei forum tecnologici, cresce il consenso sul fatto che qualcosa deve essere fatto per proteggere le persone (soprattutto le donne) dalle applicazioni più oscure di questa tecnologia.

Come abbiamo visto, i contenuti NSFW generati dall’IA non sono una novità isolata – sono una sfida sociale in crescita. Mettono in contrapposizione la libertà creativa e l’innovazione tecnologica con la privacy, il consenso e la sicurezza. Il genio non tornerà nella bottiglia, ma attraverso politiche intelligenti, sviluppo tecnologico responsabile e cambiamento culturale, possiamo sperare di contenere i danni. I prossimi mesi e anni porteranno probabilmente più cause legali, più leggi e migliori tutele dell’IA. Grok di Musk potrebbe adattarsi sotto pressione o diventare un monito di un’impresa di IA che ha ignorato i limiti etici a proprio rischio e pericolo.

Per ora, il messaggio di esperti e opinione pubblica è chiaro: il deepfake porn è un limite che l’IA non deve superare. E se aziende come xAI non tracceranno da sole quel limite, regolatori e società sono sempre più pronti a farlo al loro posto. Come ha detto un sostenitore dell’etica tecnologica, “Vedere la propria immagine trasformata in pornografia senza consenso è devastante – è ora di trattarla come il grave abuso che è, e non come un’inevitabilità della tecnologia.” Il dibattito non è più se sia necessario agire, ma quanto rapidamente ed efficacemente possiamo frenare lo sfruttamento sessuale alimentato dall’IA, prima che altre vite vengano sconvolte dalla prossima innovazione ‘Spicy’.

Fonti:

  • Novak, Matt. “La ‘Spicy’ Mode di Grok crea deepfake NSFW di celebrità donne (ma non uomini).Gizmodo, 6 agosto 2025 gizmodo.com gizmodo.com.
  • Weatherbed, Jess. “L’impostazione video ‘Spicy’ di Grok mi ha immediatamente creato deepfake nudi di Taylor Swift.The Verge, 5 ago 2025 theverge.com.
  • Carr, Mary Kate. “Elon Musk sta praticamente implorando una causa legale da Taylor Swift con i deepfake nudi di Grok AI.AV Club, 7 ago 2025 avclub.com avclub.com.
  • Saner, Emine. “Dentro lo scandalo dei deepfake su Taylor Swift: ‘Sono uomini che dicono a una donna potente di tornare al suo posto’.The Guardian, 31 gen 2024 theguardian.com theguardian.com.
  • Clark, Nicole. “Lo streamer che ha scatenato lo scandalo del deepfake porno su Twitch torna.Polygon, 16 mar 2023 polygon.com polygon.com.
  • Patrini, Giorgio. “Lo stato dei Deepfake.” Deeptrace Labs Report, ott. 2019 regmedia.co.uk.
  • Citron, Danielle. Intervista in NYMag Intelligencer, ott. 2019 nymag.com.
  • Ortutay, Barbara. “Il presidente Trump firma il Take It Down Act, affrontando i deepfake non consensuali. Di cosa si tratta?AP News, ago 2025 apnews.com apnews.com.
  • Burga, Solcyre. “Elon Musk’s Grok permetterà presto agli utenti di creare video AI, anche di natura esplicita.TIME, ago. 2025 time.com time.com.
  • Herbert Smith Freehills Law Firm. “Criminalizzazione dei deepfake – i nuovi reati del Regno Unito…,” 21 maggio 2024 hsfkramer.com hsfkramer.com.

Tags: , ,