LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

Modulul AI „Spicy” al lui Elon Musk declanșează un scandal NSFW cu deepfake – De ce femeile sunt țintele noii crize de pornografie AI

Modulul AI „Spicy” al lui Elon Musk declanșează un scandal NSFW cu deepfake – De ce femeile sunt țintele noii crize de pornografie AI

Grok 4: Inside Elon Musk’s Most Powerful (and Controversial) AI Chatbot Yet

Noua inițiativă AI a lui Elon Musk este criticată pentru generarea de deepfake-uri nud fără consimțământ cu celebrități – și pentru că face acest lucru într-un mod tulburător de părtinitor din punct de vedere al genului. O investigație recentă Gizmodo dezvăluie că instrumentul Grok Imagine al lui Musk, cu modul său „Spicy”, creează cu ușurință videoclipuri NSFW cu femei celebre (gândiți-vă la Taylor Swift sau Melania Trump), dar refuză să facă același lucru pentru bărbați gizmodo.com gizmodo.com. Acest raport analizează concluziile Gizmodo despre funcția controversată a lui Grok, examinează creșterea rapidă a conținutului pornografic generat de AI și a deepfake-urilor, și explorează implicațiile etice, legale și sociale. De asemenea, trecem în revistă evoluțiile actuale din august 2025 – de la indignarea publică și avertismentele experților la noile legi menite să limiteze “revenge porn”-ul AI. Scopul: să înțelegem cum “Spicy Mode” a devenit cel mai recent punct sensibil în criza continuă a conținutului NSFW generat de AI și ce se poate face în această privință.

“Spicy Mode” al lui Grok – Deepfake-uri NSFW și o părtinire încorporată

Grok Imagine este generatorul de imagini și videoclipuri al xAI (disponibil pentru abonații plătitori pe platforma X a lui Musk) și, notabil, permite utilizatorilor să creeze conținut pentru adulți printr-un mod „Spicy” gizmodo.com. În timp ce instrumentele AI mainstream precum Veo de la Google și Sora de la OpenAI interzic imaginile explicite sau cu celebrități, modul Spicy al Grok încurajează activ acest lucru avclub.com avclub.com. Testele realizate de The Verge au arătat că AI-ul „nu a ezitat să genereze videoclipuri complet necenzurate cu Taylor Swift topless” din prima încercare – fără a i se cere explicit nuditate theverge.com. În mod similar, Deadline a constatat că este extrem de ușor să faci ca Grok să genereze o imagine cu Scarlett Johansson arătându-și lenjeria intimă avclub.com. În contrast puternic, încercările de a produce nuditate masculină nu au avut succes. După cum relatează Gizmodo, „ar genera doar imagini cu femei cu adevărat nepotrivite pentru muncă. Videoclipurile cu bărbați erau de un tip care nu ar atrage prea multă atenție.” gizmodo.com În practică, modul Spicy al Grok ar putea cel mult să arate un bărbat fără cămașă, în timp ce femeile sunt redate topless sau complet dezbrăcate.

Această dublă măsură flagrantă a stârnit îngrijorări. Grok va genera un clip în stil porno softcore cu o personalitate publică feminină la o simplă apăsare de buton gizmodo.com, însă același filtru „Spicy” aparent se oprește la simpla dezgolire a pieptului pentru bărbați gizmodo.com. Matt Novak de la Gizmodo a încercat chiar să folosească un prompt cu un bărbat generic, necunoscut, versus o femeie generică: avatarul masculin își trăgea stânjenit pantalonii, dar rămânea acoperit, în timp ce avatarul feminin își dezgolea prompt sânii gizmodo.com. Astfel de rezultate sugerează o prejudecată de gen încorporată în moderarea conținutului AI (fie intenționat, fie ca rezultat al modului în care a fost antrenat). Propriul istoric al lui Musk cu remarci misogine – de la amplificarea afirmațiilor că femeile sunt „slabe” gizmodo.com până la glume despre a o lăsa însărcinată pe Taylor Swift – alimentează suspiciunile că această prejudecată este mai degrabă o caracteristică decât o eroare gizmodo.com.

Capabilități și limitări: Merită menționat că deepfake-urile Grok sunt adesea de slabă calitate. Asemănările cu celebrități pe care le produce sunt frecvent neconvingătoare sau cu erori vizuale gizmodo.com gizmodo.com. (De exemplu, imaginile care ar fi trebuit să o reprezinte pe actrița Sydney Sweeney sau pe politicianul J.D. Vance nu semănau deloc cu persoanele reale gizmodo.com.) Erori bizare de continuitate – cum ar fi un bărbat care poartă pantaloni cu cracii nepotriviți într-un videoclip – sunt frecvente gizmodo.com. Grok generează automat și muzică de fundal generică sau audio pentru fiecare clip, ceea ce adaugă la atmosfera suprarealistă de „vale a ciudățeniei” gizmodo.com. Aceste deficiențe tehnice ar putea fi o salvare pentru xAI în acest moment, deoarece falsurile nud realiste ale persoanelor celebre ar declanșa aproape sigur procese și interdicții gizmodo.com. După cum a glumit Gizmodo, cea mai bună apărare a lui Musk împotriva acțiunilor legale ar putea fi că „imaginile nici măcar nu se apropie” de celebritățile reale gizmodo.com. Dar tehnologia se îmbunătățește rapid, iar chiar și aceste deepfake-uri imperfecte sunt suficient de recognoscibile încât să fie îngrijorătoare avclub.com.

Reacția publicului: Lansarea „Spicy Mode” a stârnit imediat indignare pe rețelele sociale și în presă. La doar câteva zile după lansarea Grok Imagine, X (Twitter) a fost inundat cu imagini generate de AI cu femei dezbrăcate, utilizatorii împărtășind cu entuziasm sfaturi despre cum să maximizeze nuditatea în solicitările lor gizmodo.com. Acest lucru a generat critici pe scară largă, susținând că Musk a deschis practic porțile către hărțuire sexuală și exploatare alimentate de AI. „O mare parte din conținutul Grok Imagine pe care Musk l-a distribuit sau repostat constă în clipuri cu blonde cu forme generice sau femei în ținute de fantezie sumare”, a observat A.V. Club, remarcând că Musk pare hotărât să intre pe teritoriul Pornhub avclub.com avclub.com. Bloggerii de tehnologie și comentatorii au sugerat în batjocură că Musk „practic imploră un proces din partea lui Taylor Swift” din cauza nudurilor generate automat de Grok avclub.com. Într-adevăr, unii comentatori au îndemnat ținte de profil înalt precum Swift să îl dea pe Musk în judecată și „să facă lumea mai sigură pentru alte femei și fete” avclub.com. Până acum, nu există nicio indicație publică de acțiune legală din partea echipei lui Swift sau a altora – însă cererile de responsabilizare devin tot mai puternice.

Chiar și în afara controversei Grok, 2024 a adus un val major de indignare publică privind pornografia generată de AI pe X. Într-un incident, imagini pornografice deepfake cu Taylor Swift s-au răspândit rapid pe platformă, o fotografie falsă ajungând la 47 de milioane de vizualizări înainte de a fi eliminată theguardian.com. Fanii s-au mobilizat în masă pentru a raporta imaginile, iar chiar și Casa Albă a intervenit, numind situația „alarmantă” theguardian.com. Cazul lui Swift este excepțional doar prin atenția primită; nenumărate femei (faimoase sau nu) și-au văzut chipul transformat în conținut explicit pe care platformele nu reușesc să-l elimine rapid theguardian.com theguardian.com. Furia publică din jurul acestor incidente – și acum din jurul modului NSFW integrat în Grok – reflectă un consens tot mai larg că instrumentele AI care permit deepfake-uri sexuale depășesc limitele etice.

Ascensiunea rapidă a conținutului NSFW generat de AI și a deepfake-urilor

Episodul Grok este cel mai recent capitol al unei tendințe îngrijorătoare: pornografia generată de AI („deepfake porn”) a explodat ca prevalență în ultimii ani. Fenomenul a devenit notoriu pentru prima dată în 2017, când amatori de pe Reddit au început să folosească algoritmi de deep learning timpurii pentru a suprapune fețele celebrităților pe corpurile actorilor porno. Până în 2018, așa-numitele videoclipuri „deepfake” cu Gal Gadot, Emma Watson, Scarlett Johansson și altele proliferau pe site-urile pentru adulți – determinând platforme precum Reddit, Twitter și Pornhub să interzică acest tip de conținut non-consensual theguardian.com theverge.com.

În ciuda acestor interdicții timpurii, industria pornografiei deepfake s-a mutat în umbră și a continuat să crească. Până la sfârșitul anului 2019, un raport de referință al firmei de securitate cibernetică Deeptrace a constatat că 96% dintre toate videoclipurile deepfake care circulau online erau pornografice, cu schimbări de fețe neconsensuale, având ca ținte aproape exclusiv femei regmedia.co.uk. Primele patru site-uri de pornografie deepfake studiate au acumulat peste 134 de milioane de vizualizări la videoclipuri care vizau „sute de celebrități feminine din întreaga lume.” regmedia.co.uk Acest dezechilibru era evident: victimele erau covârșitor femei, iar consumatorii interesați aproape exclusiv de femei ca obiecte sexuale. „99% dintre videoclipurile deepfake sexuale implică femei, de obicei celebrități feminine,” a remarcat profesoara de drept Danielle Citron, subliniind cum aceste creații „te transformă într-un obiect sexual în moduri pe care nu le-ai ales” nymag.com. „Nu e nimic rău cu pornografia atâta timp cât ai ales-o tu însuți,” a adăugat Citron – groaza deepfake-urilor este că aceste femei nu au ales niciodată ca imaginea lor să fie folosită în scene explicite nymag.com.

La început, deepfake-urile cu celebrități dominau, dar acum persoanele obișnuite sunt din ce în ce mai vizate. În ianuarie 2023, comunitatea de streaming Twitch a fost zguduită de un scandal când popularul streamer Brandon „Atrioc” Ewing a dezvăluit accidental că viziona un site de pornografie deepfake care vindea videoclipuri explicite cu streamerițe – editând fețele lor pe corpurile unor actrițe porno polygon.com. Femeile (unele dintre ele prietene personale ale lui Atrioc) au fost devastate și s-au confruntat cu valuri de hărțuire după ce deepfake-urile au ieșit la iveală polygon.com. O victimă, streamerița QTCinderella, a făcut o declarație plângând, condamnând această violare și ulterior a ajutat la organizarea unor eforturi legale pentru eliminarea acestui tip de conținut polygon.com polygon.com. Scandalul „Twitch deepfake” a subliniat că nu trebuie să fii o vedetă de la Hollywood ca să ți se întâmple asta – orice persoană cu imagini online este potențial vulnerabilă la a fi „percheziționată” de AI împotriva voinței sale.

Creșterea instrumentelor AI ușor de folosit nu a făcut decât să accelereze această tendință. În 2019, o aplicație numită DeepNude a devenit virală pentru scurt timp pentru că folosea AI pentru a „dezbrăca” fotografii cu femei printr-un simplu click, producând nuduri false onezero.medium.com. Deși creatorul DeepNude a închis aplicația în urma reacțiilor publice negative, răul fusese deja făcut. Până în 2023–2025, generatoarele de imagini open-source (precum derivatele Stable Diffusion) și serviciile dedicate de deepfake au făcut ca oricine are câteva fotografii și cunoștințe tehnice minime să poată crea imagini nud sau sexuale cu alte persoane. Unele forumuri fac schimb deschis cu nuduri generate de AI ale unor femei preluate de pe rețelele sociale. După ce a descoperit falsuri pornografice cu ea însăși, o victimă streamer pe Twitch a spus cu regret: „Asta nu are nicio legătură cu mine. Și totuși e aici cu fața mea.” theguardian.com Sentimentul de violare și neputință este palpabil printre cei care au fost „victime digitale”.

Pe scurt, AI a democratizat abilitatea de a crea falsuri pornografice, iar această capacitate a fost folosită în mod disproporționat împotriva femeilor. Nu doar celebritățile sunt vizate – ci oricine, de la jurnaliști și activiști (care pot fi țintiți pentru intimidare sau discreditare) la foști parteneri și persoane private (vizați de persoane răuvoitoare sau pentru șantaj). Apariția unor funcții precum modul Spicy de la Grok – care pune o ștampilă oficială, ușor de folosit, pe ceea ce era anterior o practică subterană – semnalează că AI-ul generativ NSFW a intrat cu adevărat în mainstream, aducând cu el toate problemele etice aferente.

Implicații etice, legale și sociale ale pornografiei generate de AI

Indignarea etică față de pornografia deepfake este larg răspândită. În esență, crearea sau distribuirea de conținut sexual cu o persoană fără consimțământul acesteia reprezintă o încălcare profundă a intimității, demnității și autonomiei. După cum susțin Citron și alți eticieni, nu este doar un abuz bazat pe imagini – este o formă de exploatare sexuală. Victimele descriu sentimente de „neputință, umilință și teroare” știind că străini (sau abuzatori) urmăresc videoclipuri false cu ele în acte sexuale pe care nu le-au făcut niciodată. Poate echivala cu o formă virtuală de agresiune sexuală, lăsând traume de durată. Nu e de mirare că femeile și fetele sunt cele mai afectate: „Deepfake-urile intime non-consensuale” reprezintă „o amenințare actuală, gravă și în creștere, care afectează disproporționat femeile,” concluzionează cercetătorii sciencedirect.com.

Există, de asemenea, un curent misogin în mare parte din acest conținut. Experții observă că pornografia deepfake este adesea folosită ca armă pentru a degrada femeile aflate în poziții de putere sau care resping avansurile cuiva. „Pornografia generată de AI, alimentată de misoginie, inundă internetul,” a observat The Guardian în mijlocul scandalului deepfake cu Taylor Swift theguardian.com. Chiar actul de a dezbrăca o femeie cu ajutorul AI poate fi văzut ca o încercare de a o „pune la locul ei.” „Este ca și cum bărbații îi spun unei femei puternice să revină în cutia ei,” a descris un observator atmosfera incidentului Swift. Fie că este vorba de troli anonimi care produc imagini nud cu o politiciană, fie de un fan obsedat care creează casete sexuale false cu o vedetă pop, mesajul este similar – o formă de obiectificare digitală și intimidare.

Dincolo de prejudiciul individual, implicațiile sociale sunt îngrijorătoare. Dacă oricine poate fi suprapus în materiale pornografice, media vizuală nu mai poate fi de încredere. Deepfake-urile amenință cu distrugerea reputației și șantaj la scară largă. Femeile din spațiul public pot ajunge să se autocenzureze sau să se retragă din mediul online de teamă să nu fie ținta unor astfel de atacuri. Există și un efect de răcire asupra libertății de exprimare: imaginează-ți o jurnalistă critică la adresa unui regim care se trezește subiectul unui videoclip sexual fals, realist, distribuit pentru a o discredita. Per ansamblu, normalizarea „pornografiei la comandă” cu participanți neconsimțitori ridică întrebări despre consimțământ, exploatare sexuală și comercializarea asemănării umane. Chiar și pentru divertismentul pentru adulți consimțit, unii se tem că interpreții generați de AI ar putea înlocui modelele reale – dar când acei interpreți AI poartă fețele reale ale unor persoane furate de pe Facebook sau Instagram, linia consimțământului este clar depășită.

Libertatea de exprimare vs. confidențialitate: Există o tensiune între cei care cer interzicerea tuturor deepfake-urilor pornografice și susținătorii libertății de exprimare îngrijorați de posibile abuzuri. Ar putea un deepfake cu o celebritate să fie vreodată considerat parodie sau artă legitimă? Teoretic, da – satira și parodia sunt forme de exprimare protejate, chiar și atunci când folosesc imaginea unor persoane publice. Unii apărători ai tehnologiei AI subliniază că imaginile modificate cu persoane publice fac parte de mult timp din cultura populară (de exemplu, coperți de reviste editate în Photoshop), argumentând că criminalizarea impulsivă ar putea inhiba creativitatea. Totuși, chiar și majoritatea experților în libertatea de exprimare trasează o linie clară la reprezentările sexuale non-consensuale. Prejudiciul adus persoanei este atât de intens și personal încât, probabil, depășește orice interes public. Experții juridici subliniază că legile privind defăimarea sau hărțuirea ar putea acoperi unele cazuri, dar nu pe toate. Există un consens tot mai larg că sunt necesare noi măsuri legale de protecție pentru a aborda în mod specific pornografia deepfake, fără a submina exprimarea legitimă apnews.com apnews.com. Crearea unor astfel de legi – care să pedepsească abuzurile clare fără a afecta satira sau erotica consensuală – reprezintă o provocare cu care se confruntă acum factorii de decizie apnews.com apnews.com.

Dezvoltări actuale (august 2025): De la reacția împotriva tehnologiei la noi legi

controversa din jurul modului „Spicy” al Grok apare într-un moment în care guvernele și platformele din întreaga lume încep, în sfârșit, să combată epidemia de imagini intime generate de AI. Iată câteva dintre cele mai recente evoluții:

  • Indignare națională și activism: Incidentele virale care o implică pe Taylor Swift și pe alții au galvanizat opinia publică. Chiar și Casa Albă a SUA a comentat despre deepfake-urile cu Swift, după cum s-a menționat, numindu-le „alarmante” theguardian.com. Grupuri de advocacy precum Centrul Național pentru Exploatarea Sexuală au fost vocale, condamnând xAI-ul lui Musk pentru „promovarea exploatării sexuale prin permiterea videoclipurilor AI să creeze nuditate” și cerând eliminarea acestor funcții time.com. „xAI ar trebui să caute modalități de a preveni abuzul și exploatarea sexuală,” a declarat Haley McNamara de la NCOSE într-un comunicat, reflectând o presiune mai largă din partea societății civile time.com.
  • Sondajele arată un sprijin public covârșitor pentru interdicții: Sondajele recente arată că publicul susține ferm o reglementare mai strictă. Un sondaj din ianuarie 2025 realizat de Institutul pentru Politici privind Inteligența Artificială a constatat că 84% dintre americani susțin ca pornografia deepfake non-consensuală să fie explicit ilegală, și doresc în mod similar ca firmele de AI să „restricționeze [modelele AI] pentru a preveni utilizarea lor în crearea de pornografie deepfake.” time.com. Un sondaj Pew Research din 2019 a constatat, de asemenea, că aproximativ trei sferturi dintre adulții americani sunt în favoarea limitării videoclipurilor/imaginilor modificate digital time.com. Pe scurt, alegătorii din tot spectrul par să dorească acțiuni împotriva acestei forme de abuz.
  • Noi legi și proiecte de lege: Legislatorii au răspuns apelului. În SUA, Legea Take It Down a fost semnată în mai 2025, marcând prima legislație federală care vizează pornografia deepfake time.com. Această lege bipartizană face ilegală „publicarea sau amenințarea cu publicarea” cu bună știință a imaginilor intime fără consimțământ – inclusiv deepfake-uri create cu AI – și obligă platformele să elimine astfel de materiale în termen de 48 de ore de la notificarea victimei apnews.com apnews.com. Pedepsele sunt severe, iar legea oferă victimelor puterea de a elimina rapid conținutul apnews.com apnews.com. „Trebuie să oferim victimelor abuzului online protecțiile legale de care au nevoie, mai ales acum când deepfake-urile creează noi oportunități îngrozitoare pentru abuz,” a declarat senatoarea Amy Klobuchar, co-sponsor, numind legea „o mare victorie pentru victimele abuzului online.” apnews.com apnews.com Chiar înainte de legea federală, peste 15 state americane interziseseră crearea sau distribuirea de deepfake-uri explicite (adesea prin actualizarea legislației privind „revenge porn”). Acum, apare un standard federal unificat. Alte țări acționează în același timp. Guvernul Regatului Unit, de exemplu, a incriminat partajarea pornografiei deepfake în Online Safety Act (în vigoare de la începutul lui 2024) și avansează legislația pentru a incrimina chiar și crearea de deepfake-uri sexual explicite fără consimțământ hsfkramer.com hsfkramer.com. În ianuarie 2025, Regatul Unit a reintrodus o propunere de a face ilegală crearea de nuduri deepfake, subliniind-o ca „o evoluție de referință pentru protecția femeilor și fetelor.” <a href=”https://www.hsfkramer.com/notes/tmt/2024-05/criminalising-deepfakes-the-uks-new-offences-following-the-online-safety-act#:~:text=Further%20update%3A%20On%207%20January,Act%2020hsfkramer.com hsfkramer.com Australia a adoptat o lege în 2024 care interzice atât crearea, cât și distribuirea materialelor sexuale deepfake, iar Coreea de Sud a mers chiar mai departe, propunând incriminarea chiar și a deținerii sau vizionării unui astfel de pornografie deepfake (nu doar a producerii acesteia) hsfkramer.com. Tendința globală este clară: imaginile sexuale AI non-consensuale sunt considerate o infracțiune. Legiuitorii recunosc că aceste imagini „pot distruge vieți și reputații,” după cum a spus Klobuchar apnews.com, și iau măsuri – deși organizații pentru libertatea de exprimare precum EFF avertizează că legile redactate prost ar putea duce la cenzură excesivă sau ar putea fi abuzate apnews.com apnews.com.
  • Politicile platformelor tehnologice: Marile platforme tehnologice au început să își actualizeze politicile (cel puțin pe hârtie) pentru a aborda conținutul sexual creat de AI. Facebook, Instagram, Reddit și Twitter-ul tradițional interzic oficial imaginile intime non-consensuale, inclusiv deepfake-urile theguardian.com theverge.com. Pornhub și alte site-uri pentru adulți au instituit, de asemenea, interdicții privind conținutul generat de AI care prezintă persoane reale fără consimțământ încă din 2018 theguardian.com theverge.com. În practică, aplicarea rămâne inegală – un utilizator hotărât poate încă găsi sau distribui deepfake-uri ilicite pe multe platforme. Totuși, există semne de progres: de exemplu, după incidentul Swift, X (Twitter) a reacționat în cele din urmă prin blocarea căutărilor pentru numele ei pentru a opri răspândirea theguardian.com theguardian.com. Reddit nu doar că interzice pornografia deepfake, ci a închis comunități întregi care făceau schimb de astfel de materiale. YouTube și TikTok au politici care interzic imaginile explicite manipulate de AI. Provocarea este la nivel de scală și detecție – aici intervine noua tehnologie.
  • Detectare și măsuri de protecție: O industrie de nișă în creștere oferă soluții tehnologice care urmăresc să detecteze și să elimine pornografia deepfake. Companii de AI precum Sensity (fostă Deeptrace) și startup-uri precum Ceartas dezvoltă algoritmi de detectare care scanează internetul pentru a identifica fața unei persoane în conținut pornografic și semnalează potrivirile polygon.com polygon.com. De fapt, după scandalul Twitch, Atrioc a colaborat cu Ceartas pentru a ajuta streamerii afectați: compania a folosit AI-ul său pentru a localiza conținut deepfake cu acele femei și a depus cereri de eliminare DMCA polygon.com polygon.com. OnlyFans, o platformă interesată direct de protejarea creatorilor, a apelat și ea la astfel de instrumente pentru a combate conținutul fals cu modelele sale polygon.com. Există, de asemenea, inițiative de a insera filigrane sau metadate în imaginile generate de AI pentru a ajuta la identificarea falsurilor, precum și propuneri de a impune autentificarea criptografică a imaginilor reale (astfel încât imaginile fără etichetă să fie considerate false). Mai mult, Legea AI a Uniunii Europene (adoptată în 2024) include prevederi conform cărora dezvoltatorii de instrumente deepfake trebuie să se asigure că rezultatele sunt clar etichetate ca fiind generate de AI bioid.com. Mai multe state americane (și UE) iau în considerare obligativitatea ca orice conținut modificat cu AI să fie însoțit de o dezvăluire la publicare cjel.law.columbia.edu bioid.com. Deși astfel de etichete nu îi vor opri pe actorii rău-intenționați să le elimine, ele reprezintă o încercare de a stabili norme de transparență în jurul mediilor sintetice.
  • Platforma vs. X-ul lui Musk: Merită subliniat cât de neobișnuită este abordarea lui Musk cu X și xAI. În timp ce majoritatea platformelor înăspresc restricțiile, Musk practic le-a relaxat, atrăgând o bază de utilizatori care dorește capabilități AI „controversate”. X nu doar că nu a interzis rezultatele lui Grok; este chiar casa lui Grok. Această divergență a pus X în conflict cu mulți experți. În august 2024, un grup de parlamentari democrați a menționat în mod specific Grok-ul lui Musk într-o scrisoare adresată autorităților de reglementare, avertizând că politicile permisive privind deepfake-urile (inclusiv cele explicite cu figuri precum Kamala Harris sau Taylor Swift) ar putea provoca haos în alegeri și nu numai time.com. Musk pare să parieze că satisfacerea cererii pentru erotica generată de AI (și chiar companionii AI de chat care flirtează sau se dezbracă, așa cum demonstrează noile funcții ale xAI time.com) va aduce venituri și utilizatori. Însă reacția negativă – legală, socială și potențial financiară (din cauza preocupărilor advertiserilor) – ar putea spune o altă poveste pe termen lung.

Propuneri de politici și drumul înainte: Putem controla pornografia deepfake?

Consensul printre factorii de decizie și eticieni este că este nevoie de acțiuni pe mai multe fronturi pentru a combate conținutul NSFW generat de AI. Propunerile și ideile cheie includ:

  • Legi și aplicare mai stricte: După cum s-a menționat, legi precum Take It Down Act sunt un început. Experții sugerează rafinări suplimentare, cum ar fi transformarea actului de a crea o imagine sexuală falsă a cuiva fără consimțământ într-o infracțiune, nu doar distribuirea ei. (Regatul Unit merge în această direcție hsfkramer.com hsfkramer.com.) Pedepse legale clare pentru făptași – și pentru cei care cu bună știință găzduiesc sau profită de pe urma acestui conținut – pot acționa ca factor de descurajare. Este important ca orice legislație să fie atent formulată pentru a evita incriminarea neintenționată a artei erotice consensuale sau a satirei politice legitime apnews.com apnews.com. Remediile civile sunt, de asemenea, vitale: victimele au nevoie de căi ușoare pentru a da în judecată pentru daune și a obține ordine judecătorești pentru eliminarea conținutului. Mulți susținători doresc să vadă excepții în Secțiunea 230 (legea SUA care protejează platformele de răspunderea pentru conținutul utilizatorilor) astfel încât site-urile să poată fi trase la răspundere dacă nu răspund la cererile de eliminare a pornografiei deepfake. Acest lucru ar pune presiune pe platforme să fie mult mai vigilente.
  • Limite tehnologice: Pe partea de dezvoltare, propunerile sugerează că creatorii de modele AI ar trebui să integreze măsuri de siguranță preventive. De exemplu, companiile ar putea antrena filtre de conținut pentru a detecta când un prompt al utilizatorului implică numele sau imaginea unei persoane reale și să blocheze orice rezultat explicit care implică acea persoană. (Unele generatoare de imagini AI deja refuză prompturi care par să facă referire la persoane private sau să producă nuditate cu figuri publice – Grok de la xAI este o excepție, neprocedând astfel avclub.com.) O altă idee este impunerea verificării consimțământului pentru generările explicite: de exemplu, un serviciu AI ar putea genera o imagine nudă doar dacă utilizatorul dovedește că subiectul este el însuși sau un model care și-a dat consimțământul. Desigur, actorii rău-intenționați ar putea folosi pur și simplu modele open-source fără astfel de filtre, dar dacă platformele mari adoptă limite stricte, acest lucru ar putea reduce răspândirea la scară largă. Verificarea vârstei este, de asemenea, o preocupare – singura verificare a lui Grok era un prompt cu data nașterii ușor de ocolit gizmodo.com – astfel că există apeluri pentru metode mai robuste de restricționare a accesului pe bază de vârstă, pentru a se asigura că minorii (care sunt adesea ținte ale bullying-ului prin imagini false nud) nu pot folosi aceste instrumente și nici nu pot fi reprezentați de ele.
  • Cercetare și detectare: Guvernele finanțează cercetarea în detectarea deepfake-urilor, iar companiile colaborează la standarde pentru autentificarea conținutului media. Scopul este de a face mai ușoară identificarea și eliminarea rapidă a pornografiei false atunci când apare. Totuși, detectarea va fi mereu o cursă între atacatori și apărători, pe măsură ce falsurile AI devin tot mai sofisticate. Unii experți cred că accentul ar trebui să se mute pe prevenirea prejudiciului (prin sancțiuni legale și educație), mai degrabă decât să se spere într-un „detector de falsuri” tehnic care să prindă totul. Totuși, progresele AI în scopuri benefice – cum ar fi hashing-ul îmbunătățit al imaginilor pentru a urmări falsurile cunoscute sau instrumente pentru ca indivizii să afle dacă imaginea lor a fost folosită abuziv – vor juca un rol în reducerea problemei.
  • Responsabilitatea platformelor: Grupurile de advocacy solicită ca platformele de social media și cele de conținut pentru adulți să monitorizeze proactiv conținutul pornografic generat de AI. Acest lucru ar putea însemna investiții în echipe de moderare a conținutului specializate în identificarea deepfake-urilor, cooperare cu forțele de ordine pentru ordine de eliminare și interzicerea recidiviștilor care creează sau distribuie materiale fără consimțământ. Unii cer, de asemenea, sisteme de opt-out sau registre, unde indivizii își pot înregistra imaginea (sau pe cea a copiilor lor), iar platformele trebuie să se asigure că nu este permis niciun conținut AI care îi reprezintă – deși, administrativ, acest lucru ar fi dificil de implementat. Cel puțin, protocoale de răspuns rapid – precum cerința de eliminare în 48 de ore din legea SUA apnews.com – trebuie să devină practică standard pe toate platformele la nivel global.
  • Educație și norme: În cele din urmă, o parte a soluției constă în schimbarea normelor sociale. Așa cum societatea a ajuns să condamne pe scară largă „revenge porn”-ul și să-l recunoască drept abuz, speranța este ca deepfake porn să devină universal stigmatizat. Dacă o persoană obișnuită înțelege răul produs și refuză să distribuie sau să consume astfel de conținut, cererea va scădea. Eticienii din domeniul tehnologiei subliniază importanța educației media – să-i învățăm pe oameni că ceea ce văd nu este întotdeauna real, iar o fotografie scandaloasă cu Celebritatea X ar putea fi falsă. Împuternicirea generațiilor tinere să navigheze critic într-o lume a media alterate de AI va fi esențială. La fel de importante vor fi și campaniile care să-i informeze pe potențialii făptuitori că realizarea acestor falsuri nu este o glumă – este o încălcare gravă cu consecințe potențial penale.

Concluzie

Apariția „Spicy Mode” de la Grok a turnat gaz pe un foc deja aprins în jurul AI-ului și deepfake-urilor sexual explicite. Instrumentul AI al lui Elon Musk, prin faptul că face ușor și chiar „oficial” să generezi dubluri nud ale celebrităților, a stârnit reacții rapide – și a adus în prim-plan criza mai largă a deepfake porn-ului. De la sălile Congresului până la comentariile de pe forumurile tech, există un consens tot mai mare că trebuie făcut ceva pentru a proteja indivizii (în special femeile) de aplicațiile întunecate ale acestei tehnologii.

După cum am văzut, conținutul NSFW generat de AI nu este o noutate izolată – este o provocare socială în creștere. Aceasta pune libertatea creativă și inovația tehnologică în opoziție cu intimitatea, consimțământul și siguranța. Duhul nu se va mai întoarce în sticlă, dar prin politici inteligente, dezvoltare tehnologică responsabilă și schimbare culturală, putem spera să limităm răul. Lunile și anii următori vor aduce probabil mai multe procese, mai multe legi și măsuri de protecție AI îmbunătățite. Grok-ul lui Musk ar putea fie să se adapteze sub presiune, fie să devină un exemplu negativ al unui proiect AI care a ignorat limitele etice pe riscul său.

Deocamdată, mesajul din partea experților și a publicului este răsunător: deepfake porn este o limită pe care AI nu trebuie să o depășească. Iar dacă firme precum xAI nu trasează singure această limită, reglementatorii și societatea sunt din ce în ce mai pregătiți să o facă în locul lor. După cum a spus un avocat al eticii tehnologice, „Să ți se transforme imaginea în pornografie fără consimțământ este devastator – e timpul să tratăm asta ca pe un abuz grav, nu ca pe o inevitabilitate a tehnologiei.” Dezbaterea nu mai este despre dacă e nevoie de acțiune, ci despre cât de repede și eficient putem limita exploatarea sexuală alimentată de AI, înainte ca mai multe vieți să fie date peste cap de următoarea inovație „Spicy”.

Surse:

  • Novak, Matt. “Grok’s ‘Spicy’ Mode Makes NSFW Celebrity Deepfakes of Women (But Not Men).Gizmodo, 6 aug. 2025 gizmodo.com gizmodo.com.
  • Weatherbed, Jess. „Setarea video ‘Spicy’ a lui Grok m-a făcut instantaneu să primesc deepfake-uri nud cu Taylor Swift.The Verge, 5 aug. 2025 theverge.com.
  • Carr, Mary Kate. „Elon Musk practic imploră un proces din partea lui Taylor Swift cu deepfake-uri nud generate de Grok AI.AV Club, 7 aug. 2025 avclub.com avclub.com.
  • Saner, Emine. „În interiorul scandalului deepfake Taylor Swift: ‘Sunt bărbați care îi spun unei femei puternice să revină la locul ei’.The Guardian, 31 ian. 2024 theguardian.com theguardian.com.
  • Clark, Nicole. „Streamerul care a declanșat scandalul deepfake porn pe Twitch revine.Polygon, 16 mar. 2023 polygon.com polygon.com.
  • Patrini, Giorgio. „Starea deepfake-urilor.” Raport Deeptrace Labs, oct. 2019 regmedia.co.uk.
  • Citron, Danielle. Interviu în NYMag Intelligencer, oct. 2019 nymag.com.
  • Ortutay, Barbara. „Președintele Trump semnează Take It Down Act, abordând deepfake-urile non-consensuale. Ce este?AP News, aug. 2025 apnews.com apnews.com.
  • Burga, Solcyre. “Grok-ul lui Elon Musk va permite în curând utilizatorilor să creeze videoclipuri AI, inclusiv de natură explicită.TIME, aug. 2025 time.com time.com.
  • Firma de avocatură Herbert Smith Freehills. “Incriminarea deepfake-urilor – noile infracțiuni din Marea Britanie…,” 21 mai 2024 hsfkramer.com hsfkramer.com.

Tags: , ,