LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

Elon Musk „fűszeres” MI-módja NSFW deepfake botrányt robbantott ki – Miért éppen a nők az új MI-pornóválság célpontjai?

Elon Musk „fűszeres” MI-módja NSFW deepfake botrányt robbantott ki – Miért éppen a nők az új MI-pornóválság célpontjai?

Grok 4: Inside Elon Musk’s Most Powerful (and Controversial) AI Chatbot Yet

Elon Musk új AI vállalkozása támadások kereszttüzébe került, amiért hírességekről készít beleegyezés nélküli meztelen deepfake-eket – ráadásul zavaróan nemi alapon elfogult módon. Egy friss Gizmodo-vizsgálat feltárja, hogy Musk Grok Imagine eszköze, annak „Spicy” módjával, gond nélkül készít NSFW videókat híres nőkről (például Taylor Swiftről vagy Melania Trumpról), de ugyanezt megtagadja férfiak esetében gizmodo.com gizmodo.com. Ez a beszámoló a Gizmodo Grok ellentmondásos funkciójáról szóló megállapításait vizsgálja, áttekinti az AI által generált pornográf tartalmak és deepfake-ek gyors terjedését, valamint feltárja az etikai, jogi és társadalmi következményeket. Áttekintjük a 2025. augusztusi aktuális fejleményeket is – a nyilvános felháborodástól és szakértői figyelmeztetésektől kezdve az új törvényekig, amelyek célja az AI „bosszúpornó” visszaszorítása. A cél: megérteni, hogyan vált a „Spicy Mode” az NSFW AI tartalomválság legújabb gyújtópontjává, és mit lehet tenni ez ellen.

A Grok „Spicy Mode”-ja – NSFW deepfake-ek és beépített elfogultság

A Grok Imagine az xAI képgenerátora és videógenerátora (elérhető a fizető előfizetők számára Musk X platformján), és különösen lehetővé teszi a felhasználók számára, hogy felnőtt tartalmat hozzanak létre egy „Spicy” módban gizmodo.com. Míg a mainstream AI eszközök, mint a Google Veo és az OpenAI Sora tiltják az explicit vagy hírességeket ábrázoló képeket, a Grok Spicy módja aktívan bátorítja ezt avclub.com avclub.com. A Verge tesztjei kimutatták, hogy az AI „habozás nélkül teljesen cenzúrázatlan, félmeztelen videókat készített Taylor Swiftről” már az első próbálkozásra – anélkül, hogy kifejezetten meztelenséget kértek volna theverge.com. Hasonlóképpen, a Deadline szerint gyerekjáték volt a Grokkal olyan képet generáltatni, amelyen Scarlett Johansson az alsóneműjét villantja meg avclub.com. Éles ellentétben, a férfi meztelenség előállítására tett kísérletek eredménytelenek voltak. Ahogy a Gizmodo beszámol, „csak a nőket ábrázoló képeket tette igazán nem munkahelyre valónak. A férfiakról készült videók olyanok voltak, amik igazán senkinek sem tűntek volna fel.” gizmodo.com A gyakorlatban a Grok Spicy módja legfeljebb egy férfit ábrázolhat félmeztelenül, míg a nőket félmeztelenül vagy teljesen meztelenül jeleníti meg.

Ez a kirívó kettős mérce riadalmat keltett. A Grok egy női közszereplőről egy gombnyomásra készít egy softcore pornó stílusú klipet gizmodo.com, de ugyanaz a „Spicy” szűrő láthatóan férfiaknál megáll a puszta felsőtestnél gizmodo.com. A Gizmodo újságírója, Matt Novak még egy általános, nem híres férfit és egy általános nőt is kipróbált: a férfi avatar ügyetlenül húzogatta a nadrágját, de fedve maradt, míg a női avatar azonnal felfedte a melleit gizmodo.com. Az ilyen eredmények arra utalnak, hogy nemi elfogultság van beépítve az AI tartalomszűrésébe (akár szándékosan, akár a tanítás melléktermékeként). Musk saját múltja a nőgyűlölő megjegyzésekkel – az olyan állítások felerősítésétől, hogy a nők „gyengék” gizmodo.com, egészen addig, hogy viccelődött Taylor Swift teherbe ejtésével – csak tovább erősíti a gyanút, hogy ez az elfogultság inkább jellemző, mint hiba gizmodo.com.

Képességek és korlátok: Érdemes megjegyezni, hogy a Grok deepfake-jei gyakran gyenge minőségűek. Az általa készített híresség-hasonmások gyakran meggyőzőtlenek vagy hibásak gizmodo.com gizmodo.com. (Például a Sydney Sweeney színésznőt vagy J.D. Vance politikust ábrázolni szándékozó képek egyáltalán nem hasonlítottak a valós személyekre gizmodo.com.) Furcsa folytonossági hibák – például egy férfi, aki nem összeillő nadrágszárakat visel egy videóban – gyakoriak gizmodo.com. A Grok automatikusan generál általános háttérzenét vagy hangot is minden kliphez, ami tovább fokozza a szürreális „hátborzongató völgy” hangulatot gizmodo.com. Ezek a technikai hiányosságok jelenleg akár mentőövként is szolgálhatnak az xAI számára, mivel a valóban élethű, hírességekről készült meztelen hamisítványok szinte biztosan perekhez és bírósági tiltásokhoz vezetnének gizmodo.com. Ahogy a Gizmodo megjegyezte, Musk legjobb védekezése a jogi lépésekkel szemben talán az lehet, hogy „a képek még csak nem is hasonlítanak” a valódi hírességekre gizmodo.com. Azonban a technológia gyorsan fejlődik, és még ezek a tökéletlen deepfake-ek is elég felismerhetőek ahhoz, hogy aggasztóak legyenek avclub.com.

Nyilvános reakció: A „Spicy Mode” bevezetése azonnal felháborodást váltott ki a közösségi médiában és a sajtóban. A Grok Imagine indulását követő napokon belül az X (Twitter) elárasztották a meztelen nőkről készült, mesterséges intelligencia által generált képek, a felhasználók pedig lelkesen osztották meg egymással a tippeket, hogyan lehet a legtöbb meztelenséget elérni a promptjaikban gizmodo.com. Ez széles körű kritikákat váltott ki, miszerint Musk gyakorlatilag megnyitotta az utat a MI-alapú szexuális zaklatás és kizsákmányolás előtt. „A Grok Imagine tartalmak nagy része, amelyet Musk megosztott vagy újraközölt, általános külsejű, teltkarcsú szőke nőkről vagy kihívó fantáziaruhába öltözött nőkről készült klipek” – jegyezte meg az A.V. Club, kiemelve, hogy úgy tűnik, Musk a Pornhub piacára is be akar törni avclub.com avclub.com. Techbloggerek és kommentelők gúnyosan megjegyezték, hogy Musk „gyakorlatilag könyörög egy Taylor Swift-perért” a Grok által automatikusan generált meztelen képek miatt avclub.com. Valóban, néhány kommentátor arra buzdította a nagy nyilvánosság előtt álló célpontokat, például Swiftet, hogy vigyék Muskot bíróságra, és „tegyék biztonságosabbá a világot más nők és lányok számára” avclub.com. Eddig nincs nyilvános jele annak, hogy Swift vagy mások jogi lépéseket tettek volna – de a felelősségre vonás iránti igény egyre hangosabb.

Még a Grok-botrányon kívül is, 2024-ben jelentős nyilvános felháborodás tört ki az X-en terjedő, mesterséges intelligencia által generált pornográf tartalmak miatt. Egy esetben Taylor Swiftről készült deepfake pornográf képek terjedtek el vadul a platformon, az egyik hamis fotó 47 millió megtekintést ért el az eltávolítás előtt theguardian.com. A rajongók tömegesen jelentették a képeket, sőt, még a Fehér Ház is megszólalt, „riasztónak” nevezve a helyzetet theguardian.com. Swift esete csak abban kivételes, hogy nagy figyelmet kapott; nők (híresek vagy sem) tömegei látták viszont magukat explicit tartalmakban, amelyeket a platformok nem távolítanak el elég gyorsan theguardian.com theguardian.com. Az ilyen esetek körüli közfelháborodás – és most a Grok beépített NSFW módja körüli vita – azt mutatja, hogy egyre többen gondolják úgy: az AI-eszközök, amelyek lehetővé teszik a szexuális deepfake-eket, átlépnek etikai határokat.

Az AI-generált NSFW tartalmak és deepfake-ek gyors térnyerése

A Grok-eset a legújabb fejezet egy aggasztó trendben: az AI-generált pornó („deepfake pornó”) elterjedése robbanásszerűen megnőtt az elmúlt néhány évben. A jelenség először 2017-ben vált hírhedtté, amikor Reddit-hobbi felhasználók korai deep learning algoritmusokat kezdtek használni hírességek arcának pornószínészek testére való ráillesztésére. 2018-ra Gal Gadot, Emma Watson, Scarlett Johansson és mások úgynevezett „deepfake” videói elárasztották a felnőtt oldalakat – aminek hatására a Reddit, a Twitter és a Pornhub is betiltotta az ilyen, beleegyezés nélküli tartalmakat theguardian.com theverge.com.

Azok ellenére, hogy korán betiltották, a deepfake pornóipar az árnyékba vonult, és tovább növekedett. 2019 végére a Deeptrace kiberbiztonsági cég mérföldkőnek számító jelentése megállapította, hogy az összes online keringő deepfake videó 96%-a pornográf, nem beleegyezésen alapuló arccsere volt, szinte kizárólag női áldozatokkal regmedia.co.uk. A vizsgált négy legnagyobb deepfake pornóoldal több mint 134 millió megtekintést ért el olyan videókkal, amelyek “világszerte több száz női hírességet” céloztak regmedia.co.uk. Ez az aránytalanság szembetűnő volt: az áldozatok túlnyomó többsége nő, a fogyasztók pedig túlnyomórészt nőket keresnek szexuális tárgyként. “A deepfake szexvideók 99%-a nőket, általában női hírességeket érint,” jegyezte meg Danielle Citron jogászprofesszor, kiemelve, hogy ezek az alkotások “olyan módon tesznek szexuális tárggyá, ahogy te sosem választottad volna” nymag.com. “A pornográfiával semmi baj nincs, amíg te magad választod,” tette hozzá Citron – a deepfake-ek borzalma, hogy ezek a nők sosem választották, hogy a hasonmásukat explicit jelenetekben használják fel nymag.com.

Kezdetben a hírességek deepfake-jei uralták a terepet, de ma már egyre inkább hétköznapi emberek is célponttá válnak. 2023 januárjában a Twitch streaming közösséget botrány rázta meg, amikor a népszerű streamer, Brandon “Atrioc” Ewing véletlenül felfedte, hogy egy deepfake pornóoldalt nézett, amely női streamerekről árult explicit videókat – az arcukat pornószínésznők testére szerkesztve polygon.com. A nők (köztük néhányan Atrioc személyes barátai) megdöbbentek, és zaklatási hullámmal szembesültek, miután a deepfake-ek napvilágra kerültek polygon.com. Az egyik áldozat, QTCinderella streamer könnyek között nyilatkozott a jogsértésről, majd később segített jogi lépéseket szervezni az ilyen tartalmak eltávolításáért polygon.com polygon.com. A “Twitch deepfake” botrány rávilágított, hogy nem kell hollywoodi sztárnak lenned, hogy ez megtörténjen veled – bárki, akiről képek vannak fent az interneten, potenciálisan ki van téve annak, hogy az AI “meztelenre vetkőztesse” az akarata ellenére.

A felhasználóbarát AI eszközök elterjedése csak felgyorsította ezt a trendet. 2019-ben egy DeepNude nevű alkalmazás rövid időre vírusként terjedt el, mivel mesterséges intelligenciával “vetkőztetett le” nőkről készült fotókat egyetlen gombnyomásra, hamis meztelen képeket készítve onezero.medium.com. Bár a DeepNude készítője a közfelháborodás miatt leállította az alkalmazást, a szellemet már kiengedték a palackból. 2023–2025-re a nyílt forráskódú képgenerátorok (mint a Stable Diffusion származékai) és a dedikált deepfake szolgáltatások révén bárki, akinek van néhány fotója és minimális technikai tudása, könnyedén készíthet másokról meztelen vagy szexuális képeket. Egyes fórumokon nyíltan cserélnek közösségi médiából származó, AI által generált női meztelen képeket. Ahogy egy Twitch streamer áldozat panaszkodott, miután pornográf hamisítványokat talált magáról: „Ennek semmi köze hozzám. Mégis itt van az arcommal.” theguardian.com Az áldozatok körében a megsértettség és tehetetlenség érzése kézzelfogható azoknál, akiket „digitálisan áldozattá tettek”.

Röviden, az AI demokratizálta a pornográf hamisítványok készítésének lehetőségét, és ezt a képességet aránytalanul nagy mértékben nők ellen fegyverként használják. Nem csak a hírességek vannak célkeresztben – bárki, az újságíróktól és aktivistáktól (akiket megfélemlítés vagy hiteltelenítés céljából célozhatnak meg) egészen az ex-partnerekig és magánszemélyekig (akiket bosszúálló zaklatók vagy zsarolók támadhatnak). Az olyan funkciók megjelenése, mint a Grok Spicy módja – amely hivatalos, felhasználóbarát pecsétet ad annak, ami korábban földalatti gyakorlat volt – azt jelzi, hogy az NSFW generatív AI valóban belépett a fősodorba, minden etikai terhével együtt.

A mesterséges intelligencia által generált pornográfia etikai, jogi és társadalmi következményei

A deepfake pornóval kapcsolatos etikai felháborodás széles körű. Alapvetően valakinek a szexuális tartalmú képeit hozzájárulása nélkül létrehozni vagy megosztani mélyen sérti a magánéletet, a méltóságot és az autonómiát. Ahogy Citron és más etikusok érvelnek, ez több, mint képalapú visszaélés – ez a szexuális kizsákmányolás egyik formája. Az áldozatok „tehetetlenségről, megaláztatásról és rettegésről” számolnak be, tudva, hogy idegenek (vagy bántalmazók) nézik őket hamis videókon olyan szexuális aktusokban, amelyeket sosem tettek meg. Ez a szexuális zaklatás virtuális formáját is jelentheti, amely tartós traumát okozhat. Nem meglepő módon a nők és lányok szenvedik el leginkább: „A nem beleegyezésen alapuló intim deepfake-ek” „jelenleg is súlyos és növekvő fenyegetést jelentenek, aránytalanul nagy mértékben érintve a nőket,” állapítják meg a kutatók sciencedirect.com.

Sok ilyen tartalomnak misogynista (nőgyűlölő) felhangja is van. Szakértők szerint a deepfake pornót gyakran fegyverként használják arra, hogy megalázzák azokat a nőket, akik hatalmi pozícióban vannak, vagy akik visszautasítják valakinek a közeledését. „A mesterséges intelligencia által generált pornó, amelyet a nőgyűlölet táplál, elárasztja az internetet” – jegyezte meg a The Guardian a Taylor Swift deepfake-botrány kapcsán theguardian.com. Már maga a cselekedet, hogy egy nőt mesterséges intelligenciával „levetkőztetnek”, tekinthető egy kísérletnek arra, hogy „helyre tegyék”. „Ez olyan, mintha férfiak azt mondanák egy erős nőnek, hogy menjen vissza a helyére” – írta le egy megfigyelő a Swift-eset hangulatát. Legyen szó névtelen trollokról, akik egy női politikusról készítenek meztelen képeket, vagy egy megszállott rajongóról, aki egy popsztárról gyárt hamis szexvideókat, az üzenet hasonló – a digitális tárgyiasítás és megfélemlítés egy formája.

Az egyéni káron túl a társadalmi következmények is kijózanítóak. Ha bárkit be lehet illeszteni pornográf tartalomba, a vizuális médiában többé nem lehet megbízni. A deepfake-ek tömegesen fenyegetnek jó hírnév rombolással és zsarolással. A nyilvánosság előtt álló nők öncenzúrát gyakorolhatnak, vagy visszahúzódhatnak az online térből, attól tartva, hogy célponttá válnak. A szólásszabadságra is hűtő hatással lehet: képzeljük el, hogy egy rezsimet bíráló újságíróról élethű hamis szexvideót terjesztenek, hogy lejárassák. Összességében az „tervezett pornó” normalizálódása, amelyben az áldozatok nem önkéntes résztvevők, kérdéseket vet fel a beleegyezésről, a szexuális kizsákmányolásról és az emberi arculat árucikké tételéről. Még a beleegyezésen alapuló felnőtt szórakoztatás esetén is sokan aggódnak, hogy a mesterséges intelligencia által generált előadók kiszoríthatják a valódi modelleket – de amikor ezek az MI-előadók valódi emberek Facebookról vagy Instagramról ellopott arcát viselik, a beleegyezés határa egyértelműen átlépésre kerül.

Szólásszabadság vs. magánélet: Feszültség van azok között, akik minden pornográf deepfake betiltását követelik, és a szólásszabadság hívei között, akik a túlkapásoktól tartanak. Lehet-e egy hírességről készült deepfake valaha is legitim paródia vagy művészet? Elméletben igen – a szatíra és a paródia védett kifejezési formák, még akkor is, ha közszereplők hasonmását használják. Egyes AI-technológia védelmezők rámutatnak, hogy a közszereplőkről készült manipulált képek régóta részei a popkultúrának (pl. Photoshopolt magazinborítók), és azt állítják, hogy a reflexszerű kriminalizálás visszafoghatja a kreativitást. Azonban még a legtöbb szólásszabadság-szakértő is határt húz a nem beleegyezésen alapuló szexuális ábrázolásoknál. Az egyénnek okozott kár annyira intenzív és személyes, hogy vitathatóan felülír minden közérdeket. Jogászok rámutatnak, hogy a rágalmazási vagy zaklatási törvények lefedhetnek bizonyos eseteket, de nem mindet. Egyre nagyobb az egyetértés abban, hogy új jogi védelmi intézkedésekre van szükség a deepfake pornó kifejezett kezelésére, anélkül, hogy aláásnák a legitim kifejezést apnews.com apnews.com. Ezeknek a törvényeknek a pontos megalkotása – hogy egyértelmű visszaéléseket büntessenek, miközben ne vonják be a szatírát vagy a beleegyezésen alapuló erotikát – olyan kihívás, amellyel a jogalkotók most szembesülnek apnews.com apnews.com.

Jelenlegi fejlemények (2025. augusztus): A technológiai visszacsapástól az új törvényekig

A Grok „Spicy” módja körüli vita éppen akkor robbant ki, amikor világszerte a kormányok és platformok végre lépéseket tesznek a mesterséges intelligencia által generált intim képek járványa ellen. Íme néhány legújabb fejlemény:

    Nemzeti felháborodás és aktivizmus: A Taylor Swiftet és másokat érintő vírusos esetek mozgósították a közvéleményt. Még az Egyesült Államok Fehér Háza is kommentálta a Swift deepfake-eket, ahogy azt megjegyezték, „riasztónak” nevezve őket theguardian.com. Olyan érdekvédelmi csoportok, mint a National Center on Sexual Exploitation, nyíltan felszólaltak, elítélve Musk xAI-ját, amiért „tovább fokozza a szexuális kizsákmányolást azáltal, hogy lehetővé teszi AI videók számára a meztelenség létrehozását”, és sürgették az ilyen funkciók eltávolítását time.com. „Az xAI-nak módokat kellene keresnie a szexuális visszaélés és kizsákmányolás megelőzésére,” mondta Haley McNamara, az NCOSE munkatársa egy nyilatkozatban, ami a civil társadalom szélesebb körű fellépését tükrözi time.com.A közvélemény-kutatások elsöprő támogatást mutatnak a tiltások iránt: A legutóbbi felmérések szerint a közvélemény határozottan a szigorúbb szabályozás mellett áll. Az Artificial Intelligence Policy Institute 2025 januári felmérése szerint az amerikaiak 84%-a támogatja, hogy a beleegyezés nélküli deepfake pornót kifejezetten illegálissá tegyék, és hasonlóan szeretnék, ha az AI cégek „korlátoznák [az AI] modelleket, hogy megakadályozzák azok felhasználását deepfake pornó készítésére” time.com. Egy 2019-es Pew Research felmérés szintén azt találta, hogy az amerikai felnőttek mintegy háromnegyede támogatja a digitálisan módosított videók/képek korlátozását time.com. Röviden: a választók minden oldalon fellépést akarnak ez ellen a visszaélési forma ellen.
  • Új törvények és jogszabályok: A törvényhozók meghallották a felhívást. Az Egyesült Államokban 2025 májusában írták alá a Take It Down Act-et, amely az első szövetségi jogszabály, amely a deepfake pornográfiát célozza meg time.com. Ez a kétpárti törvény illegálissá teszi, hogy valaki “tudatosan közzétegye vagy közzététellel fenyegesse” valakinek a beleegyezése nélkül készült intim képeit – beleértve a mesterséges intelligencia által létrehozott deepfake-eket is –, és előírja a platformok számára, hogy az áldozat értesítésétől számított 48 órán belül távolítsák el az ilyen anyagokat apnews.com apnews.com. A büntetések szigorúak, és a törvény lehetővé teszi az áldozatok számára, hogy gyorsan eltávolíttassák a tartalmat apnews.com apnews.com. „Biztosítanunk kell az online visszaélések áldozatainak a szükséges jogi védelmet, különösen most, hogy a deepfake-ek rémisztő új lehetőségeket teremtenek a visszaélésre” – mondta Amy Klobuchar szenátor, a törvény egyik társszponzora, aki „az online visszaélések áldozatai számára jelentős győzelemnek” nevezte a jogszabályt apnews.com apnews.com. Még a szövetségi törvény előtt is több mint 15 amerikai állam tiltotta be a kifejezetten deepfake pornográfia létrehozását vagy terjesztését (gyakran a „bosszúpornó” törvények frissítésével). Most egységes szövetségi szabvány van kialakulóban. Más országok is hasonlóan lépnek. Az Egyesült Királyság kormánya például bűncselekménnyé nyilvánította a deepfake pornográfia megosztását az Online Safety Act-ben (amely 2024 elején lépett hatályba), és olyan jogszabályt is előkészít, amely bűncselekménnyé tenné a szexuálisan explicit deepfake-ek elkészítését is beleegyezés nélkül hsfkramer.com hsfkramer.com. 2025 januárjában az Egyesült Királyság újra benyújtotta azt a javaslatot, amely illegálissá tenné a deepfake meztelen képek készítését, és ezt „mérföldkőnek nevezte a nők és lányok védelmében”. <a href=”https://www.hsfkramer.com/notes/tmt/2024-05/criminalising-deepfakes-the-uks-new-offences-following-the-online-safety-act#:~:text=Further%20update%3A%20On%207%20January,Act%2020hsfkramer.com hsfkramer.com Ausztrália 2024-ben törvényt fogadott el, amely betiltja a deepfake szexuális anyagok létrehozását és terjesztését, és Dél-Korea odáig ment, hogy még az ilyen deepfake pornó birtoklását vagy megtekintését is kriminalizálná (nem csak az előállítását) hsfkramer.com. A globális trend egyértelmű: a nem beleegyezéssel készült AI szexuális képeket bűncselekménynek tekintik. A törvényhozók elismerik, hogy ezek a képek „tönkretehetik az életeket és a hírnevet”, ahogy Klobuchar fogalmazott apnews.com, és lépéseket tesznek – bár a szólásszabadságot védő szervezetek, mint az EFF, arra figyelmeztetnek, hogy a rosszul megfogalmazott törvények túlzott cenzúrához vagy visszaélésekhez vezethetnek apnews.com apnews.com.
  • Technológiai platformok irányelvei: A nagy technológiai platformok elkezdték frissíteni irányelveiket (legalábbis papíron), hogy kezeljék a mesterséges intelligencia által létrehozott szexuális tartalmakat. A Facebook, az Instagram, a Reddit és a hagyományos Twitter hivatalosan is tiltja a beleegyezés nélküli intim képeket, beleértve a deepfake-eket is theguardian.com theverge.com. A Pornhub és más felnőtt oldalak szintén már 2018-ban bevezették a tiltást a valódi személyeket beleegyezés nélkül ábrázoló AI-generált tartalmakra theguardian.com theverge.com. A gyakorlatban azonban a végrehajtás továbbra is hiányos – egy elszánt felhasználó még mindig találhat vagy megoszthat tiltott deepfake-eket sok platformon. Ugyanakkor vannak előrelépések: például a Swift-eset után az X (Twitter) végül reagált azzal, hogy blokkolta a nevére való keresést, hogy megállítsa a terjedést theguardian.com theguardian.com. A Reddit nemcsak tiltja a deepfake pornót, hanem teljes közösségeket is megszüntetett, amelyek ilyen anyagokat cseréltek. A YouTube és a TikTok irányelvei is tiltják a mesterséges intelligenciával manipulált explicit képeket. A kihívás a méret és a felismerés – itt alkalmazzák az új technológiákat.
  • Felismerés és védelmi intézkedések: Egyre növekvő, technológiai megoldásokat kínáló iparág jött létre, amelynek célja a deepfake pornó felderítése és eltávolítása. Olyan AI-cégek, mint a Sensity (korábban Deeptrace) és startupok, mint a Ceartas fejlesztenek olyan felismerő algoritmusokat, amelyek az interneten keresik egy személy arcát pornográf tartalmakban, és jelzik az egyezéseket polygon.com polygon.com. Valójában a Twitch-botrány után Atrioc partnerségre lépett a Ceartas céggel, hogy segítse az áldozattá vált streamereket: a vállalat AI-ja segítségével felkutatta az érintett nők deepfake tartalmait, és DMCA-eltávolítási kérelmeket nyújtott be polygon.com polygon.com. Az OnlyFans, amelynek kiemelt érdeke a tartalomkészítők védelme, szintén bevetett ilyen eszközöket, hogy felügyelje a modelljeiről készült hamis tartalmakat polygon.com. Folyamatban van továbbá olyan vízjelek vagy metaadatok beágyazása AI által generált képekbe, amelyek segítenek a hamisítványok azonosításában, valamint javaslatok születtek arra, hogy kötelezővé tegyék a valódi képek kriptográfiai hitelesítését (így a nem jelölt képeket hamisnak lehetne tekinteni). Emellett az Európai Unió AI-törvénye (2024-ben elfogadva) előírja, hogy a deepfake eszközök fejlesztőinek biztosítaniuk kell, hogy a kimenetek egyértelműen AI által generáltként legyenek megjelölve bioid.com. Több amerikai állam (és az EU) is fontolgatja, hogy előírja: minden AI által módosított tartalomhoz kötelező legyen figyelmeztetést csatolni a közzétételkor cjel.law.columbia.edu bioid.com. Bár ezek a címkék nem akadályozzák meg a rosszindulatú szereplőket abban, hogy eltávolítsák őket, mégis kísérletet jelentenek arra, hogy átláthatósági normákat alakítsanak ki a szintetikus médiával kapcsolatban.
  • Platformok vs. Musk X-e: Érdemes kiemelni, mennyire szokatlan Musk hozzáállása az X és az xAI kapcsán. Míg a legtöbb platform szigorítja a korlátozásokat, Musk lényegében enyhítette azokat, és olyan felhasználói bázist céloz meg, amely „merészebb” MI-képességekre vágyik. Az X nemhogy nem tiltotta be Grok kimeneteit; ez Grok otthona. Ez az eltérés sok szakértővel szembeállította az X-et. 2024 augusztusában egy csoport demokrata törvényhozó kifejezetten Musk Grokját említette egy szabályozóknak írt levélben, figyelmeztetve, hogy a deepfake-ekkel kapcsolatos laza szabályozás (beleértve olyan ismert személyek, mint Kamala Harris vagy Taylor Swift explicit deepfake-jeit) káoszt okozhat a választásokon és azon túl is time.com. Úgy tűnik, Musk arra fogad, hogy az MI által generált erotika iránti igény (és még flörtölő vagy vetkőző MI-csevegőtársak, ahogy az xAI új funkciói is mutatják time.com) bevételt és felhasználókat hoz majd. Azonban a visszacsapás – jogi, társadalmi, és potenciálisan pénzügyi (a hirdetők aggodalmai miatt) – hosszú távon más történetet mesélhet el.

Politikai javaslatok és a továbblépés útja: Megfékezhető-e a deepfake pornó?

A döntéshozók és etikusok körében konszenzus van abban, hogy többirányú fellépésre van szükség az MI által generált NSFW tartalmak kezelése érdekében. A főbb javaslatok és ötletek a következők:

  • Szigorúbb törvények és érvényesítés: Ahogy említettük, a Take It Down Act törvény jó kezdet. A szakértők további finomításokat javasolnak, például hogy bűncselekmény legyen valakiről hamis szexuális képet készíteni beleegyezés nélkül, ne csak annak terjesztése. (Az Egyesült Királyság ebbe az irányba halad hsfkramer.com hsfkramer.com.) Egyértelmű jogi szankciók az elkövetőkkel – és azokkal szemben, akik tudatosan tárolják vagy profitálnak ilyen tartalomból – elrettentő hatásúak lehetnek. Fontos, hogy minden jogszabályt körültekintően kell megfogalmazni, hogy ne kriminalizálják véletlenül a beleegyezésen alapuló erotikus művészetet vagy a legitim politikai szatírát apnews.com apnews.com. A polgári jogorvoslatok is létfontosságúak: az áldozatoknak könnyen elérhető lehetőségekre van szükségük, hogy kártérítést követelhessenek és bírósági végzéssel eltávolíttathassák a tartalmat. Sok jogvédő szeretné, ha kivételt tennének a Section 230-ban (az amerikai törvény, amely mentesíti a platformokat a felhasználói tartalomért való felelősség alól), hogy a weboldalak felelősségre vonhatók legyenek, ha nem reagálnak a deepfake pornó eltávolítására irányuló kérelmekre. Ez nagyobb éberségre kényszerítené a platformokat.
  • Technológiai védőkorlátok: A fejlesztési oldalon a javaslatok szerint az AI modellek készítőinek megelőző védelmi intézkedéseket kellene beépíteniük. Például a cégek tartalomszűrőket taníthatnának arra, hogy felismerjék, ha egy felhasználói kérés valós személy nevét vagy hasonmását érinti, és blokkolják az adott személyt érintő explicit tartalmakat. (Néhány AI képgenerátor már most is elutasítja azokat a kéréseket, amelyek magánszemélyekre utalnak, vagy közszereplőkről meztelenséget generálnának – az xAI Grok kivétel, amely ezt nem teszi meg avclub.com.) Egy másik ötlet a hozzájárulás ellenőrzésének megkövetelése explicit generálásokhoz: például egy AI szolgáltatás csak akkor generálna meztelen képet, ha a felhasználó bizonyítja, hogy ő maga vagy egy beleegyező modell szerepel rajta. Természetesen a rosszindulatú felhasználók egyszerűen használhatnak nyílt forráskódú modelleket ilyen szűrők nélkül, de ha a nagy platformok szigorú védőkorlátokat vezetnek be, az visszafoghatja a mainstream terjedést. Az életkor ellenőrzése is aggodalomra ad okot – Grok egyetlen ellenőrzése egy könnyen megkerülhető születési dátum megadása volt gizmodo.com –, ezért egyre többen követelik a szigorúbb életkori korlátozásokat, hogy a kiskorúak (akik gyakran célpontjai a hamis meztelen képekkel történő zaklatásnak) ne használhassák ezeket az eszközöket, és ne is ábrázolhassák őket velük.
  • Kutatás és felismerés: A kormányok finanszírozzák a deepfake felismerés kutatását, és a cégek együttműködnek a média hitelesítésére vonatkozó szabványok kidolgozásában. A cél, hogy könnyebb legyen gyorsan azonosítani és eltávolítani a hamis pornót, amikor az felbukkan. Azonban a felismerés mindig macska-egér játék marad, ahogy az AI hamisítványok egyre kifinomultabbak lesznek. Egyes szakértők szerint a hangsúlynak inkább a károk megelőzésére kellene helyeződnie (jogi szankciókkal és oktatással), nem pedig arra, hogy egy technikai „hamis detektortól” várjuk minden probléma megoldását. Ennek ellenére az AI jó célú fejlesztései – például a jobb képhashelés az ismert hamisítványok nyomon követésére, vagy olyan eszközök, amelyekkel az egyének ellenőrizhetik, hogy visszaéltek-e a képükkel – szerepet játszanak a károk mérséklésében.
  • Platform felelősségvállalás: Érdekvédelmi csoportok sürgetik, hogy a közösségi média és felnőtt tartalmakat kínáló platformoknak proaktívan kellene ellenőrizniük az AI pornó tartalmakat. Ez jelentheti tartalommoderátor csapatok felállítását, akik jártasak a deepfake-ek felismerésében, együttműködést a hatóságokkal az eltávolítási utasítások végrehajtásában, valamint a visszaeső elkövetők kitiltását, akik nem beleegyezésen alapuló anyagokat hoznak létre vagy osztanak meg. Egyesek leiratkozási vagy regisztrációs rendszerek bevezetését is szorgalmazzák, ahol az egyének (vagy gyermekeik) hasonmását regisztrálhatják, és a platformoknak biztosítaniuk kell, hogy róluk ne jelenhessen meg AI tartalom – bár ennek adminisztratív betartatása kihívást jelentene. Minimumként a gyors reagálási protokollok – mint például az USA törvényében előírt 48 órás eltávolítási kötelezettség apnews.com – globálisan minden platformon alapvető gyakorlattá kellene váljon.
  • Oktatás és normák: Végül a megoldás részben a társadalmi normák megváltoztatásában rejlik. Ahogyan a társadalom széles körben elítélte a „bosszúpornót” és bántalmazásként ismerte el, a remény az, hogy a deepfake pornó is egyetemlegesen megbélyegzetté válik. Ha az átlagember megérti a károkat, és nem hajlandó megosztani vagy fogyasztani ilyen tartalmat, a kereslet csökkenni fog. A technológiai etikusok hangsúlyozzák a médiaértés fontosságát – vagyis hogy megtanítsuk az embereknek: amit látnak, az nem mindig igaz, és hogy egy szaftos fotó X hírességről lehet, hogy hamis. A fiatalabb generációk felhatalmazása arra, hogy kritikusan navigáljanak az AI által módosított média világában, kulcsfontosságú lesz. Ugyanilyen fontosak lesznek azok a kampányok is, amelyek felvilágosítják a leendő elkövetőket: ezeknek a hamisítványoknak a létrehozása nem tréfa – ez súlyos jogsértés, amely akár bűncselekménynek is minősülhet.

Következtetés

A Grok „Spicy Mode”-jának megjelenése olajat öntött a már amúgy is lángoló tűzre a mesterséges intelligencia és a szexuálisan explicit deepfake-ek körül. Elon Musk AI-eszköze, amely könnyűvé és szinte „hivatalossá” teszi hírességek meztelen hasonmásainak létrehozását, gyors visszacsapást váltott ki – és ráirányította a figyelmet a deepfake pornó szélesebb körű válságára. A Kongresszus folyosóitól a tech fórumok komment szekcióiig egyre nagyobb az egyetértés abban, hogy tenni kell valamit az egyének (különösen a nők) védelmében a technológia sötétebb alkalmazásaival szemben.

Ahogy láttuk, az AI által generált NSFW tartalom nem elszigetelt újdonság – hanem egyre súlyosbodó társadalmi kihívás. Az alkotói szabadságot és a technológiai innovációt állítja szembe a magánélettel, a beleegyezéssel és a biztonsággal. A szellemet már nem lehet visszazárni a palackba, de okos szabályozással, felelős technológiai fejlesztéssel és kulturális változással remélhetjük, hogy mérsékelhetjük a károkat. A következő hónapok és évek valószínűleg több pert, több törvényt és fejlettebb AI-védelmet hoznak majd. Musk Grokja vagy alkalmazkodik a nyomás alatt, vagy intő példává válik egy olyan AI-vállalkozásról, amely figyelmen kívül hagyta az etikai határokat, és ez lett a veszte.

Jelenleg a szakértők és a közvélemény üzenete egyértelmű: a deepfake pornó egy olyan határ, amit a mesterséges intelligenciának nem szabad átlépnie. És ha az olyan cégek, mint az xAI, nem húzzák meg ezt a határt maguk, a szabályozók és a társadalom egyre inkább készek lesznek meghúzni helyettük. Ahogy egy technológiai etikai szakértő fogalmazott: „Ha valakinek a képmását beleegyezés nélkül pornóvá alakítják, az pusztító – ideje, hogy ezt a súlyos bántalmazást annak is kezeljük, és ne a technológia elkerülhetetlen következményeként.” A vita már nem arról szól, hogy szükség van-e lépésre, hanem arról, milyen gyorsan és hatékonyan tudjuk megfékezni az AI által fűtött szexuális kizsákmányolást, mielőtt újabb életeket forgatna fel a következő „Spicy” innováció.

Források:

  • Novak, Matt. „A Grok ‘Spicy’ módja NSFW híresség deepfake-eket készít nőkről (de nem férfiakról).Gizmodo, 2025. augusztus 6. gizmodo.com gizmodo.com.
  • Weatherbed, Jess. „A Grok ‘Spicy’ videóbeállítása azonnal Taylor Swiftről készült meztelen deepfake-eket készített nekem.The Verge, 2025. aug. 5. theverge.com.
  • Carr, Mary Kate. „Elon Musk gyakorlatilag könyörög egy Taylor Swift-perért a Grok AI meztelen deepfake-ek miatt.AV Club, 2025. aug. 7. avclub.com avclub.com.
  • Saner, Emine. „A Taylor Swift deepfake-botrány belülről: ‘Ez férfiak üzenete egy erős nőnek, hogy menjen vissza a helyére’.The Guardian, 2024. jan. 31. theguardian.com theguardian.com.
  • Clark, Nicole. „A streamer, aki elindította a Twitch deepfake pornóbotrányt, visszatért.Polygon, 2023. márc. 16. polygon.com polygon.com.
  • Patrini, Giorgio. „A deepfake-ek helyzete.” Deeptrace Labs jelentés, 2019. okt. regmedia.co.uk.
  • Citron, Danielle. Interjú a(z) NYMag Intelligencer-ben, 2019. okt. nymag.com.
  • Ortutay, Barbara. „Trump elnök aláírta a Take It Down törvényt, amely a beleegyezés nélküli deepfake-ekkel foglalkozik. Mi ez?AP News, 2025. aug. apnews.com apnews.com.
  • Burga, Solcyre. „Elon Musk Grokja hamarosan lehetővé teszi a felhasználók számára, hogy AI videókat készítsenek, beleértve az explicit tartalmúakat is.TIME, 2025. aug. time.com time.com.
  • Herbert Smith Freehills Ügyvédi Iroda. „A deepfake-ek kriminalizálása – az Egyesült Királyság új bűncselekményei…”, 2024. május 21. hsfkramer.com hsfkramer.com.

Tags: ,