Unutar NSFW AI revolucije: Kako AI-generisana pornografija menja pravila igre i izaziva kontroverze

NSFW AI – upotreba generativne veštačke inteligencije za kreiranje “Not Safe For Work” sadržaja za odrasle – eksplodirala je u fenomen o kojem se mnogo raspravlja. Od AI-generisanih erotskih slika i deepfake porno videa do zavodnica sa kloniranim glasom i chatbot “devojaka”, mašinsko učenje menja pejzaž sadržaja za odrasle. To je tehnološka revolucija koja podjednako otvara primamljive mogućnosti i hitna etička pitanja. Zagovornici pozdravljaju nove puteve za fantaziju i kreativnost, dok kritičari upozoravaju na uznemiravanje, kršenje pristanka i društvenu štetu. Sredinom 2025. NSFW AI se nalazi na raskrsnici: prihvaćen od strane nišnih zajednica i startapa, pod lupom zakonodavaca i strahom onih koji su se našli na njegovoj liniji vatre. U ovom sveobuhvatnom izveštaju, istražujemo šta je NSFW AI, gde napreduje, najnovija dešavanja (od zabrana na platformama do novih zakona), etičke dileme, glasove sa obe strane debate i kako se svet bori da moderira i reguliše ovu neukrotivu novu dimenziju AI-ja. Hajde da podignemo zavesu sa divljeg sveta AI-generisanog pornića – i zašto se ne radi samo o porniću, već o privatnosti, moći i budućnosti seksualnog sadržaja.
Šta je NSFW AI i kako funkcioniše?
NSFW AI se odnosi na sisteme veštačke inteligencije koji generišu eksplicitan sadržaj za odrasle – uključujući pornografske slike, video, audio i tekst – često sa zapanjujućim realizmom. Ovi sistemi koriste iste najsavremenije generativne tehnologije koje stoje iza nedavnih AI umetničkih i medijskih dostignuća, ali primenjene na materijal za odrasle sa oznakom X. Ključne inovacije uključuju modele dubokog učenja obučene na ogromnim skupovima podataka sa slikama i video zapisima, koji uče da proizvode novi sadržaj kao odgovor na korisničke zahteve. Na primer, difuzioni modeli za pretvaranje teksta u sliku kao što je Stable Diffusion mogu kreirati fotorealistične nage ili seksualne slike iz jednostavnog tekstualnog opisa globenewswire.com. “Deepfake” tehnike omogućavaju zamenu ili sintezu lica u video zapisima, čineći da izgleda kao da stvarne osobe (često poznate ličnosti ili privatna lica) učestvuju u pornografiji koju nikada nisu snimili. Napredni alati za kloniranje glasa mogu oponašati nečiji glas sa zapanjujućom preciznošću, omogućavajući generisanje erotskog audio sadržaja ili “prljavog razgovora” u ciljanom glasu. A veliki jezički modeli mogu generisati uzbudljive erotske priče ili učestvovati u seksualnoj igri uloga putem četa.
U suštini, NSFW AI sistemi koriste iste algoritme koji generišu bilo koju AI umetnost ili medije – samo su obučeni ili dodatno podešeni na pornografske ili erotske podatke za obuku. Generativne suparničke mreže (GANs) su bile pioniri u kreiranju golih slika, ali difuzioni modeli i modeli zasnovani na transformatorima su značajno poboljšali vernost. Savremeni NSFW generatori slika mogu da proizvedu slike gole osobe visoke definicije prilagođene korisničkim zahtevima uz minimalan napor globenewswire.com. Kreatori deepfake videa često koriste specijalizovani softver (neki su otvorenog koda) da mapiraju jedno lice na drugo u postojećim odraslim video zapisima, stvarajući sintetičku pornografiju koju je teško razlikovati od stvarnog snimka cbsnews.com. AI servisi za glas mogu uzeti audio uzorak i generisati novi govor (uključujući eksplicitan sadržaj) tim glasom. AI chatbotovi koriste generisanje prirodnog jezika za pružanje personalizovanih erotskih razgovora ili sekstinga na zahtev.
Granice između fikcije i stvarnosti se brišu. Kako je jedan posmatrač primetio, „već veoma realistične slike, glasovi i video zapisi NSFW AI generatora nastavljaju da se razvijaju, dodatno transformišući način na koji se odrasli sadržaj stvara, konzumira i razume“ chicagoreader.com. Korisnik sada može da prizove prilagođenu pornografsku scenu – na primer, sliku fantazijskog susreta sa poznatom ličnošću ili audio snimak bivšeg partnera koji izgovara eksplicitne stvari – jednostavnom komandom, što je bilo nemoguće pre samo nekoliko godina. Ova nova moć otvara hitna pitanja o pristanku, privatnosti i razlici između kreativne fantazije i eksploatacije. Sama osnovna tehnologija je moralno neutralna – može se koristiti za stvaranje bilo čega – ali kada se usmeri na ljudsku seksualnost i lik stvarnih ljudi, implikacije postaju problematične.
Ključni oblici AI-generisanog sadržaja za odrasle
- AI-generisane slike: Tekst-u-sliku modeli (npr. Stable Diffusion) mogu da proizvedu eksplicitne erotske ili pornografske slike na osnovu zahteva. Korisnici mogu da preciziraju izgled, scenario itd., dobijajući jedinstvene gole ili seksualne slike na zahtev globenewswire.com. Mnogi takvi modeli su otvorenog koda ili prilagođeni korisnicima, omogućavajući sadržaj izvan onoga što dozvoljavaju mejnstrim AI alati.
- Deepfake porno video snimci: Korišćenjem deepfake tehnologije, kreatori mapiraju lice neke osobe na porno video, stvarajući lažni porno snimak nekoga ko nikada nije učestvovao. Ovi AI-manipulisani video snimci često ciljaju poznate ličnosti ili privatne osobe bez pristanka cbsnews.com theguardian.com. Kvalitet deepfake-ova se poboljšao do te mere da mnogi 2024–2025. izgledaju alarmantno realistično, uz pomoć snažnijih GPU-ova i algoritama.
- Kloniranje glasa i audio: AI generatori glasa kloniraju glasove poznatih ličnosti ili poznanika kako bi proizveli eksplicitne audio snimke (na primer, simulirajući da poznata glumica priča prljavo, ili kreirajući erotske audio knjige sa bilo kojim glasom). Sofisticirani AI za glas (kao ElevenLabs) čini trivijalnim generisanje uzdaha, dijaloga ili naracije u izabranom glasu, što izaziva zabrinutost zbog imitacije u pornografskom audio sadržaju.
- Erotski četbotovi i fikcija: AI jezički modeli koriste se za NSFW čet i pripovedanje. Aplikacije “AI devojka” i erotski četbotovi za uloge postali su izuzetno popularni oko 2023–2025. Ovi botovi mogu voditi korisnike u vrućem četu ili sekstingu, generišući neograničen erotski tekst. Neki kombinuju i vizuelne i glasovne poruke. Ovo predstavlja novi oblik sadržaja za odrasle – interaktivni AI saputnici koji zadovoljavaju intimne fantazije chicagoreader.com sifted.eu.
Dok mejnstrim AI platforme (kao što su OpenAI-ev DALL·E ili Midjourney) zabranjuju pornografski sadržaj, open-source i adult tech zajednice su prigrlile ove tehnologije kako bi pomerile NSFW granice. Open-source priroda mnogih alata “podstiče inovacije i saradnju”, ali takođe olakšava uklanjanje zaštita i generisanje neregulisanog eksplicitnog sadržaja chicagoreader.com chicagoreader.com. Kao što ćemo videti, ovaj sukob između inovacija i regulacije odvija se na raznim platformama.
Platforme, aplikacije i zajednice koje pokreću NSFW AI
Živopisan (i ponekad senovit) ekosistem platformi i onlajn zajednica pojavio se kako bi kreirao i delio AI-generisan sadržaj za odrasle. Pošto velike tehnološke kompanije ne dozvoljavaju eksplicitan sadržaj na svojim AI servisima arnoldit.com blog.republiclabs.ai, bum NSFW AI sadržaja pokreću nezavisni programeri, open-source modeli i nišni startapi. Evo nekih od ključnih oblasti gde NSFW AI živi i napreduje:
- Open-Source Model Hubs: CivitAI – popularni sajt zajednice – hostuje ogromnu biblioteku AI modela i slika koje su kreirali korisnici, uključujući mnoge specijalizovane za sadržaj za odrasle chicagoreader.com. Korisnici mogu preuzimati fino podešene Stable Diffusion modele za hentai, realistične nage slike, fetiš umetnost itd., i deliti slike koje su generisali. Otvorenost ovakvih sajtova ih je učinila glavnim mestom za NSFW AI kreatore. Međutim, to takođe znači minimalnu kontrolu; sadržaj varira od umetničke erotske umetnosti do ekstremnog pornografskog materijala. Drugi sajtovi poput Hugging Face su hostovali NSFW modele (uz upozorenja), a forumi poput 4chan ili GitHub su takođe delili “procurene” necenzurisane modele.
- NSFW generatori slika i aplikacije: Brojne veb-bazirane usluge sada se specijalizuju za AI generisanje erotskih slika. Na primer, platforme kao što su Candy.ai, Arting.ai, Vondy, OurDream i druge (često na pretplatu) omogućavaju korisnicima da generišu prilagođene slike za odrasle sa relativno malo ograničenja chicagoreader.com chicagoreader.com. Neke se hvale visokokvalitetnim renderima i širokim spektrom stilova – od fotorealističnih do anime – privlačeći različite ukuse. Mnoge su se pojavile 2024–2025. godine, često nudeći besplatne probe ili tokene, i takmiče se u tome ko može da kreira najrealističniju ili najmaštovitiju NSFW umetnost. Njihov marketing ističe personalizaciju i privatnost, obećavajući korisnicima da mogu kreirati tačno ono što žele “u bezbednom, privatnom okruženju, oslobođeni ograničenja unapred snimljenog sadržaja” globenewswire.com.
- AI porno zajednice i forumi: Pre nedavnih suzbijanja, posvećeni deepfake porno sajtovi su bili centri za ovu aktivnost. Najozloglašeniji je bio Mr. Deepfakes, osnovan 2018. godine, koji je postao „najistaknutije i najmainstream tržište“ za deepfake porno sa poznatim ličnostima, kao i sa nepoznatim osobama cbsnews.com. Korisnici na sajtu su mogli da postavljaju i gledaju eksplicitne deepfake video snimke, pa čak i da naruče prilagođeni neodobreni porno sadržaj za određenu cenu cbsnews.com. Sajt je negovao zajednicu sa forumima za diskusiju o tehnikama i razmenu sadržaja. Međutim, kao što ćemo kasnije detaljnije objasniti, Mr. Deepfakes je zatvoren 2025. godine nakon što je izgubio ključnog provajdera usluga cbsnews.com. Nakon takvih suzbijanja, deepfake porno zajednica nije nestala – ona se rascepila i migrirala. Stručnjaci napominju da gašenje velikog sajta „raspršuje zajednicu korisnika, verovatno ih usmeravajući ka manje mainstream platformama kao što je Telegram“ za razmenu sadržaja cbsnews.com. Zaista, šifrovane aplikacije i nišni forumi su novi dom za mnoge NSFW AI entuzijaste koji su proterani sa većih platformi.
- AI „devojka“ i usluge pratilaca: Talas startapa kombinuje generisanje erotskog sadržaja sa interaktivnim društvom. Jedan od zapaženih primera je Oh (sa sedištem u Londonu), koji sebe predstavlja kao „AI OnlyFans“ – platformu za erotske pratioce gde korisnici komuniciraju sa AI-generisanim virtuelnim modelima putem teksta, glasa i slika sifted.eu sifted.eu. Oh je prikupio 4,5 miliona dolara početkom 2025. godine kako bi stvorio „autonomne oskudno odevene botove“ koji čak mogu proaktivno slati korisnicima koketne poruke sifted.eu sifted.eu. Na sajtu korisnici vide profile polugolih AI botova – uglavnom izmišljenih ženskih likova, iako su neki „digitalni blizanci“ pravih odraslih kreatora koji licenciraju svoj lik (i dobijaju deo prihoda) sifted.eu. Korisnici mogu ćaskati sa ovim botovima i dobijati seksi poruke, AI-generisane nage slike, pa čak i glasovne poruke generisane kloniranim glasovima sifted.eu. Nekoliko sličnih usluga pojavilo se oko 2023–2024: DreamGF, Kupid AI, FantasyGF, Candy.ai, itd., što ukazuje na trend AI-pokretanih erotskih čet pratilaca sifted.eu. Privlačnost je 24/7, potpuno prilagodljiva erotska interakcija – u suštini virtuelna cam devojka ili dečko pokretani algoritmima.
- Ustanovljene platforme za odrasle se prilagođavaju: Tradicionalne platforme za sadržaj za odrasle nisu ostale netaknute AI talasom. OnlyFans, popularna pretplatnička usluga za kreatore, suočila se sa naletom AI-generisanog sadržaja za odrasle. Po pravilima, OnlyFans dozvoljava AI-generisane slike samo ako prikazuju verifikovanog kreatora i jasno su označene kao AI sadržaj reddit.com. Zabranjeno je korišćenje AI za imitaciju drugih ili za automatizovano ćaskanje sa fanovima reddit.com. Uprkos tome, pojavili su se izveštaji o nalozima koji prodaju pakete očigledno AI-generisanih golih fotografija (sa prepoznatljivim greškama poput čudnih ruku ili „mrtvih očiju“ na svakoj slici) neupućenim pretplatnicima reddit.com. Neki ljudski kreatori su besni, strahujući da bi lažni AI modeli mogli preplaviti platformu i ugroziti njihovu zaradu reddit.com uniladtech.com. Jedna seksualna radnica je žalila da AI „oduzima trud, kreativnost i muku“ koju pravi kreatori ulažu, nazvavši to „medveđom uslugom za moje fanove“ i izrazila zabrinutost da će to pogoršati nerealna očekivanja o seksu reddit.com reddit.com. S druge strane, nekoliko snalažljivih kreatora za odrasle prihvata AI alate – koristeći generatore slika za unapređenje ili umnožavanje svog sadržaja, ili licencirajući svoj lik kompanijama poput Oh za dodatni prihod sifted.eu. Industrija sadržaja za odrasle u celini (porno studiji, cam sajtovi itd.) oprezno eksperimentiše sa AI za kreiranje sadržaja, ali ga takođe posmatra s dozom sumnje kao disruptivnu silu koja bi mogla omogućiti poplavu eksplcitnog sadržaja generisanog od strane korisnika van profesionalne sfere. Analitičari industrije predviđaju da bi AI-generisan sadržaj za odrasle mogao činiti preko 30% potrošnje onlajn pornografije do 2027. godine ako se trenutni trendovi nastave globenewswire.com, što je pokazatelj koliko se ova tehnologija brzo širi.
NSFW AI zajednica se brzo razvija i raznolika je, od umetnika hobista koji istražuju AI erotiku kao „kreativno i lično istraživanje“ do hardcore deepfake grupa koje prave zlonamerne lažne nage slike chicagoreader.com. Nove platforme i alati pojavljuju se gotovo svake nedelje, svaka nudeći drugačiji balans između slobode i ograničenja. Kako je jedan pregled iz 2025. rekao, „svet NSFW AI generatora je ogroman i brzo se menja“, pri čemu se neke platforme fokusiraju na hiper-realistične vizuale, druge na interaktivno pripovedanje, a svaka zauzima svoju etičku sivu zonu chicagoreader.com. Ono što ih ujedinjuje jeste obećanje na zahtev, visoko personalizovanog sadržaja za odrasle – i opasnosti koje dolaze sa takvom moći.
2025: Poplava AI pornografije i rastući otpor
Do sredine 2025. godine, NSFW AI je dostigao prelomnu tačku. S jedne strane, sadržaj je postao rašireniji i uverljiviji nego ikada; s druge strane, javna zabrinutost i regulatorni nadzor dostigli su novi vrhunac. Najnovija dešavanja uključuju incidente zloupotrebe visokog profila, brze regulatorne reakcije, pa čak i samoregulaciju unutar tehnološke industrije. U nastavku sumiramo neke od glavnih vesti i trendova iz 2024–2025 u vezi sa AI-generisanom pornografijom:
Kontroverze i skandali sa neodobrenim deepfake sadržajem
Možda ništa nije više podstaklo debatu o NSFW veštačkoj inteligenciji od porasta nepristane deepfake pornografije – korišćenje veštačke inteligencije da se učini da izgleda kao da se neko (obično žena) pojavljuje nag ili u seksualnim radnjama koje nikada nije izveo/la. Ova praksa je počela sa poznatim ličnostima, ali je sve češće usmerena na obične ljude, često kao oblik uznemiravanja ili “osvetničke pornografije”. Do 2023. godine, postala je uznemirujuće rasprostranjena i lako dostupna: istraživački izveštaji su otkrili da bilo ko može lako pronaći deepfake porno sajtove preko Google-a, pridružiti se Discord serveru da naruči lažne snimke po želji, pa čak i platiti kreditnom karticom – cvetajuća podzemna ekonomija u kojoj “kreatori” otvoreno reklamiraju svoje usluge theguardian.com theguardian.com. Studije su dosledno pokazivale da su žene i devojčice ubedljivo najčešće žrtve ovog trenda. Prelomni izveštaj firme Sensity (firma za bezbednost veštačke inteligencije) otkrio je da je 95–96% deepfake sadržaja na internetu nepristana seksualna slika, skoro uvek sa ženama u glavnoj ulozi theguardian.com. Poznate žene, od glumice Taylor Swift do internet ličnosti, imale su lažne nage slike koje su postale viralne na društvenim mrežama klobuchar.senate.gov. Još alarmantnije, na meti su i privatne osobe i maloletnici: na primer, četrnaestogodišnja devojčica je otkrila da su njeni školski drugovi koristili aplikaciju da naprave lažne porno slike sa njenim likom i podelili ih na Snapchatu klobuchar.senate.gov.Jedan istaknuti incident dogodio se u januaru 2023. godine, kada je Twitch strimer video igara uhvaćen sa otvorenim browser tabom na deepfake porno sajtu na kojem su bile njegove koleginice. Strimer se kroz suze izvinio, ali jedna od žena, Twitch strimerka QTCinderella, dala je snažan odgovor: „Ovako izgleda kada se osećaš povređeno… kada vidiš slike sebe ‘golu’ kako se šire“ bez pristanka theguardian.com. Naglasila je koliko je nepravedno što kao žena u javnosti sada mora da troši vreme i novac boreći se da ukloni lažne seksualne slike sa interneta theguardian.com theguardian.com. Njena molba – „Ne bi trebalo da bude deo mog posla da budem ovako uznemiravana“ – izazvala je snažnu reakciju i privukla pažnju javnosti na deepfake pornografiju kao ozbiljan oblik zlostavljanja.Od tada su se ovakvi slučajevi samo umnožili. U 2024. godini, učenici u više zemalja postali su i počinioci i žrtve AI zamene nagih slika. U Australiji, školska zajednica bila je potresena lažnim eksplicitnim slikama nekoliko učenica koje su generisane i deljene bez njihovog pristanka, što je dovelo do policijske istrage i javnog negodovanja theguardian.com. U Hong Kongu 2025. godine, student prava na prestižnom Univerzitetu u Hong Kongu navodno je napravio AI porno slike najmanje 20 koleginica i profesorki, izazvavši skandal kada je početna kazna univerziteta bila samo pismo upozorenja cbsnews.com cbsnews.com. Vlasti Hong Konga su navele da je po trenutnom zakonu samo distribucija takvih slika krivično delo, a ne samo njihovo pravljenje, ostavljajući rupu u zakonu ako počinilac nije javno podelio lažne slike cbsnews.com. Grupe za ženska prava osudile su grad kao „zaostao“ u zaštiti, a poverenik za privatnost Hong Konga ipak je pokrenuo krivičnu istragu, pozivajući se na moguću nameru nanošenja štete cbsnews.com cbsnews.com. Slučaj je pokazao da svako može biti meta i da postojeći zakoni često ne uspevaju da prate razvoj događaja.
Usred ovih zloupotreba, žrtve opisuju ozbiljnu emocionalnu i reputacionu štetu. Biti prikazan u hiperrealističnom lažnom seksualnom činu je duboko traumatično, čak i ako logički znate da je lažno. „Nadrealno je videti svoje lice… Izgledali su nekako mrtvo iznutra“, rekla je jedna studentkinja koja je pronašla AI-generisane video snimke sebe na porno sajtu (postavio ih je nezadovoljni bivši kolega) centeraipolicy.org. Žrtve se osećaju nemoćno, ne samo zato što nikada nisu pristale na takve slike, već i zato što je veoma teško ukloniti ih. Kao što je napisala jedna novinarka, „nepristanak na deepfake pornografiju je hitan slučaj koji uništava živote.“ To primorava žene da žive u stanju paranoje, pitajući se ko je video te lažne snimke, i preusmerava njihovu energiju u „noćnu moru igre udaraca po krtici“ pokušavajući da uklone sadržaj sa interneta theguardian.com klobuchar.senate.gov. Aktivisti su to uporedili sa oblikom seksualnog sajber terorizma osmišljenog da ućutka i zastraši žene theguardian.com.
Čak su i glavne društvene mreže nenamerno olakšavale širenje AI eksplicitnog sadržaja. Početkom 2024. godine, eksplicitne deepfake slike Tejlor Svift su se toliko proširile na X (bivši Tviter) – prikupivši milione pregleda – da je platforma privremeno blokirala rezultate pretrage za njeno ime kako bi zaustavila talas cbsnews.com. Meta (Fejsbuk/Instagram) je 2024. godine imala stotine oglasa za „nudify“ aplikacije (alati koji digitalno svlače slike žena pomoću AI), uprkos tome što takvi oglasi krše politiku. Nakon istrage CBS News-a, Meta je uklonila mnoge od tih oglasa i priznala da su prošli kroz proveru cbsnews.com. Prisustvo takvih oglasa pokazuje koliko su normalizovane i dostupne AI aplikacije za „svlačenje“, čak i na legitimnim oglasnim mrežama cbsnews.com.
Zabrane na platformama i samoregulacija industrije
Suočeni sa pritiskom javnosti, neke tehnološke platforme i provajderi usluga preduzeli su korake da obuzdaju NSFW AI sadržaj tokom protekle godine. Značajan razvoj događaja bilo je gašenje Mr. Deepfakes-a u maju 2025. godine, što je ranije pomenuto. Sajt je objavio da se gasi nakon što je “ključni provajder usluga povukao svoju podršku”, što je efektivno izbacilo sajt van mreže cbsnews.com. Iako nije potvrđeno, ovo sugeriše da je infrastrukturni ili hosting provajder (moguće cloud servis, registar domena ili DDoS zaštita) odlučio da prekine saradnju, verovatno zbog pravnog ili reputacionog rizika. Tajming je bio svega nekoliko dana nakon što je američki Kongres usvojio važan zakon protiv deepfake sadržaja (o čemu će biti reči u nastavku), zbog čega su mnogi to videli kao deo šire akcije suzbijanja cbsnews.com. Henry Ajder, poznati stručnjak za deepfake, pozdravio je zatvaranje sajta kao razbijanje “centralnog čvora” velike mreže za zloupotrebu cbsnews.com. “Ovo je trenutak za slavlje,” rekao je, uz upozorenje da problem neovlašćenih deepfake slika “neće nestati” – on će se raspršiti, ali verovatno nikada više neće steći tako široku popularnost cbsnews.com. Zaista, Ajder je primetio da će te zajednice pronaći nova mesta, ali “neće biti tako velike i istaknute” kao što je to bio slučaj sa jednim velikim sajtom, što je “kritičan” napredak cbsnews.com.Velike tehnološke kompanije su takođe počele da se bave aspektom alata i oglasa. U maju 2024. godine, Google je ažurirao svoja pravila kako bi zabranio oglase za platforme koje prave deepfake pornografiju ili tutorijale o tome kako se ona pravi arnoldit.com. Googleov potez, koji stupa na snagu krajem maja 2024, predstavljao je pokušaj da se spreči promocija ovih usluga putem Google oglasa. (Google je prethodno zabranio korišćenje svoje Colab platforme za treniranje deepfake modela, a još 2018. godine, sajtovi poput Reddita i Pornhuba su zvanično zabranili AI-generisanu neodobrenu pornografiju arnoldit.com.) Ovo je predstavljeno kao Googleova priprema za još gore što dolazi: „ako je deepfake pornografija izgledala loše 2018, sada će sigurno izgledati mnogo realističnije“, navodi se u izveštaju ExtremeTech-a, opravdavajući potrebu za strožim pravilima za oglase arnoldit.com. Kompanije društvenih mreža takođe ažuriraju moderaciju sadržaja – na primer, Pornhub i glavni sajtovi za odrasle su 2018. obećali da će zabraniti deepfake sadržaje (kao neodobrenu pornografiju), a u Evropi, nova pravila u periodu 2024–25. primoravaju sajtove za odrasle da aktivno „suzbijaju štetan sadržaj“ ili će se suočiti sa kaznama subscriber.politicopro.com. Kao deo šireg napora za bezbednost, vlasnik Pornhuba je čak privremeno obustavio uslugu u nekim regionima (poput Francuske i pojedinih američkih saveznih država) zbog zabrinutosti oko usklađenosti sa novim zakonima subscriber.politicopro.com, ilustrujući kako su platforme za odrasle primorane da ozbiljno shvate zaštitu sadržaja ili da onemoguće pristup.Glavne AI firme i dalje se distanciraju od NSFW upotrebe. OpenAI-jev model za slike DALL·E i ChatGPT servis održavaju stroge filtere protiv seksualnog sadržaja. Midjourney (popularni AI generator slika) ne samo da zabranjuje pornografske upite, već je implementirao automatsku moderaciju koja prepoznaje kontekst kako bi sprečio korisnike da provuku NSFW zahteve arxiv.org. Kada filteri jednog modela budu zaobiđeni domišljatim formulacijama upita, incidenti postaju javni i developeri pooštravaju zaštitu (večita igra mačke i miša). Sa druge strane, novi akteri ponekad ističu svoj nedostatak cenzure kao prednost: na primer, najnoviji model Stability AI-ja, Stable Diffusion XL, tehnički može da generiše NSFW slike ako se pokreće lokalno bez sigurnosnog filtera, a neke manje kompanije otvoreno reklamiraju „manje ograničenja na NSFW sadržaj u poređenju sa konkurencijom“ latenode.com. Ovo pokazuje podelu u AI industriji: veliki igrači biraju oprez i bezbednost brenda, dok manji ili otvoreni projekti zadovoljavaju potražnju za necenzurisanom generativnom AI – uključujući pornografiju.
Glavni pravni i regulatorni razvoj (2024–2025)
Možda su najznačajniji razvoj događaja došli od zakonodavaca koji odgovaraju na opasnosti AI pornografije. Širom sveta, vlade počinju da donose zakone za kažnjavanje neodobrenih deepfake-ova, zaštitu žrtava, pa čak i regulisanje samih AI alata. Evo pregleda značajnih poteza:
- Sjedinjene Države – Zakon o uklanjanju (Take It Down Act) (2025): U aprilu 2025. godine, Kongres SAD je velikom većinom usvojio dvostranački “Zakon o uklanjanju”, prvi savezni zakon koji se direktno bavi AI-generisanim intimnim slikama klobuchar.senate.gov. On čini federalnim krivičnim delom kreiranje ili deljenje intimnih slika (stvarnih ili AI-generisanih) bez pristanka osobe. Ključna odredba nalaže onlajn platformama da uklone takav sadržaj u roku od 48 sati nakon što žrtva to prijavi klobuchar.senate.gov. Ovaj zakon – za koji se zalagala prva dama Melanija Tramp i koji su zajedno napisali senatori iz obe partije – potpisao je predsednik Donald Tramp u maju 2025. godine klobuchar.senate.gov. Smatra se prvim velikim internet zakonom tokom Trampovog drugog mandata i direktnim odgovorom na “brzo rastući problem [nepristanog pornografskog sadržaja]” klobuchar.senate.gov. Zagovornici prava žrtava su ga pohvalili kao davno potreban. “Deepfake tehnologija stvara užasavajuće nove mogućnosti za zloupotrebu,” rekla je senatorka Ejmi Klobučar, dodajući da sada žrtve mogu ukloniti materijal i počinioce privesti pravdi klobuchar.senate.gov. Posebno je značajno što su velike tehnološke kompanije poput Mete, Gugla i Snapa podržale ovaj zakon – što je znak saglasnosti da se nešto mora preduzeti klobuchar.senate.gov. Zakon predviđa kazne uključujući novčane kazne i do 2 godine zatvora za počinioce cbsnews.com. Takođe omogućava žrtvama da tuže kreatore/distributere za odštetu, čime se jača građanska zaštita. Grupe za slobodu govora i privatnost upozorile su na potencijalnu zloupotrebu zakona – na primer, Lia Holand iz organizacije Fight for the Future nazvala ga je “dobronamernim, ali loše napisanim”, strahujući da bi zlonamerne osobe mogle zloupotrebiti zahteve za uklanjanje radi cenzurisanja legitimnog sadržaja klobuchar.senate.gov. Ipak, Zakon o uklanjanju je sada na snazi, predstavljajući prvi pravi korak savezne vlade SAD u borbi protiv seksualne eksploatacije putem veštačke inteligencije u velikim razmerama.
- Save američke države: Čak i pre federalnih mera, više saveznih američkih država donelo je sopstvene zakone. Kalifornija, Teksas, Virdžinija, Njujork i druge usvojile su zakone u periodu 2019–2023. koji zabranjuju kreiranje ili distribuciju deepfake pornografije bez pristanka (često svrstano pod zakone o osvetničkoj pornografiji ili seksualnoj imitaciji). U 2025. godini, države su nastavile da usavršavaju zakone. Na primer, Tenesi je uveo “Zakon o sprečavanju deepfake slika” koji stupa na snagu 1. jula 2025. godine, stvarajući građansku i krivičnu odgovornost za svakoga čiji je intimni lik korišćen bez pristanka wsmv.com wsmv.com. Ovaj potez je usledio nakon što je lokalna TV meteorološkinja otkrila da se njene lažne nage fotografije šire internetom, što ju je navelo da svedoči o posledicama po nju i njenu porodicu wsmv.com. Tenesi je takođe usvojio zakon kojim se kriminalizuju sami alati za AI dečiju pornografiju – čineći krivičnim delom svesno posedovanje, distribuciju ili proizvodnju softvera namenjenog za kreiranje AI-generisanog materijala seksualnog zlostavljanja dece wsmv.com. Ovaj zakon prepoznaje užas AI-generisane dečije pornografije i nastoji da ga predupredi ciljajući samu tehnologiju (posedovanje takvog alata u TN je sada krivično delo klase E, a proizvodnja klase B) wsmv.com.
- Evropa – Mere na nivou EU: Evropska unija je usvojila dvostruki pristup: opšte regulative o veštačkoj inteligenciji i posebne krivične direktive. Predstojeći Zakon EU o veštačkoj inteligenciji (očekuje se da će biti finalizovan 2024/2025) zahtevaće da sadržaj generisan veštačkom inteligencijom ispunjava obaveze transparentnosti. Dipfejkovi, koji su klasifikovani kao veštačka inteligencija „ograničenog rizika“, neće biti potpuno zabranjeni, ali moraju biti jasno označeni kao generisani veštačkom inteligencijom (npr. vodenim žigom ili napomenom), a kompanije moraju otkriti detalje o podacima korišćenim za obuku euronews.com euronews.com. Nepoštovanje može dovesti do kazni i do 15 miliona evra ili više euronews.com. Pored toga, EU je usvojila Direktivu o nasilju nad ženama koja eksplicitno kriminalizuje neovlašćeno kreiranje ili deljenje seksualnih dipfejkova euronews.com. Ova direktiva nalaže da države članice EU zabrane ovakvo ponašanje (tačne kazne određuje svaka zemlja) do 2027. godine euronews.com euronews.com. Ovo znači da će širom Evrope pravljenje lažnih pornografskih slika neke osobe bez njenog pristanka biti krivično delo, što je u skladu sa tretmanom stvarne „osvetničke pornografije“.
- Francuska: Francuska je 2024. godine odlučno reagovala novom odredbom u svom Krivičnom zakoniku. Sada je u Francuskoj nezakonito deliti bilo koji AI-generisani vizuelni ili audio prikaz osobe bez njenog pristanka euronews.com. Ako se to učini putem onlajn servisa, kazne su strože (do 2 godine zatvora, 45.000 € novčane kazne) euronews.com. Važno je napomenuti da je Francuska posebno zabranila pornografske deepfake-ove, čak i ako neko pokuša da ih označi kao lažne euronews.com. Dakle, u Francuskoj je kreiranje ili distribucija seksualnog deepfake-a kažnjiva do 3 godine zatvora i 75.000 € novčane kazne euronews.com. Francuski zakon takođe ovlašćuje svog digitalnog regulatora ARCOM da naloži platformama uklanjanje takvog sadržaja i unapređenje sistema za prijavljivanje euronews.com.
- Ujedinjeno Kraljevstvo: UK je 2023–2024. takođe ažuriralo zakone. Izmene Zakona o seksualnim deliktima učiniće pravljenje seksualnog dipfejka bez pristanka kažnjivim do 2 godine zatvora euronews.com euronews.com. Posebno, Zakon o bezbednosti na internetu iz 2023. (sveobuhvatna regulativa interneta) izričito zabranjuje deljenje ili pretnju deljenjem seksualnih slika bez pristanka (uključujući dipfejkove) na društvenim mrežama, i zahteva od platformi da „proaktivno uklone” takav materijal ili spreče njegovo pojavljivanje euronews.com. Ako platforme ne uspeju, suočavaju se sa kaznama do 10% globalnog prihoda – ogroman podsticaj za poštovanje propisa euronews.com. Međutim, neki stručnjaci napominju da UK i dalje ne kriminalizuje pravljenje dipfejka koji nije podeljen, što ostavlja žrtve ranjivim ako slike ostanu privatne (slično situaciji u Hong Kongu) euronews.com. Postoje pozivi da UK čak kriminalizuje i razvoj i distribuciju samih alata za dipfejk euronews.com.
- Danska: U junu 2025. godine, danski parlament je usvojio revolucionarni zakon kojim se pojedincima daje autorsko pravo nad sopstvenim likom – u suštini, vaše lice postaje “vaša intelektualna svojina” kao način borbe protiv deepfake-ova euronews.com. Ovim zakonom biće nezakonito kreirati ili deliti “digitalne imitacije” nečijih karakteristika bez pristanka euronews.com. “Imate pravo na svoje telo, svoj glas i svoje crte lica,” rekao je danski ministar kulture, predstavljajući to i kao zaštitu od dezinformacija i seksualne zloupotrebe euronews.com. Iako se detalji još čekaju, sugeriše se da će Danska tretirati pravljenje deepfake-a o vama kao kršenje vaših “prava na lik”, slično kao kršenje autorskih prava, što bi moglo znatno pojednostaviti uklanjanje i pravne postupke.
- Južna Koreja: Južna Koreja je bila jedna od prvih zemalja koje su teško pogođene deepfake pornografijom (s obzirom na njene probleme sa digitalnim seksualnim zločinima poslednjih godina). Do 2021. godine, Južna Koreja je zabranila kreiranje ili deljenje seksualnih deepfake sadržaja; krajem 2024. otišla je korak dalje da kriminalizuje čak i posedovanje ili gledanje takvog sadržaja. Zakon usvojen u septembru 2024. (koji je potpisao predsednik Jun 2024/25) učinio je nezakonitim kupovinu, posedovanje ili gledanje seksualno eksplicitnih deepfake slika/video snimaka, a prekršioci se suočavaju sa do 3 godine zatvora cbsnews.com cbsnews.com. Kreiranje/distribucija je već bila nezakonita (5+ godina zatvora) i povećana je na maksimalno 7 godina ako novi zakon bude potpisan cbsnews.com. Ovakav agresivan pristup prepoznaje da su se ove lažne slike često razmenjivale među mladima; zapravo, 2024. korejska policija je prijavila 387 hapšenja povezanih sa deepfake seksualnim sadržajem samo u prvoj polovini godine – 80% uhapšenih su bili tinejdžeri cbsnews.com. Problem je postao toliko rasprostranjen među tinejdžerima (pravljenje lažnih snimaka vršnjaka, nastavnika itd.) da Koreja tretira kao ozbiljan zločin čak i samo traženje takvog materijala cbsnews.com cbsnews.com. Aktivisti u Seulu su protestovali sa transparentima na kojima je pisalo „Ponavljajući deepfake seksualni zločini, država je takođe saučesnik“ zahtevajući oštrije mere cbsnews.com, a vlada je odgovorila ovim merama.
- Kina: Pornografija bilo koje vrste je strogo ilegalna u Kini, a to se odnosi i na pornografiju generisanu veštačkom inteligencijom. Štaviše, Kina je u januaru 2023. godine uvela pionirske propise o tehnologiji „duboke sinteze“, zahtevajući da svaki AI-generisan ili izmenjen medijski sadržaj koji može da dovede u zabludu mora imati jasne oznake ili vodene žigove i zabranjujući upotrebu takve tehnologije za imitaciju, prevaru ili ugrožavanje bezbednosti oxfordmartin.ox.ac.uk afcea.org. Suštinski, Kina je unapred zabranila neoznačene deepfake-ove i dala vlastima široka ovlašćenja da kazne one koji ih prave. U kombinaciji sa opštom zabranom opscenog materijala, NSFW AI sadržaj je dvostruko zabranjen – iako verovatno postoji u podzemnim krugovima, kineski cenzori imaju zakonska sredstva da ga odmah obrišu i gone.
Globalno, trend je jasan: nepristanak na AI seksualne slike postaje krivično delo u različitim jurisdikcijama, a platforme su obavezane da ih kontrolišu. Do kraja 2025. godine, pravni okvir je znatno manje tolerantan prema deepfake pornografiji nego što je bio samo dve godine ranije, kada su samo neke američke savezne države i zemlje poput Južne Koreje imale takve zakone. Ipak, sprovođenje i svest ostaju izazovi. Mnoge žrtve i dalje ne znaju da ih zakoni sada štite, a policija/tužioci su često nedovoljno opremljeni za istragu anonimnih onlajn prestupnika. Zakoni se takođe razlikuju – negde se kažnjava i privatno pravljenje, drugde samo ako se distribuira. Ipak, zamajac ka priznavanju AI-generisanog seksualnog zlostavljanja kao stvarnog zlostavljanja je neosporan. Kako je jedan američki profesor prava primetio, ovaj talas zakonodavstva vraća moć u ruke žrtava i šalje poruku da „imate prava nad sopstvenim likom i telom, čak i u eri veštačke inteligencije“ euronews.com.
Etnička močvara: pristanak, deepfake-ovi i uticaj na društvo
Van pravne sfere, NSFW AI otvara duboka etička i društvena pitanja. U srži je pitanje pristanka – može li eksplicitan sadržaj ikada biti etički ako je generisan bez pristanka (ili čak svesti) onih koji su prikazani? Većina bi se složila da su deepfake-ovi bez pristanka očigledno etički pogrešni, u suštini oblik seksualnog nasilja. Ali dileme su dublje: Šta je sa AI-generisanom pornografijom koja koristi slike stvarnih ljudi dobijene uz pristanak (npr. treniranje na komercijalnim porno videoima) – da li je to „bez žrtava“ ili se iskorišćava lik tih izvođača bez dodatnog pristanka ili nadoknade? Šta je sa potpuno fiktivnom AI pornografijom – gde nema stvarne osobe – da li je to bezopasno, ili može normalizovati opasne fantazije (poput eksploatacije dece ili scenarija silovanja)? I kako se pristrasnosti AI modela odražavaju u erotskom sadržaju?
Saglasnost i privatnost: Najneposrednija briga je što ljudi imaju nultu kontrolu ili saglasnost nad tim kako AI može koristiti njihov lik. Svako ko je ikada postavio fotografiju na internet (ili čak i oni koji nisu, ako poznanik ima njihovu fotografiju) teoretski je u riziku da postane lice porno deepfake-a. Žene, posebno one u javnosti, sada žive sa zastrašujućom realnošću: možete se probuditi i otkriti da internet “misli” da ima vaše nage fotografije ili snimke seksa, zahvaljujući AI theguardian.com. Ovo krši osnovno lično dostojanstvo i privatnost. Kako danski zakon kaže, trebalo bi da imate pravo na svoje lice i telo – ali trenutna tehnologija i norme to ne garantuju. Eticari tvrde da samo postojanje ovih lažnjaka, čak i ako nisu široko rasprostranjeni, predstavlja štetu – to je prikaz seksualnog čina u koji ste uključeni, stvoren bez vaše dozvole. To može imati psihološki efekat sličan seksualnom napadu. Činjenica da “internet je zauvek” dodatno povećava štetu: jednom kada se slike prošire, mogu se iznova pojavljivati, terajući žrtve da ponovo proživljavaju traumu. Svi ovi faktori čine nevoljnu AI pornografiju ozbiljnim etičkim prekršajem. Društvo počinje da je tretira ravnopravno sa drugim seksualnim zločinima po pitanju stigme i posledica, ali, kao što je pomenuto, zakoni još uvek sustižu.
Deepfake-ovi i istina: Drugi aspekt je kako deepfake-ovi zamagljuju realnost. Sa AI porno slikama koje izgledaju sve realnije, gledaoci možda neće shvatiti da su lažne, što dodatno narušava reputaciju. Lažni seks video može nekome oduzeti posao, uništiti odnose ili biti korišćen za ucenu (“sextortion”). Čak i ako se kasnije dokaže da je lažan, poniženje i šteta po ugled ne mogu se u potpunosti ispraviti. Ovo etički podiže ulog za kreatore ovakvih lažnjaka – oni se igraju stvarnim životima i egzistencijama. Takođe naglašava društveni izazov: kako da održimo poverenje u medije kada “videti” više ne znači “verovati”? Neki stručnjaci nazivaju deepfake-ove “napadom na istinu” koji se u kontekstu pornografije koristi kao oružje za ponižavanje i kažnjavanje žena theguardian.com.
Maloletnici i AI-generisani CSAM: Možda je najšire prihvaćena etička crvena linija AI-generisani materijal seksualnog zlostavljanja dece (CSAM) – tj. prikazi maloletnika u seksualnim scenama. Čak i ako nijedno stvarno dete nije povređeno tokom njegovog nastanka, gotovo svi regulatori i platforme tretiraju AI-generisanu dečiju pornografiju kao podjednako nezakonitu i štetnu kao i pravi CSAM. Etičko obrazloženje je jasno: takav sadržaj seksualizuje decu i može podstaći stvarne prestupe. Takođe se često generiše korišćenjem fotografija stvarne dece (npr. uzimanjem nevine fotografije deteta i njenim „nagođivanjem” ili izmenom putem AI – odvratno kršenje dostojanstva i privatnosti tog deteta) centeraipolicy.org. Nažalost, postoje dokazi da se ovo dešava. Istraživač sa Stanforda, David Thiel, otkrio je stotine poznatih slika zlostavljanja dece ugrađenih u popularni AI skup podataka za obuku Stable Diffusion-a centeraipolicy.org. To znači da je model delimično treniran na stvarnim kriminalnim slikama zlostavljanja, što je duboko problematično. Čak i ako se one sada uklanjaju, sama činjenica da su korišćene ukazuje na to da su AI programeri možda nesvesno trenirali modele na sadržaju zlostavljanja. Još gore, bez pažljivih zaštitnih mera, AI bi potencijalno mogao da generiše nove slike koje podsećaju na te nezakonite ulazne podatke za obuku. Neki korisnici na forumima pokušali su da koriste AI za „svlačenje” fotografija maloletnika ili kreiranje nedozvoljenih slika – trend koji policija pokušava da zaustavi. Etički, postoji gotovo potpuni konsenzus: AI nikada ne bi smeo da se koristi za kreiranje CSAM-a. Ipak, sprovođenje toga je teško – zahteva da modeli budu eksplicitno obučeni da odbiju svaki zahtev ili pokušaj proizvodnje takvog sadržaja, ili zakone koji svaki takav pokušaj čine ozbiljnim krivičnim delom (kao što je to uradio Tenesi). Tehnološke kompanije sada često ugrađuju filtere tako da čak i reč „dete” ili nagoveštaj maloletnosti u zahtevu bude blokiran. Ali korisnici sa lošim namerama pokušavaju da pronađu zaobilazna rešenja. Ulog je izuzetno visok, jer ako se AI zloupotrebi na ovaj način, može ponovo viktimizovati žrtve zlostavljanja i pružiti novi materijal pedofilima pod lažnim opravdanjem da „nijedno stvarno dete nije povređeno.” Mnogi etičari osporavaju argument „zločina bez žrtve” ističući da konzumiranje bilo kakvog prikaza dečije eksploatacije, stvarnog ili AI, verovatno podstiče stvarno zlostavljanje normalizujući ga centeraipolicy.org reddit.com. Dakle, ovo je čvrsta etička granica oko koje se većina slaže: generisanje ili korišćenje AI za dečiji seksualni sadržaj je kategorički pogrešno i mora biti sprečeno svim sredstvima (tehničkim i pravnim).
Podaci za obuku i prisilni sadržaj: Postoji manje očigledan, ali važan etički problem u vezi sa načinom na koji se NSFW AI modeli prave. Mnogi AI generatori pornografije su obučavani na velikim skupovima podataka prikupljenim sa interneta – uključujući i pornografske sajtove. To znači da su slike stvarnih ljudi (porno glumaca, webcam modela, čak i procurele privatne nage fotografije) završile kao podaci za obuku bez pristanka tih pojedinaca. AI kompanije su to radile tiho, a tek kasnije su istraživači počeli da otkrivaju razmere toga. Na primer, jedan AI generator nagih slika pod nazivom “These Nudes Do Not Exist” je obučen na sadržaju sa “Czech Casting”, porno kompanije koja je pod istragom zbog prisiljavanja žena na seks centeraipolicy.org. Dakle, AI je bukvalno bio obučen na video snimcima žena koje su možda bile žrtve trgovine ljudima ili silovanja – efektivno učeći da regeneriše slike njihovih tela ili drugih u sličnim pozama. Te žene sigurno nisu pristale na dalju upotrebu svojih slika za stvaranje beskonačno nove pornografije. Kako je jedna žrtva te situacije rekla o svojoj slici u AI skupu za obuku: “osećam se nepravedno, kao da mi se oduzima sloboda” centeraipolicy.org. Čak i u manje ekstremnim slučajevima, modeli su možda unosili milione svakodnevnih fotografija žena sa društvenih mreža ili sa snimanja – te osobe takođe nisu pristale da postanu izvorni materijal za generisanje pornografije. Svaki AI porno model nosi duhove stvarnih ljudi u svojim podacima za obuku. Mnogima od tih ljudi to možda ne smeta – na primer, odraslim izvođačima koji su dobrovoljno snimali pornografiju možda ne bi smetalo ili bi čak podržali tehnologiju koja proširuje njihov rad. Ali drugi (poput privatnih osoba na procurelim slikama, ili porno glumaca koji su napustili industriju i žele da nastave dalje) bili bi užasnuti da znaju da AI može zauvek da prepravlja njihov lik u novi seksualni sadržaj. Ovo otvara etička pitanja intelektualne svojine i prava na lik. Da li bi pojedinci trebalo da budu obeštećeni ako su njihove slike pomogle u stvaranju profitabilnog AI porno alata? Neki tvrde da da – ovi modeli “direktno profitiraju od muškaraca i žena koji su se našli u podacima za obuku” bez i najmanje zahvalnosti centeraipolicy.org. Drugi tvrde da, ako su podaci bili javno dostupni, po važećim zakonima o intelektualnoj svojini mogu slobodno da se koriste za AI obuku. Etički konsenzus naginje ka tome da se bar ne koristi očigledno nevoljni ili nasilni materijal u obuci (npr. poznata “osvetnička pornografija” ili snimci trgovine ljudima treba da budu zabranjeni). Kompanije su počele da proveravaju skupove podataka na ovakav sadržaj, ali istorijski to nisu radile, što je zabrinjavajuće. Kako je Centar za AI politiku naveo, gotovo je “sigurno” da su AI porno modeli obučavani na nekom nevoljnom intimnom sadržaju (NCII) centeraipolicy.org. U budućnosti, postoje zahtevi za strožom selekcijom skupova podataka i možda čak i za registrom za “isključenje” kako bi ljudi mogli da uklone svoje slike iz AI skupova za obuku <a href=“https://www.centeraipolicy.org/work/the-senate-passes-the-defiance-act#:~:text=These%20are%20contentious%20topics.%20%E2%80%9COpt,content%20to%20train%20centeraipolicy.org. Ovo je tehnički i logistički složeno, ali razgovor o etičnosti podataka u generativnoj veštačkoj inteligenciji postaje sve glasniji.
Fikcionalan, ali ekstreman sadržaj: Još jedno nezgodno područje – ako nije prikazana stvarna osoba, postoje li ikakva ograničenja za ono što AI pornografija treba da stvara? Neki se brinu da bi AI mogao omogućiti ultra-ekstreman ili marginalan seksualni sadržaj koji bi bilo nemoguće dobiti u stvarnom svetu, i da to može biti štetno. Na primer, simulacije silovanja, bestijalnosti, “snuff” (ubistvo) pornografije, ili kao što je pomenuto, scenarija sa decom. Branitelji bi mogli reći: „Bolje da je to AI nego da to neko radi u stvarnosti“, ali kritičari se plaše da bi to moglo desenzitizovati ljude ili ih podstaći da to izvedu u stvarnosti. Najmanje što se može reći, to otvara moralna pitanja o tome da li dozvoljavanje AI da zadovolji takve fantazije prelazi društvenu granicu. Platforme poput Oh tvrde da blokiraju sve “ilegalne prakse” – njihovi botovi neće učestvovati u pedofilskom sadržaju ili drugim kriminalnim seksualnim temama sifted.eu. Ovo je etička zaštita koju odgovorne kompanije pokušavaju da sprovedu. Ali open-source modeli nemaju urođeni moral; korisnici mogu da ih navode da generišu praktično bilo šta ako model nije eksplicitno ograničen. To znači da teret pada na ličnu savest (i lokalni zakon). Etički stav većine AI zajednica je da postave stroge filtere protiv ilegalnog ili nasilnog seksualnog sadržaja. Ipak, kako je jedan OnlyFans kreator sumorno predvideo, verovatno je samo pitanje vremena kada će neko koristiti AI da generiše stvari poput „AI zlostavljanja dece označenog kao age-play, ili AI scenarija silovanja“, i da „o tome treba više razgovarati“ reddit.com. Etičko pitanje ostaje nerešeno: da li je postojanje hiper-realistične imaginativne prikaza zločina samo po sebi štetno? Mnogi smatraju da jeste, posebno ako uključuje maloletnike (gde je to jasno kriminalno). Za druge ekstremne fantazije, društvo još nije postiglo konsenzus, ali to je oblast aktivne debate u digitalnoj etici.
Pol i reprezentacija: NSFW veštačka inteligencija takođe nasleđuje pristrasnosti i stereotipe iz svojih izvornih podataka. Mnogi mejnstrim pornografski sadržaji su kritikovani zbog seksističkog ili nerealnog prikazivanja žena, a veštačka inteligencija može pojačati te trope. Ako su modeli uglavnom trenirani, recimo, na pornografiji koja objektivizuje žene ili na uskom spektru tipova tela, rezultati će to odražavati. Ovo može dodatno učvrstiti nerealne standarde lepote ili seksualne scenarije. Štaviše, većina AI erotskih saputnika i botova za slike su po defaultu ženski, prilagođeni pretpostavljenim heteroseksualnim muškim korisnicima. Na primer, platforma Oh ima većinu AI botova kao “žene” u oskudnoj odeći kao avatari sifted.eu. Kritičari strahuju da ovo dodatno učvršćuje viđenje žena kao digitalnih igračaka i može uticati na to kako (uglavnom muški) korisnici gledaju na stvarne veze. Neki osnivači AI saputnika i sami priznaju da bi budućnost intimnosti mogla postati “čudna” ili “distopijska” ako se ljudi udalje od stvarnih partnera u korist AI fantazije sifted.eu. Tvrdilo se da ove AI devojke mogu učvrstiti štetne stereotipe o tome da su žene uvek dostupne, saglasne i prilagođene svakoj želji sifted.eu. Psiholozi i feministkinje izražavaju zabrinutost da bi ovakve tehnologije mogle pogoršati probleme poput usamljenosti, mizoginije ili iskrivljenih očekivanja o seksu. S druge strane, zagovornici tvrde da ovi alati mogu pružiti siguran izlaz onima koji imaju poteškoće u ljudskim odnosima, ili pomoći ljudima da istraže seksualnost bez stigme. Etički, to je mač sa dve oštrice: Da li bi AI devojka mogla nekoga učiniti boljim komunikatorom ili pružiti utehu? Moguće. Da li bi takođe mogla omogućiti nekome da se povuče iz stvarnih ljudskih odnosa i posmatra žene kao puko prilagodljive objekte? Moguće. Društvo će morati da se suoči sa ovim pitanjima kako ovakve usluge budu rasle.
Ukratko, etika NSFW veštačke inteligencije se vrti oko pristanka, štete i društvenih poruka koje šaljemo o seksualnosti i ličnosti. Zlatno pravilo etičke pornografije – da je svako prikazano punoletni, saglasni učesnik – potpuno je preokrenuto AI pornografijom, gde često niko prikazan zapravo nije “učestvovao” i stoga nikada nije mogao dati pristanak. Prinuđeni smo da proširimo pojam pristanka na nečiji lik, pa čak i na nečije podatke. Kako je jedan komentar naveo, ova tehnologija nas primorava da preispitamo “same temelje intimnosti, pristanka i kreativne slobode” u digitalnom dobu chicagoreader.com. Etički pejzaž je pun sivih zona, ali raste konsenzus da određene crvene linije (dečji sadržaj, nekonsenzualna upotreba stvarnih identiteta) moraju biti strogo zabranjene, i da poštovanje autonomije pojedinaca treba da bude vodič za ono što je prihvatljivo. U međuvremenu, moramo biti oprezni da ne patologizujemo sve stvaranje seksualnog sadržaja pomoću AI – za punoletne osobe koje ga koriste za sebe, to može biti i pozitivan alat. Izazov je omogućiti inovativnu, konsenzualnu upotrebu da napreduje, dok se istovremeno suzbijaju eksploatatorske prakse.
Pristalice vs. kritičari: Debata o NSFW veštačkoj inteligenciji
Reakcije na NSFW veštačku inteligenciju su polarizovane. Neki je slave kao uzbudljivu evoluciju u industriji zabave za odrasle i lične slobode; drugi je osuđuju kao društvenu pretnju. Hajde da razložimo ključne argumente obe strane:
Argumenti pristalica (za NSFW AI):
- Kreativna sloboda i seksualno istraživanje: Pristalice tvrde da AI može biti pozitivan izlaz za istraživanje seksualnosti, fantazija i fetiša na privatan način, bez osuđivanja. Korisnici koji bi se možda osećali posramljeno ili nesposobno da ostvare određene fantazije u stvarnom životu, mogu to bezbedno učiniti uz AI-generisani sadržaj ili četbotove. Ovo bi potencijalno moglo da smanji tabu i sramotu oko seksualnosti. Neki to čak nazivaju osnažujućim: „odrasli koji pristaju mogu zajedno sa AI da kreiraju svoje vizuelne fantazije u bezbednom, privatnom okruženju“, kaže direktor jedne AI platforme za odrasle globenewswire.com. Iz ove perspektive, generativna AI je samo alat – slično erotskoj umetnosti ili seksualnim igračkama – koji može unaprediti zdravo seksualno izražavanje.
- Personalizacija i inovacije u zabavi za odrasle: Pristalice ističu kako NSFW AI pruža neuporedivu personalizaciju u poređenju sa tradicionalnom pornografijom globenewswire.com. Umesto da pasivno konzumiraju ono što studiji proizvode, pojedinci mogu generisati sadržaj tačno po svom ukusu (tipovi tela, scenariji itd.). Ovaj model vođen korisnicima vidi se kao inovacija koja „remeti“ univerzalni pristup sadržaju za odrasle globenewswire.com. Može zadovoljiti nišne interese koje glavni proizvođači ignorišu (sve dok su legalni). Startapi u ovoj oblasti često ističu AI kao kvantni skok u načinu na koji se sadržaj za odrasle isporučuje – stavljajući kontrolu u ruke korisnika globenewswire.com. Takođe tvrde da poštuje privatnost: korisnici ne moraju da komuniciraju sa drugim ljudima niti da otkrivaju svoje fantazije bilo kome osim AI.
- Bezbedna zamena za štetne želje: Jedan od kontroverznijih argumenata u prilog jeste da AI pornografija može poslužiti kao bezopasna zamena za inače štetno ponašanje. Na primer, neki su teoretisali da pedofili koji koriste CGI ili AI-generisanu dečiju pornografiju mogu zadovoljiti svoje porive bez nanošenja štete stvarnoj deci (ovaj argument je veoma osporavan i većina stručnjaka ga odbacuje, ali se ponekad iznosi). Drugi sugerišu da oni sa nasilnim seksualnim fantazijama mogu koristiti AI simulacije umesto da traže stvarne žrtve. Suštinski, ovo je stav “bolje da to ispolje na pikselima nego na ljudima”. Ipak, ovo ostaje spekulativno i etički problematično – nema jasnih dokaza da AI smanjuje stvarni kriminal; može ga čak i podstaći (kako kritičari odgovaraju). Ipak, neki zagovornici slobode govora tvrde da čak i odvratne fantazije u AI formi predstavljaju misaone eksperimente koji ne bi trebalo da budu kriminalizovani sve dok nijedna stvarna osoba nije direktno povređena. Ovo gledište nije mejnstrim, ali postoji u debatama o ekstremnom sadržaju reddit.com.
- Podrška niš zajednicama i identitetima: AI može generisati sadržaj za zajednice koje su istorijski imale malo zastupljenosti u mejnstrim pornografiji – na primer, određene LGBTQ fantazije, BDSM scenarije sa specifičnim parametrima pristanka, ili erotsku umetnost sa fantastičnim elementima. Neki članovi furry ili hentai subkultura, na primer, koriste AI umetnost za kreiranje sadržaja koji bi bio nemoguć sa stvarnim glumcima. Ovo se vidi kao širenje opsega erotske umetnosti. Dodatno, AI može omogućiti osobama sa invaliditetom ili drugim ograničenjima da dožive virtuelnu intimnost na načine na koje inače ne bi mogli. Oni koji imaju poteškoće u socijalnoj interakciji mogu pronaći društvo u AI partneru koji ih ne osuđuje. Zagovornici, poput osnivača startapa “AI OnlyFans”, tvrde da bi ovi AI partneri mogli biti “neto pozitivni” za društvo, posebno za ljude koji nemaju druge oblike društva sifted.eu. Po njegovom mišljenju, ako je neko usamljen ili konzumira eksploatatorske oblike pornografije, AI partner je kontrolisana, možda zdravija alternativa sifted.eu.
- Saglasnost stvorenih naspram stvarnih modela: Još jedan argument u korist NSFW veštačke inteligencije jeste da bi korišćenje AI-generisanih glumaca (koji zapravo ne postoje) u pornografiji moglo eliminisati mnoge probleme industrije za odrasle. Nema rizika od eksploatacije stvarnog izvođača ako je porno glumica generisana veštačkom inteligencijom. Niko zapravo ne rizikuje polno prenosive bolesti ili zlostavljanje na AI setu. U teoriji, to bi moglo na kraju zameniti deo stvarne porno produkcije, čime bi se smanjila šteta za ljudske izvođače u rizičnim situacijama. (Naravno, protivargument je da ti izvođači često biraju da budu tamo i mogli bi izgubiti prihod ako budu zamenjeni, tako da je to komplikovano.) Ali futuristi zamišljaju svet u kojem savršeno realistična AI pornografija može zadovoljiti potražnju bez da ijedna stvarna osoba mora da se upušta u potencijalno degradirajući rad – u suštini, etičkiji lanac snabdevanja pornografijom. Neki stvaraoci za odrasle čak dobrovoljno prave “digitalne blizance” sebe (licenciranjem svojih slika/glasa) kako bi AI mogao da obavlja deo posla umesto njih – uz saglasnost i podelu profita sifted.eu. Ovaj model, ako se proširi, mogao bi omogućiti ljudskim stvaraocima da zarađuju dok deo kreiranja sadržaja prepuštaju AI pod svojom kontrolom, što bi možda bila dobitna kombinacija.
- Sloboda govora i umetnička vrednost: Iz perspektive građanskih sloboda, neki čak brane i NSFW AI kao oblik izražavanja. Erotska umetnost i pornografija se već dugo smatraju zaštićenim govorom (osim opscenosti) u mnogim zemljama. AI samo proširuje medij izražavanja. Ako umetnik može da nacrta akt ili snimi konsenzualnu porno scenu, zašto ne bi mogao da navede AI da stvori umetničko delo sa aktom? Oni tvrde da bi potpuno zabranjivanje AI seksualnog sadržaja bilo preterano i moglo bi cenzurisati seks-pozitivnu umetnost ili legitimne kreativne poduhvate. Pod uslovom da su svi uključeni saglasni (što je nezgodno kada je AI u pitanju, ali recimo da je proces saglasan), oni smatraju da odrasli treba da imaju slobodu da stvaraju i konzumiraju seksualni sadržaj po svom izboru, uz pomoć AI ili bez nje. Grupe poput Electronic Frontier Foundation upozorile su na široke zabrane deepfake tehnologije, ističući da tehnologija ima korisne primene i da je bolje usmeriti se na loše aktere nego zabraniti samu tehnologiju klobuchar.senate.gov. Ovaj libertarijanski stav u debati kaže: kaznite stvarnu štetu (kao što je nekonsenzualna upotreba), ali ne kriminalizujte alat ili konsenzualnu fantaziju.
Argumenti kritičara (protiv NSFW AI):
- Kršenje pristanka i zloupotreba slika: Kritičari naglašavaju da je NSFW veštačka inteligencija već omogućila masovnu zloupotrebu pristanka i lika pojedinaca. Epidemija neovlašćenih deepfake-ova govori sama za sebe – životi su uništeni, privatnost je narušena. Oni tvrde da ovo nije marginalna pojava, već glavni način korišćenja deepfake tehnologije do sada: 96% deepfake-ova je bilo pornografsko i praktično svi su nastali bez pristanka theguardian.com. Ova tehnologija, kažu oni, po svojoj prirodi podstiče takvu zloupotrebu, čineći je opasnim oružjem. Čak i kada ljudi nisu direktno meta, zabrinjavajuće je što ne postoji mogućnost da daju pristanak za uključivanje u podatke za obuku ili u nečiju fantaziju. Osobi može biti seksualna autonomija potpuno narušena time što drugi generišu eksplicitne slike nje iz ničega. Kritičari smatraju da je ovo suštinski neetično i da treba biti osuđeno kao voajerizam ili drugi seksualni zločini. Postojanje „stotina AI aplikacija za svlačenje“ koje su lako dostupne klobuchar.senate.gov znači da fotografija bilo koje žene može biti pretvorena u pornografiju za nekoliko sekundi, što mnogi nazivaju neodrživom i zastrašujućom situacijom.
- Emocionalna i psihološka šteta: Biti žrtva AI pornografskog falsifikata može izazvati akutni mentalni stres – poniženje, anksioznost, PTSP, pa čak i suicidalne misli. Tragičan primer: sedamnaestogodišnji dečak u SAD je izvršio samoubistvo 2022. godine nakon što ga je prevarant ucenjivao lažnim golim fotografijama klobuchar.senate.gov. Psihološki teret za žene koje otkriju deepfake-ove sebe je ogroman; opisuje se kao virtuelni oblik seksualnog napada. Zbog toga kritičari vide NSFW veštačku inteligenciju kao alat koji omogućava uznemiravanje i zlostavljanje u potencijalno ogromnim razmerama – „vanredno stanje“ za ranjive ljude (posebno žene, maloletnike, LGBTQ osobe koje mogu biti meta seksualnih falsifikata iz mržnje, itd.) theguardian.com. Oni tvrde da nikakve navodne koristi ove tehnologije ne mogu prevagnuti nad stvarnim štetama koje se dešavaju sada.
- Normalizacija eksploatativnog sadržaja: Protivnici se brinu da bi poplava AI pornografije, posebno ekstremnih ili ne-konsenzualnih scenarija, mogla normalizovati takve slike i narušiti društvene sankcije u vezi sa privatnošću i pristankom. Ako lažne nage slike poznatih ličnosti ili školskih drugova postanu „uobičajen internet materijal“, ljudi bi mogli postati desenzitizovani na kršenje tuđe privatnosti. To bi takođe moglo podstaći mizogine stavove (posmatranje žena kao lako dostupnih seksualnih objekata čije slike se mogu koristiti po volji). Etički, to je slično osvetničkoj pornografiji ili snimanju ispod suknje – dopuštanje širenja šalje poruku da ženska tela nisu njihova sopstvena. Dodatno, kritičari strahuju da bi AI mogao eskalirati devijantne ukuse – npr. neko ko konzumira AI simuliranu pornografiju silovanja mogao bi postati skloniji nasilju, ili pedofil sa AI-generisanom dečijom pornografijom bi i dalje mogao preći na zlostavljanje prave dece. Iako se dokazi o tome osporavaju, mnogi psiholozi pozivaju na oprez, s obzirom na to kako mediji mogu pojačati ponašanje.
- Uticaj na odnose i društvo: Neki sociolozi i feministkinje izražavaju zabrinutost da bi AI seksualni saputnici i hiperpersonalizovana pornografija mogli potkopati prave ljudske odnose. Ako se mnogi ljudi okrenu AI „devojkama“ koje su savršeno poslušne, šta se dešava sa njihovom sposobnošću da grade odnose sa stvarnim partnerima koji imaju sopstvene potrebe i granice? Postoji zabrinutost zbog povećanja društvene izolacije i iskrivljenih očekivanja o seksu i romansi. Osnivač jedne AI aplikacije za saputnike sam je to nazvao potencijalno „veoma distopijskim“ i da bi to moglo stvoriti „čudnu budućnost intimnosti“ gde se ljudi udaljavaju jedni od drugih sifted.eu. Stereotipi koji se pojačavaju – često su AI devojke podređene ženske persone – mogli bi učvrstiti seksističke stavove kod korisnika. Tako kritičari tvrde da NSFW AI može pogoršati probleme poput usamljenosti, mizoginije i komodifikacije intimnosti.
- Pretnja za umetnike, izvođače i radnu snagu: Oni koji rade u kreativnim oblastima i industriji za odrasle vide NSFW veštačku inteligenciju kao pretnju svojoj egzistenciji i pravima. Vizuelni umetnici (npr. ilustratori erotike ili modeli) smatraju da im veštačka inteligencija preuzima rad bez dozvole, a zatim generiše nove slike u njihovom stilu ili sa njihovim likom. Ovo doživljavaju kao krađu intelektualne svojine i podrivanje tržišta za naručenu umetnost. Fotografima je zabrinjavajuće što generatori slika pomoću veštačke inteligencije mogu zameniti angažovanje modela za snimanja. Glumci u porno industriji i seksualni radnici su zabrinuti da će AI „klonovi“ ili potpuno izmišljeni AI modeli preoteti potrošače – ili preplaviti tržište sadržajem koji obezvređuje njihov rad. Nekoliko OnlyFans kreatora prijavilo je pad prihoda i žalbe fanova, verovatno zbog konkurencije sa AI-generisanim sadržajem koji je jeftiniji i uvek dostupan reddit.com. Oni tvrde da je to nelojalna konkurencija jer je AI zapravo prisvojio njihove slike i privlačnost bez truda ili ljudskog dodira, i da će to dovesti do pada cena na nivoe koji nisu održivi za prave radnike. Seksualni radnici se takođe plaše da bi mogli biti pod pritiskom da koriste AI za kreiranje više sadržaja ili da budu dostupni 24/7, čime se njihov rad dodatno komodifikuje reddit.com. Sindikati i zagovaračke grupe brinu o svetu u kojem bi kompanije mogle da preferiraju AI porno zvezdu (bez prava, zahteva ili plate) u odnosu na ljudsku – scenario koji bi mogao da uništi radna mesta i iskoristi likove izvođača koji su prvobitno obučavali te modele. Ukratko, kritičari vide NSFW veštačku inteligenciju kao podrivanje ljudske kreativnosti i rada korišćenjem podataka ljudi za proizvodnju beskonačne količine besplatnog (ili jeftinog) sadržaja.
- Klizav teren morala i zakona: Sa stanovišta politike, kritičari tvrde da bi neuspostavljanje čvrstih ograničenja za NSFW veštačku inteligenciju sada moglo dovesti do nekontrolisane budućnosti. Ako prihvatimo AI pornografiju kao „samo fantaziju“, šta se dešava kada se ona ukrsti sa stvarnim pitanjima kao što je pristanak? Na primer, ako neko napravi AI pornografiju svog bivšeg partnera i tvrdi da je to samo fantazija, da li je to opravdano? Većina bi rekla ne – bivši je očigledno povređen. Zato se kritičari zalažu za princip predostrožnosti: povući granice na vreme. Neki su čak zagovarali da se alati za pravljenje deepfake-ova tretiraju kao alati za obijanje brava ili hakovanje – nisu nužno ilegalni, ali su strogo kontrolisani, a alati koji su očigledno namenjeni zloupotrebi (poput „nudify“ aplikacija koje služe isključivo za neovlašćeno skidanje odeće sa slika) treba da budu potpuno zabranjeni. Eticisti koji se zalažu za strogu regulaciju tvrde da potencijal za zloupotrebu daleko prevazilazi retke pozitivne primene. Često se pozivaju na glasove žrtava: kako je jedan tehnološki etičar rekao, „Devojčica tinejdžerka koja sebe vidi u AI-generisanoj pornografiji – to jedno iskustvo, taj jedan uništen život, opravdava strogu kontrolu ove tehnologije.“ Sloboda izražavanja je važna, kažu oni, ali ne može biti na štetu tuđe autonomije i bezbednosti.
Podela između pristalica i kritičara ponekad se poklapa sa linijama tehnološkog optimizma naspram društvenog skepticizma. Tehnološki entuzijasti vide NSFW AI kao uzbudljivu granicu (sa nekim problemima za rešavanje), dok društveni zagovornici to vide kao novi oblik digitalnog zlostavljanja koji mora biti suzbijen. Obe perspektive su validne – a izazov u budućnosti biće maksimizacija koristi (kreativna sloboda, privatno uživanje, inovacije u industriji) uz minimizaciju štete (eksploatacija bez pristanka, dezinformacije, gubitak radnih mesta). Svako rešenje zahtevaće doprinos tehnologa, zakonodavaca, etičara, industrije za odrasle i žrtava zloupotrebe slika. Do 2025. ta diskusija je zaista započela.
(Za rezime, evo kratkog poređenja dve strane:)
- Pristalice kažu da NSFW AI osnažuje kreativnost odraslih, nudi sigurno ispunjenje fantazija i može čak pomoći kreatorima uz pristanak da unovče svoj rad ili usamljenim osobama da pronađu društvo – u suštini, tehnološka evolucija pornografije koja, ako se koristi etički, nikome ne šteti i povećava ličnu slobodu globenewswire.com sifted.eu.
- Kritičari kažu da to podstiče talas seksualnog zlostavljanja zasnovanog na slikama, narušava pristanak i privatnost, potencijalno iskrivljuje korisnikove poglede na seks i veze, i eksploatiše slike i rad stvarnih ljudi radi profita bez njihovog pristanka theguardian.com reddit.com. Po njihovom mišljenju, troškovi NSFW veštačke inteligencije za društvo (posebno za žene i ranjive grupe) daleko prevazilaze privatne koristi koje neki korisnici dobijaju, što opravdava stroga ograničenja i nadzor.
Odgovor: Moderacija AI sadržaja i zaštitne mere za NSFW materijal
S obzirom na rizike NSFW veštačke inteligencije, postoji paralelna trka za razvoj tehnoloških i političkih zaštitnih mera za njeno upravljanje. Ova borba se vodi na više frontova: izgradnja boljih alata za detekciju AI-generisanog sadržaja, implementacija filtera za moderaciju sadržaja i podsticanje normi ili vodenih žigova radi razlikovanja stvarnog od lažnog. Evo kako AI i platforme pokušavaju da obuzdaju mračnu stranu NSFW veštačke inteligencije:
- Automatski NSFW filteri: Mnogi AI generatori slika uključuju klasifikatore pornografije koji pokušavaju da blokiraju ili filtriraju eksplicitan sadržaj. Na primer, zvanično izdanje Stable Diffusion dolazi sa “Safety Checker”-om koji označava i zamagljuje nage ili seksualne slike arxiv.org. OpenAI-jev DALL·E jednostavno odbija svaki upit koji čak i nagoveštava seksualni sadržaj. Midjourney ima opsežnu listu zabranjenih reči i koristi AI za tumačenje konteksta upita – neće generisati slike ako posumnja da je zahtev pornografski ili eksploatatorski arxiv.org. Ovi filteri nisu savršeni (korisnici stalno pronalaze načine da ih zaobiđu, koristeći eufemizme ili pogrešno napisane zabranjene termine arxiv.org). Ipak, oni sprečavaju slučajno ili nenamerno generisanje NSFW slika od strane običnih korisnika. Oni predstavljaju prvu liniju odbrane, posebno na mejnstrim platformama koje ne žele da hostuju eksplicitan sadržaj. Neki open-source forkovi uklanjaju ove filtere, ali tada odgovornost prelazi na korisnika (i svaku platformu na kojoj se sadržaj objavljuje).
- Alati za detekciju deepfake sadržaja: Na istraživačkoj strani, značajni napori se ulažu u algoritme za detekciju deepfake sadržaja. Kompanije poput Microsofta i startapi kao što je Sensity razvili su veštačku inteligenciju koja analizira video snimke/slike u potrazi za znacima manipulacije (poput neusklađenog osvetljenja, artefakata na licu ili digitalnih vodenih žigova). U jednoj evaluaciji, Hive Moderation model (AI paket za moderaciju koji koriste neke društvene mreže) imao je najveću tačnost u detekciji AI-generisanih likova u odnosu na stvarne emerginginvestigators.org. Ovi detektori se koriste od strane platformi za skeniranje postavljenih sadržaja (npr. Facebook može skenirati sliku na golotinju, ali i na to da li je poznata lažna slika nečije osobe). Razvoj detektora je igra mačke i miša: kako se generativni modeli poboljšavaju, detektori takođe moraju da napreduju. EU insistira da kompanije implementiraju ovakve sisteme – pravila transparentnosti AI Akta i direktiva o borbi protiv nasilja nad ženama praktično nalažu da platforme moraju biti u stanju da identifikuju AI pornografiju i uklone je euronews.com euronews.com. Neke metode detekcije oslanjaju se na metapodatke ili poznate obrasce iz određenih generatora (npr. neki AI alati ostavljaju nevidljive vodene žigove u pikselima). Industrija takođe razmatra proaktivniji pristup: vodeni žigovi na AI sadržaju u trenutku kreiranja. Google, na primer, radi na metodama za označavanje AI-generisanih slika tako da se svaka kopija može prepoznati kao AI-izrada čak i nakon uređivanja. OpenAI je predložio kriptografske vodene žigove za tekst iz jezičkih modela. Ako bi ovo bilo široko usvojeno, moglo bi pomoći automatskim filterima da označe AI pornografiju pre nego što se proširi. Ipak, open-source modeli verovatno neće dobrovoljno obeležavati izlaze, a protivnici mogu pokušati da uklone vodene žigove.
- Hashiranje sadržaja i baze podataka: Da bi se suzbili osvetnički pornografski sadržaji i deepfake-ovi, tehnološke firme i nevladine organizacije su kreirale baze poznatih zloupotrebljenih slika (koristeći kriptografske hash vrednosti poput PhotoDNA za stvarne slike zlostavljanja dece, na primer). Sličan pristup se razmatra i za deepfake-ove: ako se žrtva javi sa lažnom slikom, njen hash bi mogao biti dodat u bazu za uklanjanje, kako bi se odmah prepoznala i uklonila ako se ponovo postavi. Predstojeći sistem u Velikoj Britaniji, prema Zakonu o bezbednosti na internetu, može uključivati ovakvu proaktivnu detekciju – zahtevajući od platformi da “spreče [zabranjeni sadržaj] da se uopšte pojavi” euronews.com. U praksi, to znači skeniranje poznatih ilegalnih slika ili video snimaka prilikom postavljanja. Izazov sa AI lažnim sadržajem je što počinioci mogu generisati beskonačne varijante, pa hashiranje jedne neće uhvatiti sledeću. Tu je potrebna AI detekcija sličnosti, koja može označiti sadržaj koji veoma liči na poznate lažne slike ili odgovara osobi koja je registrovala da ne želi eksplicitne slike na internetu.
- Moderacija na porno sajtovima: Zanimljivo je da su glavni sajtovi za odrasle, poput Pornhuba, morali da unaprede svoju moderaciju zbog dipfejkova. Pornhub je još 2018. zabranio postavljanje bilo kakvog AI-generisanog sadržaja koji prikazuje stvarne ljude bez njihove saglasnosti. Oslanjaju se na prijave korisnika i pregled moderatora da bi otkrili ovakve sadržaje, ali sa milionima postavljenih snimaka, to je teško. Digital Services Act EU donosi strožu odgovornost: 2024. godine, Pornhub (i slični sajtovi Xvideos, Xnxx) su označeni kao velike platforme koje moraju proaktivno sprečavati nezakonit i štetan sadržaj ili se suočiti sa kaznama subscriber.politicopro.com. Ovo verovatno znači ulaganje u automatsku filtraciju. Porno sajtovi bi mogli početi da koriste detektore dipfejkova na svakom novom videu. Takođe sada imaju verifikaciju identiteta za one koji postavljaju sadržaj; iako nije nepogrešivo (prevaranti mogu verifikovati sebe i postaviti lažni snimak nekog drugog), to dodaje mogućnost praćenja.
- Politike društvenih mreža: Društvene mreže poput Twittera (X) i Reddita su ažurirale pravila i izričito zabranile deljenje „intimnih slika napravljenih ili izmenjenih pomoću AI“ bez pristanka osobe. Reddit je zabranio dipfejkove još 2018. nakon prvog talasa. Facebookova pravila zajednice zabranjuju sintetičke medije koji mogu obmanuti na štetan način (što uključuje lažni porno nekoga). Ipak, sprovođenje je i dalje neujednačeno – kao što je pomenuto, dipfejk sadržaj je i dalje postajao viralan na X 2024. godine cbsnews.com, a Meta je morala biti javno prozvana da bi uklonila AI oglase sa golotinjom cbsnews.com. Ipak, novi zakoni (Take It Down Act, EU pravila) sada im nameću pravne obaveze. Možemo očekivati brže vreme reakcije – npr. prema američkom zakonu, platforme imaju 48 sati da uklone prijavljeni NCII ili se suoče sa kaznama klobuchar.senate.gov klobuchar.senate.gov. Ovo verovatno znači da će kompanije radije ukloniti sadržaj kada su u nedoumici. Takođe mogu integrisati mehanizme za prijavu „ovo je AI lažnjak mene“ kako bi korisnici mogli brzo da prijave zloupotrebu.
- Provera starosti i kontrole pristupa: Još jedan aspekt moderacije je sprečavanje maloletnika da pristupe AI pornografiji. Tradicionalni pornografski sajtovi imaju provere starosti (koje se nesavršeno sprovode), a neke jurisdikcije (kao što su Francuska, Juta, Teksas) donele su zakone koji zahtevaju strogu verifikaciju starosti za sajtove za odrasle versustexas.com. AI alati to komplikuju – generativni modeli mogu se koristiti privatno bez ikakve kontrole. Ipak, neke AI platforme su počele da zahtevaju verifikaciju identiteta za pristup NSFW režimima, kako bi se osiguralo da su korisnici punoletni. Na primer, platforma Infatuated.ai je naglasila robustne protokole za proveru starosti i blokiranje svih upita koji uključuju maloletnike globenewswire.com. Replika (aplikacija AI četbota) imala je zloglasan slučaj kada je dozvolila erotsku igru uloga i mnogi maloletnici su je koristili; nakon reakcije javnosti, ograničili su erotski sadržaj na korisnike 18+ verifikacijom starosti putem plaćanja ili lične karte. Dakle, barem na komercijalnim servisima, postoji napor da se odvoji AI sadržaj za odrasle od dece. Ovo je važno jer su i sama deca koristila deepfake alate za maltretiranje vršnjaka (kao što smo videli u školama) cbsnews.com. Edukacija mladih o etičkim i pravnim posledicama je takođe deo moderacije – neke škole su počele da uključuju svest o deepfake-u u kurseve digitalnog građanstva nea.org.
- Saradnja i najbolje prakse: Borba protiv zloupotrebe AI dovela je do saradnje između tehnoloških firmi, organa reda i nevladinih organizacija. Inicijative kao što su grupa za integritet medija u okviru Partnership on AI ili Koalicija za poreklo i autentičnost sadržaja (C2PA) imaju za cilj da postave standarde za autentifikaciju sadržaja. Kompanije mogu uključiti metapodatke o tome kako je slika/video nastao (kamera ili AI softver). U međuvremenu, organi reda se obučavaju o deepfake-ovima kako bi ozbiljno shvatili prijave žrtava i znali kako da prikupe dokaze. Europol je 2023. označio deepfake pornografiju kao novu pretnju i pozvao države članice da izdvoje resurse za borbu protiv nje theguardian.com.
- Ograničenja AI modela: Direktnija linija odbrane je ograničavanje distribucije modela sposobnih za kreiranje štetnog sadržaja. Neki repozitorijumi AI modela imaju svoja pravila: na primer, Stability AI je odlučio da zvanično ne uključi očigledno pornografske slike u svoj skup za treniranje Stable Diffusion 2.0, delimično da bi izbegli da model bude previše dobar u generisanju pornografije (korisnici su se žalili da je novi model zbog toga „stidljiv“). Hugging Face (AI model hub) ponekad odbija da hostuje modele koji su očigledno napravljeni za pornografiju ili uključuje veliko odricanje od odgovornosti kojim korisnici moraju da se slože da ga neće zloupotrebiti. Takođe je postojao zapažen slučaj: krajem 2022. godine, crowdfunding sajt Kickstarter zabranio je kampanju za „Unstable Diffusion“, što je bio pokušaj prikupljanja novca za izradu AI modela optimizovanog za pornografiju. Kickstarter se pozvao na politiku protiv pornografskih AI projekata i ugasio je kampanju arnoldit.com. Ovaj incident je istakao da čak i finansiranje i podrška za NSFW AI mogu naići na prepreke. Prodavnice aplikacija poput Apple-ove su takođe neprijateljski nastrojene prema nefiltriranim AI aplikacijama – Apple je uklonio neke AI aplikacije za generisanje slika koje su mogle da proizvode NSFW sadržaj, što je nateralo programere da dodaju filtere. Dakle, pristup najnaprednijim AI modelima može biti ograničen korporativnom politikom do izvesne mere. Međutim, zaista open-source modeli se ne mogu lako obuzdati – jednom kada se puste, šire se putem torrenta i foruma. Dakle, ovo je ograničena mera.
Moderacija sadržaja u eri AI pornografije je nesumnjivo izazovna. Obim potencijalno prekršajnog sadržaja je ogroman i raste. Ali tehnologija odgovara na tehnologiju: sama AI se koristi za borbu protiv AI. Na primer, Meta navodno koristi klasifikatore mašinskog učenja za detekciju poznatih lica na golim slikama kako bi uhvatili deepfake-ove poznatih ličnosti, kao i za detekciju artefakata tipičnih za deepfake-ove. Startapi poput Reality Defender nude usluge kompanijama za skeniranje i uklanjanje deepfake sadržaja u realnom vremenu realitydefender.com. A pravna snaga koju sada daju novi zakoni znači da platforme koje ne ulažu u ove mere rizikuju ozbiljne kazne ili tužbe.
Jedan obećavajući pravac je ideja autentifikovanih medija: ako, recimo, svi legitimni producenti pornografije kriptografski potpisuju svoje video snimke kao prave, onda se sve što nema potpis, a tvrdi da je „seks snimak te i te osobe“, može označiti kao sumnjivo. Ovo je komplikovano za univerzalnu primenu, ali koncept porekla se istražuje (ne samo za pornografiju, već za sve medije, radi suzbijanja dezinformacija).
Na kraju, moderacija nikada neće biti nepogrešiva – mnogo toga će i dalje prolaziti na divljem internetu. Šifrovane ili decentralizovane platforme će skrivati najgori sadržaj. Ali barem u mejnstrim i legalnim arenama, postoji zajednički napor da se ublaži šteta od NSFW AI. Nada je da se stvori okruženje u kojem legitimne upotrebe (sadržaj za odrasle uz pristanak, fantazijska umetnost, itd.) mogu postojati, ali se zlonamerne upotrebe brzo identifikuju i uklanjaju. To je težak zadatak – žrtve ga opisuju kao igru “udaraj krticu” klobuchar.senate.gov – ali skup zakona, AI detektora, politika platformi i edukacije korisnika zajedno čini višeslojnu odbranu.
Posledice i budućnost: Uticaj na kreatore i industriju za odrasle
Kako NSFW AI remeti status kvo, već utiče na stvarne ljude u ekosistemu zabave za odrasle – od porno zvezda i seksualnih radnika do erotskih umetnika i studija za sadržaj. Neki vide priliku u novoj tehnologiji, dok se drugi plaše da će postati suvišni ili nevoljno uvučeni u to.
Izvođači za odrasle i seksualni radnici: Možda je najdirektniji efekat na one koji zarađuju za život stvaranjem sadržaja za odrasle. S jedne strane, neki snalažljivi kreatori prihvataju AI da poboljšaju svoj rad. Na primer, modeli za odrasle mogu koristiti AI generatore fotografija da naprave unapređene ili stilizovane slike sebe za prodaju (štedeći na skupim foto-snimanjima) – sve dok slike i dalje liče na njih i ispunjavaju pravila platforme reddit.com. Nekoliko influensera je dospelo u vesti kreiranjem “AI verzija” sebe: npr. 2023. godine influenserka po imenu Caryn Marjorie lansirala je AI četbota svoje ličnosti s kojim su fanovi mogli intimno da ćaskaju uz plaćanje. Slično, startup Oh-ov koncept “digitalnih blizanaca” znači da porno zvezda može licencirati svoj imidž za kreiranje AI avatara koji ćaska ili nastupa za fanove, stvarajući novi izvor prihoda uz minimalan dodatni rad sifted.eu. Ovi potezi pokazuju da neki u industriji vide AI kao alat za skaliranje sebe – teoretski mogu zabaviti više fanova putem AI nego što bi fizički mogli jedan-na-jedan.
S druge strane, mnogi izvođači su zabrinuti. Ako fanovi mogu da dobiju svoj fantazijski sadržaj po meri napravljen od strane AI, da li će prestati da plaćaju stvarnim osobama? Postoje izveštaji o AI-generisanim OnlyFans profilima koji koriste potpuno izmišljene (ali realistične) žene, ponekad obeležene sa #AI nakon sumnje, prodajući sadržaj jeftinije ili spam-ujući korisnike na reddit.com. Ovakva konkurencija može ugroziti prihode pravih kreatora. Neke seksualne radnice kažu da je “razočaravajuće” videti novi standard gde uspeh znači izbacivanje sadržaja 24/7 kao algoritam – standard koji je nemoguć za čoveka, ali lak za AI, čime se ljudi pritiskaju da ili usvoje AI ili budu ostavljeni po strani reddit.com. Postoji i emotivna komponenta: kako je napisala jedna iskusna kreatorka, korišćenje AI da se praktično “vara” generisanjem besprekornog tela ili beskonačnog sadržaja deluje kao da umanjuje pravi trud i autentičnost koju ljudski kreatori ulažu reddit.com. “To je podlo – nepoštovanje prema mojim fanovima… i prema trudu koji ulažem u svoje telo [i sadržaj],” rekla je o onima koji koriste AI za lažiranje sadržaja reddit.com.
Već vidimo određeni otpor i prilagođavanje: kreatori se udružuju da bi razotkrili lažne AI profile, a platforme prilagođavaju pravila kako bi uverile da pravi kreatori neće biti imitirani od strane AI. OnlyFans, kao što je pomenuto, zabranjuje korišćenje tuđeg lika i zahteva označavanje AI sadržaja reddit.com. Čak se govori i o tome da kreatori pokreću pravne postupke protiv AI lažnjaka – na primer, kruže glasine o tužbi radi uklanjanja bot naloga na OnlyFans-u reddit.com. Dodatno, izvođači su zabrinuti zbog pristanka i prava na imidž – npr. penzionisana porno glumica može otkriti da se njene stare scene koriste za treniranje AI koji sada generiše nove eksplicitne video snimke “nje” bez njenog pristanka ili bilo kakve naknade. Ovo je slično zabrinutostima holivudskih glumaca oko toga da AI koristi njihov lik – osim što porno glumci imaju još više na kocki jer je njihov imidž vezan za nešto veoma osetljivo. Industrija će možda morati da razvije nešto poput stava Screen Actors Guild-a, gde glumci mogu da pregovaraju o tome kako AI može ili ne može da ih simulira. Zaista, danski pristup davanja autorskih prava na lik pojedincima mogao bi da osnaži izvođače širom sveta da polažu pravo na svoje lice/telo u ovim kontekstima euronews.com.
Studiji i producenti: Tradicionalni porno studiji bi takođe mogli biti ugroženi. Ako mali tim sa AI alatima može da proizvede prihvatljiv porno video bez angažovanja glumaca, veliki studiji gube svoju prednost. Ipak, trenutni AI video još uvek nije na nivou profesionalnog studijskog kvaliteta za duži sadržaj – uglavnom su to kratki klipovi ili zahtevaju kombinovanje sa pravim snimcima. Neki studiji bi mogli početi da koriste AI za specijalne efekte ili postprodukciju (npr. podmlađivanje izvođača, poboljšanje vizuala ili čak uklanjanje prepoznatljivih tetovaža radi anonimnosti). Još jedna moguća upotreba: generisanje realističnih animacija za odrasle koje su ranije bile skupe za ručnu izradu. Ali studiji se suočavaju i sa pretnjom ponašanja nalik pirateriji: nepošteni akteri bi mogli koristiti AI za pravljenje kopija premijum sadržaja ili modela. Na primer, ako studio ima popularnu zvezdu pod ugovorom, neko bi mogao da napravi deepfake te zvezde u novim scenama i da ih pusti u javnost. Ovo bi moglo umanjiti profit studija i brend te zvezde. Studiji mogu odgovoriti snažnim sprovođenjem zaštite žiga ili prava ličnosti svojih ugovorenih talenata. Možda ćemo videti da porno studiji sarađuju sa tehnološkim kompanijama kako bi kreirali autorizovani AI sadržaj svojih zvezda (uz podelu prihoda) pre nego što to urade pirati, kao odbrambeni potez.
Erotski umetnici i pisci: Pored video izvođača, razmislite o onima koji stvaraju erotske stripove, ilustracije ili književnost. AI je već sposoban da oponaša umetničke stilove – hentai umetnička zajednica je posebno doživela nalet AI-generisane anime erotike krajem 2022, što je izazvalo podele. Neki naručioci su počeli da koriste AI umesto da plaćaju ljudske umetnike, navodeći cenu i praktičnost. Umetnici su protestovali na platformama poput DeviantArt (koji se suočio sa negativnim reakcijama zbog uvođenja AI funkcija). Postoji strah da bi tržište za personalizovanu erotsku umetnost i priče moglo da se uruši kada svako može besplatno da generiše personalizovani strip ili priču za odrasle. Ipak, entuzijasti ističu da se AI i dalje muči sa složenim pripovedanjem i zaista profinjenom umetnošću – ljudski umetnici nude nivo kreativnosti i emocije koji AI može da nema. Verovatan ishod je hibridni pristup: umetnici koriste AI za skiciranje ili bojenje radova, a zatim dodaju svoje lične detalje. Ali manje afirmisani umetnici mogli bi imati poteškoća da se takmiče sa AI rešenjima na jedan klik, koja mnogim gledaocima deluju „dovoljno dobro“. Ovo otvara potrebu za možda novom „autentičnom ručnom vrednošću“ u erotskoj umetnosti, slično kao što su neki fanovi spremni da plate više znajući da je delo zaista napravio čovek.
Stav industrije za odrasle: Zanimljivo je da su velike kompanije za zabavu za odrasle bile relativno tihe u javnosti po pitanju AI. Moguće je da interno istražuju svoje strategije ili da bi privlačenje pažnje moglo doneti više nadzora. Industrija za odrasle je istorijski brzo usvajala tehnologiju (prva je prihvatila internet, veb kamere, VR pornografiju itd.). Već viđamo sajtove za odrasle koji prodaju „deepfake sadržaj sa poznatim ličnostima“ (pravno siva zona u nekim zemljama) i eksperimentišu sa AI preporukama. U svetu kamera, nekoliko sajtova je testiralo AI četbotove kako bi zadržali mušterije kada modeli nisu online. Ali potpuna zamena ljudskih izvođača AI-jem još se nije desila na velikim platformama, delom zbog nezrelosti tehnologije i preferencije korisnika za autentičnu interakciju.
Međutim, ekonomski pritisak može primorati na prilagođavanje. Ako bi, hipotetički, za 2-3 godine veštačka inteligencija mogla na zahtev da generiše HD porno video bilo koja dva poznata lica, tržište profesionalne pornografije sa nepoznatim glumcima bi moglo da opadne – zašto plaćati ili se pretplaćivati kada su beskonačne besplatne fantazije dostupne? Industrija bi mogla da se okrene ka naglašavanju autentičnosti, interakcije uživo i zajednice – stvari koje veštačka inteligencija ne može da pruži. Možda ćemo videti pornografiju koja se reklamira oznakama poput „100% ljudski, pravo zadovoljstvo“ kao prodajnu tačku, ironično. S druge strane, industrija bi mogla da uključi veštačku inteligenciju radi smanjenja troškova – npr. da jedan glumac nastupa, a zatim se pomoću veštačke inteligencije menja njegovo lice kako bi se iz jedne scene napravilo više „različitih“ videa (po mogućstvu uz pristanak). Taj scenario bi otvorio etička pitanja (da li gledaoci znaju da je to ista osoba izmenjena? Da li izvođač dobija honorar po varijanti videa ili samo jednom?).Jedan pozitivan uticaj mogao bi biti na bezbednost: Ako veštačka inteligencija može da simulira rizične radnje, studiji bi mogli da je koriste kako bi izbegli izlaganje izvođača opasnosti. Na primer, umesto da izvođači rade ekstremne vratolomije, mogli bi da snime nešto osnovno, a veštačka inteligencija bi generisala intenzivni deo. Ili, kao što je pomenuto, izvođač bi mogao da snimi scenu odeven, a veštačka inteligencija bi generisala verziju bez odeće, što bi mogao biti način da se neko pojavi u pornografiji bez stvarnog skidanja na setu (iako i ta ideja otvara debatu o autentičnosti i pristanku).
Fragmentacija tržišta: Verovatno će se tržište sadržaja za odrasle fragmentirati u više nivoa:
- Luksuzni ljudski sadržaj sa naglaskom na stvarnu interakciju (personalizovani video snimci, OnlyFans sa direktnim angažovanjem kreatora, kam šou uživo – stvari gde je ljudsko prisustvo suština).
- Sadržaj generisan veštačkom inteligencijom koji može biti izuzetno jeftin ili besplatan, preplavljujući tube sajtove ili privatne kanale. Ovo bi moglo zadovoljiti povremene korisnike ili one sa vrlo specifičnim fantazijama (poznate ličnosti, itd.). Ako deepfake pornografija ostane poluilegalna, možda će ostati više u podzemlju ili na nekomercijalnim forumima.
- Hibridni sadržaj gde kreatori koriste veštačku inteligenciju, ali ostaju uključeni. Na primer, model može prodavati AI-dorađene setove svojih slika – efektivno njen lik, ali usavršen ili postavljen u fantastične scene pomoću veštačke inteligencije. Sve dok je transparentno i uz pristanak, fanovi bi mogli ceniti raznovrsnost.
Mentalni i društveni uticaj na kreatore: Ne može se zanemariti emotivni teret za kreatore kada vide možda svoja lica korišćena bez pristanka, ili samo pritisak da se takmiče sa mašinama. Komentari sa Reddita od OnlyFans kreatora jasno su pokazali određenu anksioznost pa čak i očaj reddit.com reddit.com. Ovo odražava ono što se dešava i u drugim kreativnim sektorima (umetnici, glumci) u vezi sa veštačkom inteligencijom – ali u industriji za odrasle, stigma i nedostatak institucionalne podrške mogu otežati da izraze zabrinutost ili potraže zaštitu. Možda ćemo videti da grupe za zagovaranje prava seksualnih radnika proširuju svoj fokus na digitalna prava i veštačku inteligenciju, boreći se za stvari poput prava da budu uklonjeni iz skupova podataka za obuku ili da zabrane deepfake-ove izvođača bez pristanka. Sindikati (kao što je Adult Performers Actors Guild u SAD) mogli bi da pregovaraju o AI klauzulama u ugovorima. Na primer, izvođač bi mogao da insistira da studio ne koristi njen snimak za obuku AI koji bi mogao kasnije da zameni njen lik, ili barem da joj plate ako to urade.
Što se tiče ponašanja potrošača, rani anegdotski dokazi sugerišu da mnogi gledaoci pornografije i dalje više vole da znaju da je nešto stvarno – postoji privlačnost u pravim ljudskim izvođačima. AI pornografija ponekad može delovati „bez duše“ ili manje zadovoljavajuće, izveštavaju neki korisnici, kada prođe početna novina. Tako da bi ljudski kreatori mogli da zadrže svoju publiku naglašavajući svoju autentičnost i ličnu povezanost, što AI ne može istinski da replicira. Ipak, kako AI napreduje, ta razlika bi mogla da nestane, a mlađe generacije koje odrastaju uz AI možda neće praviti razliku.
Prilika za novi talenat? Postoji zanimljiva druga strana: AI bi mogao da smanji prepreke za ulazak u prostor za sadržaj za odrasle na kontrolisan način. Neko ko nikada ne bi podelio svoje pravo telo ili lice mogao bi da napravi AI personu – izmišljenog seksi avatara – i prodaje sadržaj tog avatara. U suštini, biti camgirl ili OnlyFans model preko AI posrednika. Neki korisnici su ovo pokušali sa različitim uspehom. Ovo otvara vrata ljudima da unovče fantazije bez izlaganja svog identiteta ili tela. Međutim, platforme trenutno zahtevaju verifikaciju identiteta kako bi sprečile lažno predstavljanje i probleme sa maloletnicima, tako da bi pojedinac i dalje morao da se registruje i verovatno naznači da je sadržaj AI-generisan i da prikazuje izmišljenog lika. Ako bi to bilo dozvoljeno, to bi moglo da stvori novu kategoriju kreatora sadržaja: kreatori sadržaja za odrasle pokretani AI-jem koji su pravi preduzetnici, ali je njihov proizvod potpuno virtuelni lik. Takmičili bi se sa pravim modelima. Da li bi korisnici plaćali za „lažnog“ modela? Moguće, ako je dovoljno privlačna i interaktivna, a posebno ako u početku ne shvate da je lažna. Može se zamisliti da bi neki korisnici zapravo više voleli AI model koji je „uvek dostupan i nikada nema loš dan.“ Ovo je uznemirujuće za ljudske izvođače iz očiglednih razloga.
Regulatorni i pravni uticaj na industriju: Sa novim zakonima o deepfake-ovima, adult platforme imaju pravne podsticaje da zabrane sve što nije uz pristanak. Ironično, to bi moglo ojačati poziciju etabliranih, regulisanih adult biznisa (koji rade samo sa izvođačima koji su dali pristanak) u odnosu na nelegalne AI sajtove. Ako sprovođenje bude snažno, korisnici koji žele deepfake pornografiju mogli bi teže da dođu do nje, što bi ih moglo odvesti ili ka ilegalnim izvorima na dark web-u ili ih odvratiti od te navike. U međuvremenu, AI kreacije uz pristanak (kao što je model koji pristaje na AI verziju sebe) mogle bi postati nova kategorija licenciranih proizvoda. Biće potrebna pravna pojašnjenja: npr., može li model dobiti autorska prava ili žig na svoje lice kako bi mogao da tuži nekoga ko napravi AI klon bez dozvole? Neke zemlje poput Danske i moguće budući zakoni američkih saveznih država idu ka toj ideji euronews.com. To bi pomoglo izvođačima da zaštite svoj brend.
Rezime uticaja: Industrija sadržaja za odrasle je na početku potencijalne promene paradigme. Oni koji se prilagode – koristeći AI etički i transparentno – mogli bi napredovati ili barem opstati. Oni koji to ignorišu mogli bi se boriti protiv talasa sadržaja i promena u navikama potrošača. Kako je jedan AI preduzetnik rekao o AI saputnicima: „svaka nova inovacija može delovati kao drastična promena… to je evolucija“ sifted.eu. Pitanje je da li će ova evolucija nadopuniti ili kanibalizovati postojeći ekosistem kreatora.
Zaključak: Nova erotska granica, puna dilema
Uspon NSFW AI je neosporno otvorio Pandorinu kutiju. Za samo nekoliko godina, svedoci smo da je AI prešao od generisanja smešnih slika mačaka do generisanja lažnih golih fotografija koje mogu uništiti nečiji život. Ova tehnologija je moćna, dvosekla i tu je da ostane. S jedne strane, omogućava običnim ljudima da kreiraju bilo koju erotsku sliku ili scenario koji mogu da zamisle, brišući granice između potrošača i kreatora u industriji zabave za odrasle. Ona nosi obećanje personalizovanog zadovoljstva, kreativnog istraživanja i možda novih poslovnih modela u industriji vrednoj više milijardi dolara, koja je često bila tehnološki stagnirajuća. S druge strane, NSFW AI je podstakao nove oblike zlostavljanja – neki to nazivaju „digitalnim silovanjem“ – oduzimajući pojedincima (uglavnom ženama) kontrolu nad sopstvenim slikama i telima u digitalnom svetu. To izaziva naše pravne sisteme, koji se trude da ažuriraju definicije imitacije, pornografije i pristanka za AI doba. I primorava društvo da se suoči sa neprijatnim pitanjima o prirodi seksualnosti, slobodnog izražavanja i ljudske povezanosti kada su pojačani ili simulirani od strane AI.
Krajem 2025. godine, klatno se pomera ka merama zaštite i odgovornosti. Glavni zakoni u SAD i EU, oštre mere u Aziji i promene u politikama platformi svi ukazuju na to da se nenamerni AI pornografija široko smatra neprihvatljivom. Paralelno, razvija se tehnologija za otkrivanje i sprečavanje zloupotreba, čak i dok sama generativna tehnologija napreduje. Možemo očekivati da će se dinamika „mačke i miša“ nastaviti: svaka nova mera bezbednosti može biti dočekana novim tehnikama izbegavanja od strane loših aktera. Ali kolektivna svest je sada mnogo veća – AI pornografija više nije nišna internet čudnovatost; to je tema od opšteg značaja u parlamentima i redakcijama. Ta javna svest može osnažiti žrtve da progovore i zahtevaju pravdu, i naterati kompanije da preuzmu odgovornost.
Gledajući unapred, globalna saradnja će biti ključna. Ova pitanja ne zaustavljaju se na granicama – deepfake napravljen u jednoj zemlji može uništiti nečiji život u drugoj. Biće važno da vlade dele najbolje prakse (kao što pokazuje istraživanje Euronews-a o evropskim zakonima, mnoge zemlje uče iz pristupa drugih euronews.com euronews.com). Možda bi u narednim godinama mogao da se pojavi međunarodni okvir ili sporazum o borbi protiv seksualnog zlostavljanja putem slika, tretirajući najteža dela kao zločine protiv ljudskih prava. U međuvremenu, organizacije civilnog društva i prosvetni radnici moraće da nastave sa podizanjem svesti, učenjem medijske pismenosti (kako bi ljudi dvaput razmislili pre nego što poveruju ili podele “procureni” intimni sadržaj), i pružanjem podrške žrtvama.
Uprkos svoj tamnoj strani povezanoj sa NSFW AI, vredi napomenuti da nije sve tako crno. U saglasnim kontekstima, neki ljudi zaista pronalaze sreću u tome – bilo da je reč o paru koji začinjava svoj intimni život AI-generisanim scenarijima uloga, ili odraslom kreatoru koji koristi AI ličnost da bezbedno zarađuje od kuće, ili jednostavno pojedincima koji konačno vide svoju specifičnu fantaziju predstavljenu u AI umetnosti ili priči. Ovi slučajevi upotrebe ne bi trebalo da se izgube u razgovoru; oni naglašavaju da sama tehnologija nije inherentno zla. To je alat – koji pojačava ljudske namere, dobre ili loše. Naš zadatak je da usmerimo njenu upotrebu ka saglasnim i kreativnim ciljevima, i snažno se zaštitimo od zlonamernih namera.
Umetnici, kreatori i seksualni radnici – ljudi koji žive u svetu sadržaja za odrasle – verovatno će nastaviti da se prilagođavaju i pronalaze prostor u ovom novom okruženju. Mnogi se bore da “AI etika” uključi i njihove glasove, zahtevajući mehanizme za saglasnost i kompenzaciju. Oni zapravo traže nešto jednostavno: ne uzimajte od nas bez pitanja. Šire društvo se suočava sa tim principom u svim AI domenima, od umetnosti do vesti do pornografije.
Zaključno, NSFW AI se nalazi na raskršću tehnologije, seksualnosti, prava i etike. Ovo nas izaziva da redefinišemo pojmove pristanka, privatnosti, pa čak i same stvarnosti u digitalnom dobu. Druga polovina 2020-ih biće ključna za postavljanje normi i pravila koja upravljaju ovom oblasti. Da li idemo ka budućnosti u kojoj je AI pornografija sveprisutna, ali strogo regulisana, i koristi se uglavnom u dobre ili neutralne svrhe? Ili ćemo videti balkanizaciju, gde je glavni tok izbacuje, dok ona cveta u mračnim uglovima, slično ilegalnoj trgovini? Ishod zavisi od odluka koje se donose sada – od strane zakonodavaca, tehnoloških kompanija i korisnika.
Jedno je sigurno: duh je pušten iz boce. Ne možemo poništiti izum NSFW AI. Ali možemo i moramo naučiti da živimo sa tim odgovorno. Kao korisnici, to znači poštovanje dostojanstva drugih pri korišćenju ovih alata; kao kompanije, ugradnju bezbednosti od samog početka; kao vlade, postavljanje jasnih granica; i kao zajednice, netolerisanje zloupotreba. Uz budnost i empatiju, nada je da će “divlji zapad” faza AI pornografije prerasti u civilizovaniji teren – onaj gde odrasli koji pristaju mogu uživati u novim oblicima erotske umetnosti i povezivanja, dok su oni koji bi zloupotrebili tehnologiju držani podalje. Priča o NSFW AI se još uvek piše, a sredina 2025. je tek prvo poglavlje. Odgovor društva sada će oblikovati da li će ova tehnologija na kraju obogatiti ili ugroziti nas u domenu intimnog sadržaja.
Izvori:
- Oremus, Will. “Kongres usvaja zakon za borbu protiv deepfake golotinje, osvetničke pornografije.” The Washington Post (preko Klobuchar Senate sajta), 28. april 2025. klobuchar.senate.gov klobuchar.senate.gov.
- Fawkes, Violet. “8 najboljih NSFW AI generatora slika – Pronalaženje zadovoljstva na raskršću koda i pristanka.” Chicago Reader, 13. april 2025. chicagoreader.com chicagoreader.com.
- Mahdawi, Arwa. “Nepristanak na deepfake pornografiju je hitan problem koji uništava živote.” The Guardian, 1. april 2023. theguardian.com theguardian.com.
- Ferris, Layla. „Sajt sa AI-generisanim pornografskim sadržajem Mr. Deepfakes se zatvara nakon što je provajder usluga povukao podršku.” CBS News, 5. maj 2025. cbsnews.com cbsnews.com.
- CBS News/AFP. „Skandal sa AI-generisanom pornografijom potresa Univerzitet u Hong Kongu nakon što je student prava navodno napravio deepfake snimke 20 žena.” CBS News, 15. jul 2025. cbsnews.com cbsnews.com.
- Lyons, Emmet. „Južna Koreja sprema se da kriminalizuje posedovanje ili gledanje seksualno eksplicitnih deepfake video snimaka.” CBS News, 27. septembar 2024. cbsnews.com cbsnews.com.
- Wethington, Caleb. „Novi zakoni protiv deepfake-ova i AI-generisane dečje pornografije stupaju na snagu u Tenesiju.” WSMV News Nashville, 30. jun 2025. wsmv.com wsmv.com.
- Desmarais, Anna. „Danska se bori protiv deepfake-ova zaštitom autorskih prava. Koji još zakoni postoje u Evropi?” Euronews, 30. jun 2025. euronews.com euronews.com.
- Nicol-Schwarz, Kai. „Upoznajte AI OnlyFans: Kako je jedan startap prikupio milione za izgradnju platforme ‘erotskih saputnika’.” Sifted, 13. mart 2025. sifted.eu sifted.eu.
- Vilson, Klaudija. „Senat usvaja DEFIANCE zakon.” Centar za AI politiku (CAIP), 1. avgust 2024. centeraipolicy.org centeraipolicy.org.
- Arnold, Stiven. „Google zauzima stav — protiv sumnjivog sadržaja. Da li će AI to ispravno uraditi?” Beyond Search blog, 24. maj 2024. arnoldit.com arnoldit.com.
- Holand, Oskar. „Lin Či-ling sa Tajvana o svom iskustvu sa deepfake-om i borbi protiv AI dezinformacija.” CNN, 5. oktobar 2023. (za kontekst o deepfake-ovima poznatih ličnosti)
- (Dodatni dokumenti o politici, saopštenja za javnost i izveštaji kako je navedeno u tekstu.)