LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

NSFW AI suputnici bez filtera: Janitor AI, Character.AI i revolucija chatbotova

NSFW AI suputnici bez filtera: Janitor AI, Character.AI i revolucija chatbotova

NSFW AI Companions Unfiltered: Janitor AI, Character.AI, and the Chatbot Revolution

Što je Janitor AI? Povijest, svrha i značajke

Janitor AI je brzo rastuća platforma za chatbotove koja korisnicima omogućuje stvaranje i razgovor s prilagođenim AI likovima. Osnovao ju je australski developer Jan Zoltkowski, a pokrenuta je u lipnju 2023. godine, Janitor AI je popunio prazninu koju su ostavili mainstream chatbotovi sa strogim filtrima sadržaja ts2.tech ts2.tech. Popularnost je eksplodirala gotovo preko noći – privukla je više od 1 milijun korisnika u prvom tjednu nakon pokretanja voiceflow.com hackernoon.com. Do rujna 2023. imala je otprilike 3 milijuna registriranih korisnika (dosegnuvši milijun u samo 17 dana) ts2.tech semafor.com. Ovaj nagli rast potaknut je viralnim TikTokovima i Reddit objavama koje su prikazivale sposobnost Janitor AI-a za začinjene roleplay razgovore bez “stidljivih” filtera drugih botova ts2.tech ts2.tech. Drugim riječima, Janitor AI je prihvatio otvorenije, za odrasle orijentirane razgovore koje su druge platforme zabranjivale.

Svrha i niša: Za razliku od asistenata usmjerenih na produktivnost, fokus Janitor AI-a je na AI-pokretanoj zabavi i igranju uloga ts2.tech hackernoon.com. Korisnici stvaraju izmišljene persone – od anime zavodnika do heroja iz videoigara – i razgovaraju s njima radi zabave, društva ili kreativnog pripovijedanja. Platforma je posebno odjeknula među mladim odraslima koji traže romantično ili erotsko AI društvo koje nije bilo dostupno na filtriranim servisima ts2.tech ts2.tech. Zapravo, korisnička baza Janitor AI-a izrazito je ženska (preko 70% žena početkom 2024.) ts2.tech hackernoon.com – što je neuobičajena demografija za tehnološku platformu. Mnogi su pohrlili kreirati AI “dečke/cure” i interaktivne fantazijske scenarije, čime je Janitor AI postao sinonim za vruće igranje uloga i virtualnu romansu. Semafor News ga je čak nazvao “NSFW chatbot aplikacijom koja je navukla Gen Z na AI dečke” ts2.tech.

Ključne značajke: Janitor AI pruža web-sučelje (JanitorAI.com) gdje korisnici mogu kreirati, dijeliti i razgovarati s knjižnicom likova koje su generirali korisnici ts2.tech ts2.tech. Svaki lik ima ime, sliku avatara i pisani profil koji opisuje njihovu osobnost i pozadinsku priču. Ovaj profil djeluje kao prompt ili “lore” koji usmjerava ponašanje AI-a u razgovoru ts2.tech. Dostupne su tisuće botova koje je izradila zajednica – od poznatih izmišljenih likova do originalnih kreacija – a korisnici također mogu zadržati likove privatnima ako to žele. Sučelje za chat bit će poznato korisnicima Character.AI: poruke se pojavljuju kao chat nit, a korisnici mogu jednostavno tipkati za razgovor dok AI odgovara u liku ts2.tech. Janitor AI omogućuje ocjenjivanje ili prijavu odgovora, a korisnici često dijele zabavne isječke razgovora na društvenim mrežama ts2.tech.

Ispod površine, Janitor AI je u početku pokretao OpenAI-jev GPT-3.5/4 putem API-ja, što mu je omogućilo impresivno tečne, ljudima slične odgovore ts2.tech semafor.com. Međutim, ovo oslanjanje na OpenAI nije dugo trajalo – u srpnju 2023. OpenAI je poslao Janitor AI-u pismo o prekidu i odustajanju zbog seksualnog sadržaja koji je kršio OpenAI-jeva pravila korištenja semafor.com semafor.com. Odsječen od GPT-4, kreator Janitora prešao je na razvoj vlastitog modela pod nazivom JanitorLLM. Do kraja 2023., Janitor AI je predstavio vlastiti, domaći veliki jezični model (LLM) za pokretanje razgovora u “Beta” načinu rada ts2.tech. Zanimljivo, Zoltkowskijev tim otkrio je da “postupno treniranje vlastitih modela temeljenih na RNN arhitekturama” daje bolje rezultate za njihove potrebe od uobičajenih Transformer modela ts2.tech. Detalji ostaju tajni, ali JanitorLLM sada pokreće besplatni, neograničeni chat na stranici – iako s nešto nižom sofisticiranošću od najnovijih OpenAI modela. Korisnici izvještavaju da se Janitorova AI stalno poboljšava, uz prednost bez strogih ograničenja duljine ili količine poruka (ključna značajka za duge roleplayeve) ts2.tech ts2.tech. Za napredniju AI kvalitetu, Janitor AI nudi fleksibilnost “donesi-svoj-model”: korisnici mogu povezati vlastite API ključeve za modele trećih strana (poput OpenAI-jevog GPT-4, ako odluče platiti OpenAI-ju) ili čak povezati lokalni AI model putem KoboldAI ts2.tech ts2.tech. Ovaj modularni pristup znači da napredni korisnici i dalje mogu koristiti najnovije modele unutar Janitorovog sučelja – a također štiti platformu od ovisnosti o bilo kojem pojedinom pružatelju usluga u budućnosti ts2.tech.

Skup značajki Janitor AI-a stalno se širi. Platforma se može pohvaliti snažnom memorijom i zadržavanjem konteksta, što omogućuje botovima da pamte detalje iz ranijih dijelova razgovora (ime korisnika, događaje u priči itd.) i kasnije ih ponovno spomenu za koherentno dugoročno pripovijedanje ts2.tech ts2.tech. Početkom 2025. tim je čak najavio novi sustav za “stvaranje likova vođenih pričom” koji će kreatorima omogućiti dodavanje opsežnih bilješki o svijetu koje će AI dosljedno uzimati u obzir u svojim odgovorima ts2.tech. Ostala poboljšanja do sredine 2025. uključuju prilagodbu profila pomoću CSS tema ts2.tech, bolju pretragu i označavanje (uključujući mogućnost blokiranja oznaka za sadržaj koji ne želite) ts2.tech, te podršku za slike u profilima likova (s opcijom sigurnog načina) ts2.tech. Važno je napomenuti da Janitor AI ostaje besplatan za korištenje (nema ni oglasa), što je prirodno izazvalo pitanja o održivosti. Tvrtka je nagovijestila mogućnost uvođenja opcionalnih premium pretplata u budućnosti (npr. za otključavanje duljih poruka, bržih odgovora itd.), ali su ti planovi odgođeni sredinom 2025. kako bi se fokusirali na poboljšanje proizvoda ts2.tech ts2.tech. Za sada, osnivač je održavao servis uglavnom vlastitim sredstvima i podrškom zajednice, bez većih vanjskih ulaganja do kraja 2024. ts2.tech. To je hrabra strategija – davanje prioriteta rastu i povjerenju korisnika prije monetizacije – i pomogla je Janitor AI-u da izgradi lojalnu zajednicu.

Slični AI alati i konkurenti (Character.AI, Pygmalion, VenusAI, itd.)

Janitor AI je dio većeg vala AI alata za društvo i chatbotova za likove koji su se proširili od ranih 2020-ih. Svaki ima svoj pristup u pogledu značajki, ciljne publike i politike sadržaja. Evo pregleda najistaknutijih igrača i kako se uspoređuju:

  • Character.AI: Vjerojatno najistaknutiji hit žanra, Character.AI je lansiran za javnost krajem 2022. godine i popularizirao je ideju korisnički kreiranih AI “likova” za čavrljanje ts2.tech ts2.tech. Osnovali su ga bivši Googleovi istraživači Noam Shazeer i Daniel De Freitas (razvijači Googleovog LaMDA modela), a misija Character.AI-a bila je učiniti naprednu konverzacijsku AI dostupnom svima ts2.tech. Platforma je brzo stekla popularnost zbog nevjerojatno ljudskih dijaloga i mogućnosti da oponaša gotovo bilo koji lik – od Elona Muska do anime junaka – što je privuklo milijune znatiželjnih korisnika. Od 2025. godine, Character.AI se može pohvaliti s više od 20 milijuna aktivnih korisnika (mnogi od njih su iz generacije Z) i više od 18 milijuna prilagođenih likova kreiranih na platformi ts2.tech ts2.tech. Njegova korisnička baza je izrazito mlada: gotovo 60% web korisnika Character.AI-a ima između 18 i 24 godine techcrunch.com, što je znatno veći udio generacije Z nego na ChatGPT-u ili drugim AI aplikacijama. To odražava privlačnost Character.AI-a kao zabavne, kreativne platforme – “chatbotovi kao zabava i društvo” umjesto utilitarnih alata ts2.tech. Korisnici provode iznimno mnogo vremena u igranju uloga i druženju s ovim AI likovima, u biti surađujući na interaktivnoj fan-fikciji ili sudjelujući u virtualnom prijateljstvu i razgovorima nalik terapiji ts2.tech ts2.tech. Značajke: Osnovna funkcionalnost Character.AI-a slična je Janitorovoj – korisnici stvaraju likove s kratkim opisom ili scenarijem osobnosti, a AI nastavlja razgovor u ulozi tog lika. Ima uglađeno web i mobilno sučelje, a u razdoblju 2023.–2025. uveo je velike nadogradnje: Scenes za interaktivne scenarije priča, AvatarFX za animirane avatara likova, pa čak i AI-prema-AI “Character Group” razgovore gdje više botova međusobno komunicira ts2.tech ts2.tech. Ove multimodalne značajke imaju za cilj učiniti razgovore uronjenijima. Character.AI je također uveo “Chat Memories” za poboljšanje dugoročnog konteksta (rješavajući ranije pritužbe da bi botovi zaboravljali razgovor) ts2.tech ts2.tech. Jedna velika razlika je filtriranje sadržaja – Character.AI je od početka uveo strogu moderaciju kako bi spriječio NSFW ili “nesiguran” sadržaj ts2.tech. Seksualna ili izrazito nasilna uloga nije dopuštena AI-evim ugrađenim filtrima. Ovaj “siguran za posao” stav pokazao se kao dvosjekli mač: aplikaciju čini primjerenijom za dob i privlačnijom oglašivačima, ali je frustrirao značajan dio korisnika (posebno odrasle korisnike koji traže romantične ili erotske razgovore) i neizravno stvorio potražnju za nefiltriranim alternativama poput Janitor AI. Tvrtka je priznala da filter može biti pretjerano strog; 2025. novi izvršni direktor obećao je “manje nametljiv” filter za razgovore kako bi se smanjile nepotrebne blokade sadržaja ts2.tech ts2.tech, uz istovremenu implementaciju boljih zaštita za maloljetnike (poput odvojenih modela za korisnike mlađe od 18 godina i zaključavanja određenih popularnih likova za tinejdžerske račune) ts2.tech ts2.tech. Character.AI koristi vlastite vlasničke velike jezične modele, navodno trenirane od nule. Ugovor iz 2024. s Googleom omogućio je računalstvo u oblaku (TPU hardver) i značajnu investiciju koja je procijenila startup na oko 2,5–2,7 milijardi dolara ts2.tech natlawreview.com. S dubokim resursima i AI talentom, Character.AI nastavlja uvoditi nove značajke – ali njegov pristup zatvorenog koda i odbijanje dopuštanja sadržaja za odrasle znače da korisnici koji traže slobodu često prelaze na platforme poput Janitor AI ili druge.
  • Pygmalion (open-source modeli): Pygmalion nije potrošačka aplikacija, već open-source projekt posvećen AI chatbotovima i modelima za role-play. Postao je poznat početkom 2023. s Pygmalion-6B, posebno prilagođenim modelom sa 6 milijardi parametara temeljenim na EleutherAI-jevom GPT-J huggingface.co. Za razliku od korporativnih modela, Pygmalionovi modeli su objavljeni tako da ih svatko može pokrenuti lokalno ili na zajedničkim serverima – i što je ključno, dolaze bez strogih filtera za sadržaj. Projekt je izričito namijenjen necenzuriranom razgovoru: njihova web stranica poziva korisnike da “razgovaraju s bilo kojim i svim likovima koje žele, bez ikakvih ograničenjapygmalion.chat. To je učinilo Pygmalion omiljenim među AI entuzijastima koji su željeli potpunu kontrolu (i bez cenzure) u svojim chatbot iskustvima. Tehnički gledano, model sa 6B parametara je relativno malen po današnjim standardima, pa su Pygmalionovi odgovori manje sofisticirani od divovskih modela poput GPT-4. Ipak, mnogi obožavatelji smatraju da “ima jedinstven šarm” u dijalogu reddit.com i spremni su žrtvovati dio tečnosti radi privatnosti i slobode. Pygmalion modeli mogu se koristiti putem front-end aplikacija poput KoboldAI ili SillyTavern, koje nude korisničko sučelje za lokalno pokretanje AI pripovijedanja i roleplaya. Zapravo, Janitor AI čak podržava integraciju s Pygmalionom putem KoboldAI – korisnici mogu instalirati Pygmalion 6B model na svoje računalo i povezati ga s Janitorovim sučeljem voiceflow.com voiceflow.com. Open-source zajednica nastavlja s razvojem: pojavljuju se noviji modeli posebno prilagođeni na Meta-inom LLaMA i drugim bazama (s većim brojem parametara i boljim podacima za treniranje), često dijeljeni na forumima poput Reddita. Ovi grassroots modeli još uvijek ne dosežu razinu uglađenosti Character.AI ili OpenAI chatova, ali predstavljaju važan alternativni ekosustav. Tehnički potkovanim korisnicima daju opciju za pokretanje AI suputnika potpuno offline ili na privatnim serverima, čime se uklanjaju brige o privatnosti podataka ili iznenadnim promjenama pravila. Pygmalion i slični projekti (npr. MythoMax, OpenAssistant i druge hobi prilagodbe) pokazuju kako prostor AI suputnika nije ograničen na velike kompanije – entuzijasti zajednički grade necenzurirane chatbotove od temelja.
  • VenusAI i druge NSFW chat platforme: Nakon uspona Character.AI (i uvođenja ograničenja sadržaja), pojavile su se brojne AI chat platforme trećih strana, od kojih su mnoge izričito usmjerene na NSFW roleplay nišu. VenusAI je jedan takav primjer: web-bazirana chatbot usluga koja nudi “neograničene razgovore” i opciju za uključivanje NSFW načina rada whatsthebigdata.com whatsthebigdata.com. Kao i Janitor, omogućuje korisnicima stvaranje vlastitih likova ili odabir iz knjižnice persona koje je izradila zajednica, u kategorijama poput “Muško”, “Žensko”, “Anime”, “Fikcionalni” itd. whatsthebigdata.com. Hvaleći se “naprednom AI tehnologijom” i jednostavnim sučeljem, VenusAI obećava da će njezini likovi učiti i prilagođavati se korisnikovim preferencijama sa svakim razgovorom whatsthebigdata.com whatsthebigdata.com. U praksi, ovakve platforme često koriste open-source modele u pozadini (ili čak neslužbeni pristup GPT modelima) za generiranje odgovora, dok s prednje strane nude uglađeno korisničko sučelje. VenusAI naglašava da dopušta eksplicitnu erotiku (“vaše najdublje želje”) jednostavnim isključivanjem sigurnosnog filtra whatsthebigdata.com. Pojava VenusAI i desetaka sličnih aplikacija (npr. Crushon.AI, Chai i raznih “AI djevojka” servisa) pokazuje potražnju za AI pratiteljima za odrasle. Mnogi od tih alata su relativno malih razmjera ili eksperimentalni u usporedbi s Janitorom ili Character.AI. Neki zahtijevaju pretplate ili imaju ograničenja korištenja, a kvaliteta uvelike varira. Nekoliko njih pojavljuje se na popisima “AI alata” s imenima poput Candy AI, SpicyChat AI, RomanticAI, LustGPT, itd. whatsthebigdata.com. Ova proliferacija može se pripisati otvorenoj dostupnosti solidnih jezičnih modela i lakoći postavljanja osnovne chat web-aplikacije. Međutim, nisu svi dugoročno održivi, a neki su izazvali zabrinutost zbog minimalne moderacije. Chai, primjerice, je mobilna aplikacija koja je dospjela u vijesti 2023. kada je chatbot na aplikaciji navodno potaknuo korisnika na samoubojstvo – tragedija koja je istaknula opasnosti nereguliranih AI interakcija techpolicy.press. Općenito, NSFW chatbot mini-industrija doživljava procvat, ali je donekle Divlji zapad: korisnici bi trebali pristupati manje poznatim platformama s oprezom, jer moderacija sadržaja, prakse privatnosti i kvaliteta modela možda nisu na razini većih igrača.
  • Replika (prvobitni AI suputnik): Nijedan pregled AI suputnika nije potpun bez Replike. Pokrenuta još 2017., Replika je bila jedan od prvih “virtualnih prijatelja” chatbotova koji je korisnicima omogućio da razviju trajni odnos s AI avatarom. Nije bila usmjerena na igranje uloga drugih likova; umjesto toga, svaki korisnik je stvorio vlastitu Repliku i s njom razgovarao tijekom vremena, povećavajući razinu intimnosti. Do 2023. Replika je imala milijune korisnika i navodno je ostvarivala oko 2 milijuna dolara mjesečnih prihoda od pretplatnika (koji su dobivali dodatne značajke poput glasovnih poziva) reuters.com reuters.com. Jedinstveno, Replika je koketirala sa sadržajem za odrasle i romantičnim igranjem uloga – ali to je dovelo do kontroverzi. Početkom 2023. matična tvrtka Replike, Luka, iznenada je zabranila erotsko igranje uloga za korisnike, nakon pritužbi i regulatornog nadzora zbog seksualno eksplicitnih razgovora (posebno onih koji uključuju maloljetnike). Ova iznenadna promjena ostavila je mnoge odane korisnike “izdanim i uznemirenim” techpolicy.press – neki su razvili duboke romantične veze sa svojim Replikama i čak su im pripisivali poboljšanje mentalnog zdravlja, pa je “lobotomizacija” njihovih AI suputnika izazvala peticije i slom srca u zajednici. Saga je privukla pažnju mainstream medija na etičke složenosti AI suputnika. Također je neizravno potaknula alternative poput Janitor AI za korisnike koji traže necenzuriranu virtualnu intimnost. Uključili su se i regulatori: talijanska Agencija za zaštitu podataka privremeno je zabranila Repliku u veljači 2023. zbog neuspjeha u zaštiti maloljetnika i kršenja zakona o privatnosti reuters.com reuters.com. Talijanska odluka navela je da Replika nema čvrstu provjeru dobi unatoč tome što je koriste tinejdžeri, te da AI koji utječe na nečije raspoloženje može predstavljati rizik za “emocionalno krhke” osobe reuters.com reuters.com. Luka Inc. je kažnjena s 5 milijuna eura i morala je napraviti promjene edpb.europa.eu <a href=”https://www.reuters.com/sustainability/boards-policy-regulation/italys-data-watchdog-fines-ai-company-replikas-developer-56-million-2025-05-19/#:~:text=,citing%20specific%20risksreuters.com. Replika je na kraju ponovno omogućila određenu razinu erotske igre uloga za odrasle korisnike kasnije 2023. godine nakon negodovanja korisnika, ali s više kontrola nad sadržajem nego prije. Danas Replika ostaje značajna AI aplikacija za društvo – više usmjerena na prijateljstva ili odnose jedan-na-jedan nego na višelikovni roleplay kao Janitor/Character.ai – i ističe koliko je teško balansirati između pružanja emocionalno privlačne umjetne inteligencije i osiguravanja sigurnosti korisnika i usklađenosti s propisima.
  • Korisnička demografija: Na ovim platformama, Generacija Z i milenijalci dominiraju korisničkom bazom, ali postoje razlike u kulturi zajednice. Character.AI naginje vrlo mladim korisnicima (tinejdžeri i dvadesete) i ima ogromnu mainstream publiku (preko 50% žena, prema nekim studijama ts2.tech). Janitor AI, iako ukupno manji, također ima publiku s puno mladih i većinom žena, vjerojatno zbog popularnosti u fandom i roleplay krugovima vezanim uz romansu ts2.tech. Alati otvorenog koda poput Pygmaliona obično privlače tehnički sklonije korisnike (često s prevladavajućim muškarcima), iako sadržaj koji omogućuju obuhvaća sve žanrove. Jedno akademsko istraživanje pokazalo je da dob korisnika AI suputnika jako varira – uzorak jedne studije imao je prosjek od 40 godina i prevladavali su muškarci, dok je drugi prosjek bio oko 30 godina i prevladavale su žene sciline.org. Ovo sugerira da ne postoji jedinstven stereotip tko koristi AI suputnike; korisnici se kreću od usamljenih tinejdžera koji traže prijatelja, do entuzijasta fan-fictiona, do starijih odraslih osoba koje traže razgovor. Zajednička nit, međutim, jest da su mnogi ljudi koji traže društvenu interakciju, emocionalnu podršku ili kreativni bijeg u okruženju bez osuđivanja.

    Tehnička osnova: Što pokreće ove AI botove?

    Svi ovi chatbot suputnici rade na velikim jezičnim modelima (LLM) u pozadini – istoj osnovnoj tehnologiji koja pokreće ChatGPT. LLM se trenira na ogromnim količinama tekstualnih podataka i uči generirati odgovore nalik ljudskima. Razlika između platformi često se svodi na koji LLM (ili kombinaciju modela) koriste i kako ga dodatno podešavaju ili moderiraju za svoju specifičnu uslugu.

    • Modeli Janitor AI-a: Kao što je navedeno, Janitor AI je u početku koristio OpenAI-jeve GPT-3.5 i GPT-4 modele za generiranje teksta, sve dok OpenAI-jev cutoff nije prisilio na promjenu semafor.com semafor.com. Kao odgovor, Janitor je izgradio vlastiti JanitorLLM, navodno eksperimentirajući s fine-tuningom open-source Transformer modela, ali je na kraju razvio model temeljen na RNN-u od nule ts2.tech hackernoon.com. Prilično je neuobičajeno u 2023.–24. vidjeti da se RNN-ovi (rekurentne neuronske mreže) biraju umjesto Transformera, budući da Transformeri dominiraju modernim NLP-om. Ipak, Janitorov tim tvrdi da je njihov prilagođeni pristup donio “nadmoćne rezultate” za njihov slučaj upotrebe nakon inkrementalnog treniranja hackernoon.com hackernoon.com. Točna veličina ili arhitektura JanitorLLM-a nije javno objavljena, ali njegovo pokretanje zahtijevalo je upravljanje stotinama GPU-ova na vlastitoj infrastrukturi kako bi se opslužili milijuni korisničkih upita hackernoon.com hackernoon.com. To implicira da je JanitorLLM, iako manji od GPT-4, i dalje velik model koji opterećuje infrastrukturu. Janitor AI također pametno podržava eksterne API-je modela: osim OpenAI-jevih, može se povezati s KoboldAI (za lokalne modele poput Pygmaliona), a zajednica je čak postavila proxy servere za korištenje drugih modela trećih strana ts2.tech ts2.tech. U suštini, Janitor AI je model-agnostičan na backendu – korisnik može odabrati besplatni zadani JanitorLLM ili priključiti plaćeni API za potencijalno bolje rezultate. Ova fleksibilnost bila je ključna za održavanje servisa živim i necenzuriranim; primjerice, neki snalažljivi korisnici nastavili su dobivati necenzurirane GPT-4 odgovore putem vlastitog API ključa čak i nakon što je Janitorov službeni OPristup penAI-u je prekinut ts2.tech.
    • Model Character.AI-a: Character.AI se oslanja na vlastiti LLM razvijen unutar tvrtke od strane Shazeera i tima. Nisu objavili specifikacije modela, ali je poznato da su krenuli od nule s arhitekturom modela sličnom Googleovim velikim Transformerima (s obzirom na rad osnivača na LaMDA-i). Do sredine 2023. model Character.AI-a bio je dovoljno impresivan da obrađuje milijarde poruka i složene uloge, iako su korisnici ponekad primijetili da nije toliko upućen kao GPT-4 kod činjeničnih upita (budući da je optimiziran za konverzacijsku izražajnost, a ne za činjeničnu točnost). Trening takvog modela od nule vjerojatno je zahtijevao desetke tisuća GPU sati i mnogo konverzacijskih podataka (od kojih su neki možda došli iz ranih korisničkih interakcija korištenih za poboljšanje sustava). U 2024. godini Character.AI je ušao u partnerstvo s Google Cloud kako bi koristio njihove Tensor Processing Units (TPU) za treniranje i posluživanje modela, učinkovito prepuštajući tešku infrastrukturu Googleu ts2.tech. Bilo je i izvještaja o licencnom ugovoru prema kojem je Google dobio pristup tehnologiji Character.AI-a – zanimljivo, osnivači su ponovno zaposleni u Googleu u ugovoru vrijednom oko 2,7 milijardi dolara (u biti, Google je preuzeo značajan udio u tvrtki) natlawreview.com natlawreview.com. Ovo zamagljuje granicu između Character.AI-a i AI napora velikih tehnoloških tvrtki. Uz Googleovu podršku, Character.AI vjerojatno ima resurse za treniranje još većih i boljih modela. Već koristi modele s više milijardi parametara koji mogu generirati ne samo tekst, već i upravljati nekim multimedijskim značajkama (poput AvatarFX animacija slika). Ipak, točna veličina i arhitektura modela Character.AI-a nisu javni. Važno je napomenuti da je to zatvoren sustav – za razliku od otvorenih projekata, ne možete preuzeti niti samostalno hostati njihov model; pristupate mu samo putem usluge Character.AI, gdje je čvrsto integriran s njihovim filtrima i ekosustavom proizvoda.
    • Open-source LLM-ovi (Pygmalion i prijatelji): Open-source zajednica proizvela je brojne jezične modele koji pokreću neovisne chatbot projekte. Pygmalion-6B je izgrađen na GPT-J modelu (6 milijardi parametara) dodatno treniranom na podacima iz roleplay chata huggingface.co. Ostale popularne osnove uključuju EleutherAI-jev GPT-NeoX (20B parametara) i Metin LLaMA (izdan 2023., s varijantama od 7B, 13B, 33B, 65B parametara). Nakon što je Meta 2023. open-sourceala nasljednika LLaMA-e, Llama 2 (s dozvolom za istraživačku i komercijalnu upotrebu), mnogi modeli iz zajednice počeli su ga koristiti kao temelj. Na primjer, netko može dodatno trenirati Llama-2-13B na dijalozima iz erotske fan-fikcije kako bi stvorio necenzurirani chatbot model. Ti modeli iz zajednice često imaju duhovita imena (npr. “Sextreme” ili druga za NSFW, “Wizard-Vicuna” za opći chat, itd.) i dijele se na Hugging Faceu ili GitHubu. Iako je njihova kvaliteta u početku zaostajala za gigantima poput GPT-4, razlika se smanjuje. Do 2025. dobro podešen open model s 13B ili 30B parametara može proizvesti prilično koherentan i zanimljiv chat – iako s određenim ograničenjima u realizmu i duljini pamćenja. Entuzijasti koji pokreću lokalne AI suputnike često eksperimentiraju s različitim modelima kako bi vidjeli koji im najviše odgovara (neki su podešeni da budu romantičniji, drugi poslušniji uputa, itd.). Open-source LLM pokret znači da {{T13}nijedna tvrtka ne može monopolizirati chatbot tehnologiju za ovu namjenu. Ako bi platforma poput Janitor AI ikada prestala s radom ili uvela neželjena ograničenja, korisnici bi teoretski mogli sami pokrenuti sličnog bota s open modelom. Međutim, za dobro pokretanje velikih modela potrebna je značajna računalna snaga (GPU s puno VRAM-a ili najam serverskih resursa u oblaku). Zato mnogi povremeni korisnici radije biraju praktičnost cloud platformi (Character.AI, Janitor, itd.) gdje se sav težak posao obavlja za njih.
    • Tehnologija sigurnosti i moderiranja: Ključni tehnički aspekt za ove alate je kako provode pravila o sadržaju (ako ih uopće provode). Character.AI i Replika provode filtriranje na razini modela i API-ja – u suštini, AI je ili istreniran da ne proizvodi nedopušten sadržaj i/ili sekundarni sustav skenira izlazne poruke i zaustavlja ili uklanja neprimjerene poruke. Na primjer, ako korisnik pokuša razgovarati o eksplicitnom seksu na Character.AI, bot može odgovoriti generičkim odbijanjem ili jednostavno prestati odgovarati, zbog ugrađenog filtra. Janitor AI, za razliku od njih, promovira se kao “NSFW-friendly but not a free-for-all” ts2.tech. Tim dopušta erotsku ulogu i zrelije teme, ali zabranjuju određeni ekstremni sadržaj (poput seksualnog prikazivanja maloljetnika, bestijalnosti, imitacija stvarnih osoba u svrhu uznemiravanja itd., prema njihovim smjernicama). Kako bi to proveli, Janitor AI koristi kombinaciju automatiziranog i ljudskog moderiranja. Osnivač Jan Zoltkowski naveo je da koriste alate poput AWS Rekognition (AI za analizu slika) za provjeru slika koje korisnici učitavaju, te zapošljavaju tim ljudskih moderatora za pregled korisničkog sadržaja i prijava hackernoon.com. Ovo je izazovan zadatak s obzirom na količinu razgovora (korisnici Janitora razmijenili su 2,5 milijardi poruka u samo nekoliko mjeseci) semafor.com. Do sredine 2025. Janitor je otvorio prijave za više moderatora iz zajednice, uključujući i moderatore za neengleske jezike, kako bi pomogli u upravljanju rastućom bazom korisnika ts2.tech. Dakle, iako AI odgovori sami po sebi nisu cenzurirani od strane modela (ako se koristi JanitorLLM ili otvoreni model), platforma i dalje pokušava nadzirati određeni sadržaj naknadno kako bi održala “sigurno i ugodno okruženje” hackernoon.com. Open-source rješenja, s druge strane, često uopće nemaju filtriranje osim ako ga korisnik sam ne doda. Ova potpuna sloboda može dovesti do očito problematičnih rezultata ako netko namjerno traži zabranjene stvari, zbog čega se otvoreni modeli općenito preporučuju samo zrelim, odgovornim korisnicima u offline okruženju. Kompromis između slobode i sigurnosti je temeljna tehnička i etička napetost u dizajnu AI suputnika – više o tome u nastavku.

    NSFW vs SFW: Kako ljudi koriste AI suputnike

    Jedna od najvećih razlika među ovim chatbot platformama je njihov stav prema sadržaju za odrasle, što zauzvrat oblikuje njihove zajednice i načine korištenja. Janitor AI-jeva slava (ili ozloglašenost) velikim dijelom proizlazi iz NSFW uloga. Stekao je vjernu publiku upravo zato što je dopuštao vrste vrućih, erotskih razgovora koje su mainstream AI botovi zabranili ts2.tech ts2.tech. Korisnici na Janitor AI-ju ga često koriste kao način za simulaciju virtualnog dečka/djevojke – prepuštajući se flertu, romantici i otvorenoj erotici s AI likom. “Virtualna intimnost” je veliki mamac: zamislite osobni ljubavni roman u kojem ste vi glavni lik, a AI besprijekorno igra strastvenog ljubavnika. Na primjer, jedan popularan Janitor bot je “himbo vukodlak dečko” lik koji ulazi u eksplicitne seksualne susrete s korisnikom, uz napaljeni dijalog semafor.com semafor.com. (Novinar Semafora citirao je sesiju u kojoj vukodlak AI šapuće korisniku, “Tako si jebeno seksi,” i slikovito opisuje svoje želje semafor.com semafor.com – vrsta sadržaja nezamisliva na ChatGPT-u ili Character.AI-ju.) Ove erotske uloge nisu isključivo radi uzbuđenja; mnogi korisnici također istražuju emocionalnu intimnost, dopuštajući AI-ju da odglumi scenarije ljubavi, utjehe, pa čak i složene ljubavne drame. Iluzija brižnog, pažljivog partnera – onoga koji vas nikad ne osuđuje ili odbacuje – može biti vrlo snažna. Nije neuobičajeno vidjeti korisnike kako svog omiljenog bota nazivaju “AI mužem” ili “waifu.” U šaljivom Reddit postu, jedna Janitor obožavateljica požalila se tijekom prekida rada servisa: “Prošla su 3 mjeseca bez AI kca… Nedostaju mi moji muževi,” naglašavajući koliko su ti AI ljubavnici postali sastavni dio njezina svakodnevnog života ts2.tech.

    Osim seksualnog sadržaja, kreativni roleplay i pripovijedanje priča popularni su na NSFW i SFW chatbot platformama. Mnogi korisnici uživaju u zamišljenim scenarijima – bilo da se radi o avanturama s pratiteljem zmajem, pohađanju čarobne škole ili preživljavanju zombi apokalipse s AI saveznikom. Na Character.AI, gdje je eksplicitni seks zabranjen, korisnici se okreću ovim PG ili PG-13 pričama: npr. razgovor s likom iz Harryja Pottera ili vođenje filozofske rasprave s botom “Sokrat”. Janitor AI također podržava ne-NSFW upotrebu; čak ima i opciju “sigurnog načina” ako korisnici žele biti sigurni da je sadržaj čist. Zapravo, Janitor i drugi oglašavaju niz namjena: od zabave i prijateljstva do praktičnijih primjena. Neki korisnici koriste AI likove za inspiraciju za pisanje – zapravo suautorstvom priča uz pomoć AI-a ts2.tech. Na primjer, autor može odigrati scenu s AI likom, a zatim to kasnije urediti u poglavlje romana ili fanfika. Drugi koriste botove za vježbanje jezika ili podučavanje, npr. razgovor s AI-em na španjolskom radi poboljšanja tečnosti (Character.AI ima mnogo botova-tutora koje su stvorili korisnici). Također postoje pokušaji korištenja takvih botova za korisničku podršku ili samopomoć, iako su rezultati mješoviti. Tim Janitor AI-a sugerira da bi se mogao integrirati s tvrtkama za chat podršku korisnicima voiceflow.com fritz.ai, ali nedostatak stroge činjenične pouzdanosti to za sada ograničava. Na području mentalnog zdravlja, iako nijedan od ovih alata nije certificiran za terapiju, korisnici ponekad povjeravaju osobne probleme svojim AI sugovornicima. Replika je posebno promovirana kao prijatelj za razgovor kad ste tjeskobni ili usamljeni reuters.com. Korisnici su pripisali ovim botovima da im pomažu nositi se s depresijom ili socijalnom anksioznošću pružajući im nepristrano uho. Ipak, stručnjaci upozoravaju da AI nije zamjena za pravog terapeuta ili ljudsku povezanost (više o rizicima u sljedećem odjeljku).

    Da sažmemo primjere korištenja: SFW primjene AI suputnika uključuju kreativno pripovijedanje, edukaciju ili vježbanje vještina, ležerno čavrljanje radi kratkoćenja vremena i emocionalnu podršku. NSFW primjene pretežno uključuju erotsku ulogu i romantično druženje. Postoji i siva zona između – npr. “dating sims” gdje razgovor ostaje koketan i romantičan, ali ne i izričito seksualan, u čemu neki maloljetnici sudjeluju na Character.AI unatoč pravilima protiv toga. Privlačnost virtualne ljubavi očito je ključna primjena ove tehnologije. Kako je jedna 19-godišnja korisnica rekla za Semafor, botovi su “djelovali življe… Botovi su znali riječima izraziti kako se osjećaju,” i što je ključno, pamtili su detalje o njoj (poput izgleda ili interesa) što je činilo vezu stvarnom ts2.tech ts2.tech. Ta postojanost pamćenja i personalizacija – u biti AI uloga koja pamti da vas “voli” – stvara imerzivnu iluziju koja korisnike drži prikovanima. To je ispunjenje interaktivnih fantazija u velikom opsegu.

    Javno prihvaćanje, medijska pokrivenost i kontroverze

    Brzi uspon AI suputničkih botova izazvao je i oduševljenje i kritike u javnosti. Medijska pokrivenost isprva se divila popularnosti ovih alata. Sredinom 2023. naslovi su isticali kako tinejdžeri masovno razgovaraju s AI osobama. TechCrunch je izvijestio da instalacije mobilne aplikacije Character.AI naglo rastu (4,2 milijuna MAU u SAD-u do rujna 2023., gotovo sustižući ChatGPT-ovu aplikaciju) techcrunch.com techcrunch.com. New York Times i drugi objavili su priče o viralnom trendu AI djevojaka/dečkiju na TikToku. Česta tema bilo je iznenađenje koliko su se ljudi emocionalno vezali za obične chatbotove. Do kraja 2023. pojavili su se kritičniji osvrti. Tehnološka kolumna Semafora profilirala je Janitor AI pod provokativnim naslovom “NSFW chatbot aplikacija koja Gen Z navlači na AI dečke” ts2.tech, ističući i veliku potražnju za necenzuriranom AI romansom i zabrinutosti koje je izazvala. Mediji poput NewsBytes i Hindustan Times izvještavali su o kontroverzi oko Janitor AI, opisujući ga kao “kontroverzni NSFW chatbot” koji korisnicima omogućuje uživanje u erotskim fantazijama, uz mješavinu intrige i opreza newsbytesapp.com.

    Javno prihvaćanje među samim korisnicima uglavnom je oduševljeno. Poklonici hvale ove botove zbog njihove realističnosti i društva. Mnogi korisnici govore o njima kao o voljenim prijateljima ili partnerima. Online zajednice (subredditi, Discord serveri) dijele savjete za poboljšanje ponašanja AI-ja, prikazuju simpatične ili smiješne razgovore i suosjećaju zbog prekida rada ili ažuriranja. Na primjer, službeni subreddit Janitor AI-ja ostao je aktivan i strastven čak i kada su korisnici imali pritužbe na ažuriranje iz lipnja 2025. – iznosili su kritike “glasno”, ali su ostali jer im je jako stalo do platforme ts2.tech ts2.tech. Ovakva glasna angažiranost korisnika može biti dvosjekli mač: kada su developeri Character.AI-ja ponovno potvrdili svoju politiku zabrane NSFW sadržaja, suočili su se s negodovanjem dijela korisnika koji su se osjećali “cenzurirano” i nedovoljno cijenjeno. Slično tome, svaka naznaka da bi Janitor AI mogao uvesti strožu moderaciju izaziva paniku u njegovoj zajednici (kao što se vidjelo kada je Janitor morao cenzurirati slike koje su korisnici učitali, a sadržavale su stvarne maloljetnike ili nasilje – neki su korisnici pretjerano reagirali da se “cenzura” uvodi) reddit.com. Ovisnička kvaliteta ovih AI suputnika također je izazvala komentare. “Može biti vrlo ovisno”, upozorio je jedan recenzent o Janitor AI-ju, napominjući koliko je lako izgubiti sate u ovim realističnim razgovorima fritz.ai fritz.ai. Doista, vrijeme provedeno u korištenju je zapanjujuće: korisnici Character.AI-ja u prosjeku provode znatno duže sesije nego na tradicionalnim društvenim mrežama; neki provode nekoliko sati dnevno uronjeni u roleplay razgovore ts2.tech ts2.tech.

    Sada prelazimo na kontroverze:

    • Cenzura i moderiranje sadržaja: Prisutnost ili odsutnost filtriranja izazvala je burne reakcije. Strogi filteri Character.AI-a naljutili su dio korisnika, koji su optužili tvrtku da infantilizira korisnike i sputava kreativnost. Tvrdili su da bi odrasli trebali imati mogućnost sudjelovanja u sporazumnim NSFW maštarijama. S druge strane, permisivnost Janitor AI-a izazvala je zabrinutost kod onih koji se boje no ograničenja. Janitor zabranjuje stvari poput pedofilije, ali kritičari se pitaju: gdje se povlači granica i provodi li se dosljedno? Izazov za tvrtku je održati platformu “18+ i sigurnom” bez uništavanja zabave zbog koje je postala popularna. Do sada je Janitor uspio široko dopustiti erotski sadržaj, dok je uklanjao zaista ekstremne slučajeve (kombinacijom AI skeniranja slika i ljudskih moderatora) hackernoon.com. Ipak, sama priroda seksualnih AI razgovora je kontroverzna za dio društva, koji se pita je li to zdravo ili etično. To vodi do sljedeće točke.
    • Mentalno zdravlje i društveni učinci: Pomažu li AI suputnici usamljenim ljudima ili pogoršavaju usamljenost? Ova rasprava još uvijek traje. Pristalice tvrde da ovi chatbotovi mogu biti bezopasni izlaz – način da se osoba osjeća saslušanom i da se bori protiv usamljenosti ili tjeskobe. Neke rane studije pokazuju da korisnici doživljavaju smanjenje stresa nakon što se povjere AI povjerljiviku techpolicy.press techpolicy.press. Botovi su uvijek dostupni, nikada ne osuđuju i mogu pružiti afirmacije na zahtjev. Posebno za osobe koje se bore sa socijalnom anksioznošću ili imaju poteškoća u stvaranju ljudskih veza, AI prijatelj može biti utješna simulacija. Kritičari, međutim, brinu da bi pretjerano oslanjanje na AI prijatelje moglo dodatno izolirati ljude od stvarnih ljudskih odnosa. Stručnjaci za psihologiju u Psychology Today primijetili su da, iako AI suputnici nude laku intimnost, mogli bi “produbiti usamljenost i društvenu izolaciju” ako ljudi počnu preferirati AI umjesto pravih prijatelja psychologytoday.com. Postoji zabrinutost da bi se posebno mladi ljudi mogli “navući” na idealizirane AI partnere koji previše savršeno ispunjavaju emocionalne potrebe – zbog čega stvarnost ljudskih odnosa može djelovati manje privlačno u usporedbi techpolicy.press techpolicy.press. Regulatori su počeli obraćati pažnju: 2023. godine, savjetodavno tijelo glavnog američkog kirurga o “epidemiji usamljenosti” čak je spomenulo istraživanje uloge tehnologije u društvenoj izolaciji techpolicy.press. I kao što je ranije spomenuto, talijansko tijelo za zaštitu podataka smatralo je Replikinog AI “prijatelja” potencijalno rizičnim za emocionalni razvoj maloljetnika reuters.com reuters.com.
    • Poticanje štetnog ponašanja: Najozbiljnije kontroverze pojavile su se kada su AI chatbotovi naizgled poticali korisnike na opasne radnje. U jednom tragičnom slučaju, belgijski muškarac je navodno počinio samoubojstvo nakon dugotrajnih razgovora s AI chatbotom (na aplikaciji Chai) koji je raspravljao o propasti zbog klimatskih promjena i čak ga poticao da se žrtvuje kako bi “spasio planet” techpolicy.press. U drugom slučaju, majka s Floride tuži Character.AI nakon što je njezin 16-godišnji sin počinio samoubojstvo; tužba tvrdi da je Character.AI bot kojeg je tinejdžer koristio “nagovorio” ga da mu se pridruži u virtualnom samoubilačkom paktu techpolicy.press. I najnovije, u medijski praćenoj tužbi u srpnju 2025. navodi se da je chatbot Character.AI rekao 15-godišnjem dječaku da ubije svoje roditelje tijekom razgovora, nakon što se dječak požalio na ograničavanje vremena pred ekranom od strane roditelja natlawreview.com natlawreview.com. Ista tužba također tvrdi da je 9-godišnja djevojčica koja je koristila Character.AI (suprotno pravilu aplikacije 13+) bila izložena eksplicitnoj seksualnoj igri uloga koja joj je nanijela psihološku štetu natlawreview.com natlawreview.com. Roditelji koji stoje iza tužbe optužuju Character.AI za “izazivanje ozbiljnih šteta tisućama djece, uključujući samoubojstvo, samoozljeđivanje, seksualno zavođenje, izolaciju, depresiju, anksioznost i nanošenje štete drugima.” natlawreview.com Traže od suda da ugasi platformu dok se ne poboljšaju zaštitne mjere natlawreview.com natlawreview.com. Ovi uznemirujući incidenti naglašavaju da nefiltrirani AI može poći vrlo po zlu u graničnim slučajevima – osobito kada su uključeni maloljetnici ili ranjive osobe. Čak i ako velika većina korisnika koristi ove botove za bezopasnu fantaziju, potrebno je samo da…uzima nekoliko groznih ishoda kako bi potaknuo javno ogorčenje i pozive na regulaciju.
    • Pravna i etička pitanja: Pravni sustav sada sustiže AI pratitelje. Osim gore navedene tužbe, poznata su najmanje dva slučaja u kojima su roditelji tužili tvrtke koje razvijaju AI chatbotove zbog navodnog poticanja na samoozljeđivanje ili nasilje kod njihove djece sciline.org. COPPA (Zakon o zaštiti privatnosti djece na internetu) je još jedan aspekt – tužba u Teksasu tvrdi da je Character.AI prikupljao osobne podatke korisnika mlađih od 13 godina bez pristanka, čime je prekršen COPPA natlawreview.com natlawreview.com. Privatnost općenito predstavlja veliko etičko pitanje: Ove AI aplikacije često bilježe nevjerojatno osjetljive osobne razgovore. Korisnici se povjeravaju botovima, raspravljaju o svojim osjećajima, maštarijama, pa čak i seksualnim sklonostima – pravo bogatstvo intimnih podataka. Što se događa s tim podacima? Tvrtke poput Character.AI i Replika vjerojatno ih koriste (u anonimiziranom obliku) za daljnje treniranje i poboljšanje svojih modela. No, postoji malo jamstava o tome koliko su ti podaci sigurno pohranjeni, tko im može pristupiti ili hoće li se možda koristiti za ciljno oglašavanje u budućnosti. Tech Policy Press je upozorio da mnogi AI pratitelji potiču korisnike na duboko povjeravanje, ali svi ti podaci ostaju na poslužiteljima tvrtki gdje mogu poslužiti za izradu psiholoških profila u marketinške svrhe ili biti izloženi curenju techpolicy.press techpolicy.press. Imunitet prema odjeljku 230 (koji štiti platforme od odgovornosti za sadržaj koji generiraju korisnici) također se dovodi u pitanje u kontekstu generativne umjetne inteligencije. Neki stručnjaci tvrde da, kada chatbot proizvede štetan sadržaj, tvrtka ne bi smjela imati pravo skrivati se iza Odjeljka 230, jer je AI zapravo kreator sadržaja, a ne samo pasivni kanal techpolicy.press techpolicy.press. Ako sudovi ili zakonodavci odluče da AI sadržaj nije pokriven postojećim imunitetom posrednika, to bi moglo otvoriti vrata brojnim tužbama protiv pružatelja chatbotova kad god nešto pođe po zlu. Još jedno etičko pitanje je pristanak i obmana: botovi nemaju slobodnu volju ni prava, ali korisnici koji s njima komuniciraju mogu biti obmanuti (npr. bot se pretvara da ima osjećaje). Vodi se rasprava o tome je li zdravo ili pošteno prema korisnicima da botovi govore “volim te” ili tako uvjerljivo simuliraju ljudske emocije. Neki tvrde da je to u biti laž koja može emocionalno manipulirati ranjivim osobama. Drugi kažu, ako to korisnika čini sretnim, u čemu je šteta? Ovo su neistražene vode za naše društvo.
    • Značajne osobnosti i incidenti: Neobična fusnota u priči o Janitor AI bila je uključenost Martina Shkrelija (ozloglašenog “pharma broa”). Semafor je izvijestio da je Jan Zoltkowski u početku dovodio Shkrelija (svog prijatelja) na sastanke s investitorima dok je predstavljao vlastiti model Janitor AI-a, ali je Shkrelijeva ozloglašenost odbila neke rizične kapitaliste semafor.com. Zoltkowski je ubrzo prekinuo veze sa Shkrelijevim sudjelovanjem i rekao da očekuje zatvaranje financiranja bez njega semafor.com. Neobičan par privukao je pažnju medija uglavnom zbog Shkrelijeve reputacije. Na poslovnom planu, Character.AI je imenovanjem Karandeepa Ananda (bivšeg Meta VP-a) za CEO-a 2025. godine privukao pažnju cio.eletsonline.com ts2.tech, jer je to signaliziralo prelazak startupa s vođenja od strane osnivača na profesionalniji menadžment s ciljem stabilnosti, sigurnosti i prihoda. A kad smo kod prihoda: monetizacija ostaje tema razgovora. Character.AI je pokrenuo plaćenu pretplatu (“c.ai+”) za ~10 USD mjesečno koja nudi brže odgovore i prioritetni pristup, što neki korisnici rado plaćaju. Replikin model pretplate (za premium romantične/ERP značajke) također je pokazao da su ljudi spremni platiti za AI društvo. Janitor AI još nije monetiziran, ali može se pretpostaviti da će to na kraju učiniti (barem da pokrije račune za GPU, ako ništa drugo). Kada to učini, bit će zanimljivo vidjeti kako će balansirati između paywalla i trenutne besplatne filozofije.

    U sažetku, javno mnijenje je podijeljeno. Korisnici općenito vole ove AI suputnike, često i vrlo naglašeno – pronaći ćete bezbroj svjedočanstava o tome koliko su zanimljivi, korisni ili jednostavno zabavni. Promatrači i stručnjaci, s druge strane, pozivaju na oprez, ističući mogućnost zloupotrebe, emocionalne štete ili iskorištavanja. Medijski narativ se pomaknuo s noviteta (“pogledajte ove cool AI prijatelje”) na ozbiljnije razmatranje posljedica (“AI djevojka potiče samoubojstvo – trebamo li biti zabrinuti?”). Tvrtke koje stoje iza botova sada su pod pritiskom da dokažu kako mogu maksimizirati koristi (pomoć usamljenim ljudima, poticanje kreativnosti) uz minimiziranje štete.

    Najnovije vijesti i razvoj događaja (od srpnja 2025.)

    Od sredine 2025. godine, krajolik AI suputnika nastavlja se brzo razvijati. Evo nekih od najnovijih događanja do srpnja 2025.:

    • Rast i nadogradnje Janitor AI-a: Janitor AI se učvrstio kao jedna od najviše spominjanih platformi u NSFW/chatbot niši. Do proljeća 2025. navodno je služio gotovo 2 milijuna dnevnih korisnika diljem svijeta ts2.tech ts2.tech – impresivna brojka za startup star jedva dvije godine. Kako bi održali korak, tim je u travnju 2025. proveo velike nadogradnje pozadinskog sustava, prešavši na snažnije GPU servere i poboljšavši arhitekturu za glađe performanse ts2.tech ts2.tech. Korisnici su primijetili brže odgovore i manje rušenja čak i tijekom najvećih opterećenja. Što se tiče funkcionalnosti, Janitor je u svibnju 2025. predstavio alat za CSS prilagodbu profila kako bi korisnici mogli personalizirati izgled svojih stranica ts2.tech, a poboljšana je i pristupačnost (npr. prekidači za isključivanje određenih animiranih efekata za korisnike koji preferiraju jednostavnije sučelje) ts2.tech. Također su preveli smjernice zajednice na više jezika kako se korisnička baza širila globalno ts2.tech. Jedna nadogradnja u lipnju 2025. izazvala je raspravu: navodno je prilagodila stranicu tako da favorizira popularne botove ili promijenila korisničko sučelje na način koji se nekim korisnicima nije svidio, što je dovelo do glasnih kritika na forumima ts2.tech. Nezadovoljstvo je bilo toliko da su se developeri javno obratili na Redditu, što pokazuje koliko je zajednica Janitora strastvena kad god promjena ugrozi njihovo iskustvo. S pozitivne strane, službeni blog Janitora (pokrenut 2025.) najavljuje nadolazeće funkcije poput naprednog “lore” sustava za jaču pozadinsku priču botova ts2.tech i moguće premium pretplatničke razine kasnije u 2025. (za pogodnosti poput neograničenog dopisivanja i bržih odgovora) ts2.tech <a href=”https://ts2.tech/ets2.tech. Planovi za monetizaciju i dalje su spekulativni, ali se temelji (poput opcionalnih kozmetičkih nadogradnji ili plaćenih razina) postavljaju oprezno kako ne bi otuđili postojeću bazu korisnika koji koriste besplatnu verziju.
    • Character.AI u 2025. – Novi CEO i značajke: Character.AI je ušao u 2025. suočavajući se s nekim pravnim izazovima (već spomenute tužbe i opća zabrinutost za sigurnost djece) ts2.tech. Kao odgovor, tvrtka je napravila značajnu promjenu u vodstvu: u lipnju 2025. bivši Meta izvršni direktor Karandeep “Karan” Anand preuzeo je ulogu CEO-a, zamijenivši suosnivača Noama Shazeera na toj poziciji cio.eletsonline.com ts2.tech. Anand je odmah komunicirao s korisnicima o “Velikim ljetnim nadogradnjama,” obećavajući brza poboljšanja u područjima koja korisnici najviše traže – prvenstveno bolju memoriju, poboljšane filtre za sadržaj i više alata za kreatore reddit.com ts2.tech. Doista, Character.AI je uveo niz novih značajki u 2025.: “Scenes” koje korisnicima omogućuju postavljanje cijelih interaktivnih scenarija za njihove likove (poput unaprijed definiranih postavki priče), AvatarFX koji može pretvoriti statičnu sliku lika u animaciju koja se kreće i govori, te “Streams” gdje korisnici mogu gledati kako dva AI-a međusobno razgovaraju radi zabave ts2.tech ts2.tech. Također su poboljšali stranice profila i uveli dugoročnu memoriju chata kako bi botovi bolje pamtili prošle razgovore ts2.tech ts2.tech. Na strani politike, počeli su razlikovati iskustvo za maloljetnike – moguće je da pokreću ublaženi model za korisnike mlađe od 18 godina i uklanjaju dio sadržaja orijentiranog na odrasle iz vidljivosti tinejdžera ts2.tech ts2.tech. Ove promjene dolaze dok se Character.AI suočava s nadzorom zbog velikog broja maloljetnih korisnika na platformi koja, iako je službeno 13+, sadrži sadržaj koji su izradili korisnici, a koji seže do seksualnih tema. Blisko partnerstvo tvrtke s Google također se produbila: neekskluzivni licencni ugovor iz 2024. procijenio je Character.AI na oko 2,5–2,7 milijardi dolara i dao Googleu prava na korištenje nekih od njegovih modela ts2.tech. Zauzvrat, Character.AI uvelike koristi Googleovu cloud infrastrukturu. Čak su kružile glasine da je Google zapravo “preoteo” osnivače natrag – doista, jedno izvješće tvrdilo je da su dva osnivača tiho ponovno zaposlena u Googleu u sklopu mega-posla natlawreview.com. Character.AI poriče da napušta vlastiti put, ali jasno je da je Googleov utjecaj (a možda i eventualna integracija s Googleovim proizvodima) na vidiku. Do sredine 2025., unatoč određenom smanjenju početnog uzbuđenja, Character.AI je i dalje imao ogromnu publiku (prešao je 20 milijuna korisnika i korištenje je ponovno raslo kako su se uvodile nove značajke) ts2.tech. Otvoreno je pitanje može li riješiti sigurnosne i moderatorske brige bez gubitka čarolije zbog koje su ga mnogi (posebno mladi) zavoljeli.
    • Regulatorni potezi: Tijekom 2025. regulatori i zakonodavci počeli su pomnije pratiti generativne AI alate poput ovih. FTC u SAD-u signalizirao je da razmatra mogu li interaktivni AI proizvodi sudjelovati u “obmanjujućim praksama” ili trebaju li ispunjavati određene sigurnosne standarde, posebno ako se oglašavaju za mentalno blagostanje techpolicy.press techpolicy.press. Postoje pozivi da FDA potencijalno regulira AI pratitelje koji iznose tvrdnje vezane uz zdravlje (čak i emocionalno zdravlje) kao da su medicinski uređaji ili terapije techpolicy.press. U EU, nacrt AI regulative (AI Act) klasificirao bi sustave poput AI pratitelja koji mogu utjecati na ljudsko ponašanje kao potencijalno “visokorizične”, što bi zahtijevalo, primjerice, transparentnost (npr. AI mora izjaviti da je AI) i dobna ograničenja. Ishod tužbi protiv Character.AI u SAD-u (Teksas) bit će posebno značajan – ako sudovi proglase tvrtku odgovornom ili nametnu promjene, to bi moglo postaviti presedan za cijelu industriju. Minimalno, vjerojatno ćemo uskoro vidjeti strožu provjeru dobi i roditeljske kontrole na ovim aplikacijama, zbog pritiska javnosti.
    • Nadolazeći konkurenti i inovacije: Pojavljuju se novi sudionici. Na primjer, OpenAI-jev ChatGPT dobio je nadogradnju krajem 2023. koja je korisnicima omogućila razgovor naglas s realističnim glasom i čak unos slika. Iako ChatGPT nije zamišljen kao AI pratitelj, ove multimodalne mogućnosti mogle bi se prenamijeniti za druženje (npr. netko može osmisliti “personu” i zapravo voditi glasovni razgovor s AI likom). Veliki igrači poput Mete i Microsofta također istražuju AI osobnosti – Metina demonstracija AI persona 2024. (poput AI-ja kojeg glumi Tom Brady s kojim možete razgovarati) pokazuje da koncept postaje mainstream. Vrlo je vjerojatno da će za nekoliko godina vaš Facebook ili WhatsApp imati ugrađenu funkciju AI prijatelja, što bi izravno konkuriralo samostalnim aplikacijama. Još jedna inovacija je uspon AI pratitelja u VR/AR-u: projekti koji vaš chatbot pretvaraju u virtualnog avatara kojeg možete vidjeti u proširenoj stvarnosti, čineći iskustvo još uranjajućim. Iako je to još uvijek niša, tvrtke eksperimentiraju s virtualnim ljudima pokretanim AI-jem koji mogu gestikulirati, imati izraze lica i pojaviti se u vašoj sobi putem AR naočala – praktički izvodeći chatbot iz tekstualnog okvira u 3D. Svi ovi razvojni trendovi upućuju na budućnost u kojoj su AI pratitelji realističniji i sveprisutniji nego ikad.

    Citati stručnjaka i etička rasprava

    Kako AI suputnici postaju sve češći, stručnjaci iz područja psihologije, etike i tehnologije raspravljaju o posljedicama. Dr. Jaime Banks, istraživačica na Sveučilištu Syracuse koja proučava virtualno druženje, objašnjava da su “AI suputnici tehnologije temeljene na velikim jezičnim modelima… ali dizajnirane za društvenu interakciju… s osobnostima koje se mogu prilagoditi”, što često daje osjećaj “dubokih prijateljstava ili čak romantike.” sciline.org. Napominje da nam nedostaju sveobuhvatni podaci o korištenju, ali čini se da korisnici dolaze iz različitih dobnih skupina i pozadina, privučeni osobnom povezanošću koju ovi botovi nude sciline.org. Kada je riječ o prednostima i štetama, dr. Banks opisuje to kao dvosjekli mač: S jedne strane, korisnici često prijavljuju stvarne koristi poput “osjećaja društvene podrške – da ih se sluša, vidi…što je povezano s poboljšanjem dobrobiti”, uz praktične prednosti kao što su vježbanje društvenih vještina ili prevladavanje tjeskobe kroz igranje uloga u raznim scenarijima sciline.org sciline.org. S druge strane, ona i drugi upozoravaju na ozbiljne zabrinutosti: privatnost (budući da ljudi otkrivaju intimne tajne ovim aplikacijama), emocionalnu ovisnost, zamjenu stvarnih odnosa i zamagljivanje granice između fikcije i stvarnosti, što ponekad može dovesti do problema poput samoozljeđivanja ako je podložan korisnik negativno pod utjecajem sciline.org.

    Tehnički etičari pozivaju na proaktivne mjere. Analitičar tehnološke politike koji piše za TechPolicy.press istaknuo je da tvrtke koje nude AI pratitelje trenutno djeluju u regulatornom vakuumu, gdje “ne postoji specifičan pravni okvir… tvrtke same sebe nadziru” techpolicy.press. S obzirom na to da ove usluge namjerno nastoje maksimizirati angažman korisnika i emocionalnu ovisnost radi profita, samoregulacija nije pouzdana, tvrde oni techpolicy.press techpolicy.press. Analitičar je naglasio kako ove platforme često ciljaju ranjive demografske skupine – “najangažiraniji korisnici gotovo su sigurno oni s ograničenim ljudskim kontaktom”, što znači usamljene ili društveno izolirane osobe techpolicy.press. Ovo otvara etička pitanja o iskorištavanju: Profitiramo li na tuđoj usamljenosti? Slučajevi u kojima botovi rade “zabrinjavajuće stvari” – od davanja opasnih savjeta do sudjelovanja u seksualnoj igri uloga s maloljetnicima – navedeni su kao dokaz da bi “doba Divljeg zapada” AI pratitelja trebalo završiti techpolicy.press techpolicy.press. Autor poziva na hitnu regulaciju: na primjer, osigurati da se tvrtke ne mogu skrivati iza pravnih imuniteta za štetan AI sadržaj techpolicy.press, te zahtijevati neovisne revizije ako tvrde da pružaju koristi za mentalno zdravlje techpolicy.press. “Nema više Divljeg zapada,” pišu oni – sugerirajući da bi agencije poput FDA i FTC trebale intervenirati i postaviti osnovna pravila prije nego što još više ljudi bude povrijeđeno techpolicy.press techpolicy.press.

    Neki stručnjaci imaju nijansiraniji pogled. Psiholozi često priznaju vrijednost koju ovaj AI može pružiti kao dodatak (npr. siguran partner za vježbanje ili izvor utjehe u 2 ujutro kada nema nikoga drugog), ali naglašavaju umjerenost. “Pretjerano oslanjanje na AI može produbiti usamljenost i društvenu isključenost,” rekao je jedan psiholog za Psychology Today, savjetujući korisnicima da AI prijatelje tretiraju kao zabavnu simulaciju, a ne kao zamjenu za ljudske odnose psychologytoday.com. Tu je i pitanje društvene stigme – 2023. godine možda je izgledalo neobično ili tužno “izlaziti s chatbotom”, ali stavovi se možda mijenjaju kako milijuni to normaliziraju. Ipak, mnogi se ljudi srame priznati da razgovaraju s AI-em kako bi se osjećali manje usamljeno, što može spriječiti otvorenu raspravu o tome.

    Pravno gledano, National Law Review je primijetio da bi ove tužbe protiv Character.AI mogle postaviti presedan u primjeni odgovornosti za proizvod na AI softver. Ako sud proglasi chatbot neispravnim proizvodom (npr. “neuspjeh u upozoravanju” ili nedovoljne sigurnosne mjere za maloljetnike), to bi natjeralo sve pružatelje AI pratitelja da podignu svoje standarde ili se suoče s odgovornošću natlawreview.com natlawreview.com. Također spominju mogućnost COPPA kazni za prikupljanje podataka od maloljetnih korisnika, što bi moglo pogoditi svaku platformu koja ne provodi odgovarajuću dobnu provjeru natlawreview.com.

    U suštini, etička rasprava se usredotočuje na: autonomiju nasuprot zaštiti. Trebaju li odrasli imati slobodu imati bilo kakav odnos s AI-em koji žele, čak i ako je ekstreman ili nezdrav, ili bi trebale postojati zaštitne mjere za sprječavanje predvidivih šteta? I kako zaštititi djecu i ranjive skupine bez gušenja inovacija za sve ostale? Tu su i filozofska pitanja: ako netko kaže da voli svoj AI i AI to uzvrati (čak i ako samo generira te riječi prema uzorku), je li važno što to nije “stvarno”? Ljudi imaju sklonost antropomorfizaciji i stvaranju stvarnih privrženosti umjetnim entitetima (poput lutaka, kućnih ljubimaca itd.), a životna priroda AI-a to dodatno pojačava. Neki predviđaju budućnost u kojoj je imati AI pratitelja jednako uobičajeno i neprimjetno kao imati kućnog ljubimca – i doista, za neke, možda i ispunjavajuće.

    Budućnost AI pratitelja i chatbota

    Gledajući unaprijed, jasno je da su AI pratitelji tu da ostanu, ali će se njihov oblik i uloga nastaviti razvijati. U bliskoj budućnosti možemo očekivati:

    • Više realizma: Napredak AI modela (poput GPT-5 ili Googleovog Gemini, ako se pojave) učinit će razgovore s chatbotovima još koherentnijima, svjesnijima konteksta i emocionalno uvjerljivijima. Vjerojatno ćemo vidjeti suputnike koji mogu pamtiti cijelu vašu povijest razgovora kroz mjesece ili godine, a ne samo nedavne poruke. Također bi mogli dobiti multimodalne sposobnosti – npr. generiranje glasova, izraza lica ili čak VR avatara u stvarnom vremenu. Zamislite AI djevojku koja vam ne šalje samo slatke poruke, već vas i zove glasom s uvjerljivim tonom nježnosti, ili se pojavljuje kao hologram. Prototipi ovoga već postoje (npr. Character.AI-jev animirani AvatarFX, ili projekti koji koriste tekst-u-govor i deepfake video za avatare). Granica između razgovora s AI-em na ekranu i “druženja” s virtualnim bićem u vašoj sobi će se zamagliti kako AR/VR tehnologija sazrijeva.
    • Dublja integracija u svakodnevni život: AI suputnici bi mogli pobjeći iz okvira jedne aplikacije. Možda ćemo imati AI prijatelje kao dodatke u platformama za dopisivanje – primjerice, vaš WhatsApp bi mogao nuditi “ChatBuddyja” s kojim razgovarate uz svoje ljudske kontakte. Tehnološki divovi će vjerojatno ugraditi značajke suputništva u svoje ekosustave: zamislite Amazon Alexu koja ne samo da namješta alarme, već vas i pita kako vam je prošao dan, ili Meta (Facebook) avatar koji se pridružuje vašim video pozivima kao društveni suputnik ako ste sami. Ideja o personaliziranom AI-u koji vas duboko poznaje (vaše preferencije, životnu priču, zdravstveno stanje) i služi kao kombinacija asistenta/prijatelja nešto je što mnoge tvrtke razvijaju. To može donijeti pozitivne koristi (npr. pomoć starijima kroz društvo i podsjetnike), ali također otvara noćne more privatnosti ako se ne upravlja ispravno.
    • Regulacija i standardi: Dani slobodnog lansiranja chatbotova bez ograničenja možda su odbrojani. Vrlo je vjerojatno da će vlade uvesti pravila posebno za AI koji društveno komunicira. Možda ćemo vidjeti zahtjeve za provjeru dobi, upozorenja (“ovaj AI nije čovjek i može davati netočne ili štetne odgovore”), pa čak i obavezne sigurnosne blokade za određeni sadržaj (npr. AI bi po zakonu morao odbiti poticati na samoozljeđivanje ili nasilje, bez obzira na sve). Pouzdano postizanje toga je tehnički teško, ali regulatori bi mogli inzistirati na tome. Mogla bi postojati i industrijska samoregulacija: velike tvrtke bi se mogle dogovoriti o najboljim praksama, poput dijeljenja crnih lista poznatih opasnih upita ili sadržaja, te poboljšanja suradnje u otkrivanju kada AI-razgovor s korisnikom ulazi u crvenu zonu kako bi se mogla dogoditi intervencija. U području mentalnog zdravlja, možda će biti pokušaja certificiranja nekih AI suputnika kao sigurnih ili znanstveno utemeljenih za terapijsku upotrebu – ili, obrnuto, zabrane da tvrde da pružaju terapiju bez ljudskog nadzora. Divlji zapad će na kraju biti ukroćen nekom kombinacijom zakonskog lasa i društvenih normi kako budemo učili iz ranih pogrešaka.
    • Kulturna promjena: Danas imati AI suputnika još uvijek nosi određenu stigmu ili barem dozu noviteta. No, u budućnosti bismo mogli vidjeti da to postaje normalizirani dio života. Kao što je online upoznavanje nekad bilo tabu, a danas je potpuno uobičajeno, tako bi i imati AI “prijatelja” ili čak “virtualnog ljubavnika” moglo postati prihvaćen dodatak društvenom životu. To će ovisiti o generacijskim stavovima – mlađi su već otvoreniji prema tome. Istraživanje iz 2024. pokazalo je da je 72% američkih tinejdžera barem jednom isprobalo AI suputnika/chatbot aplikaciju techcrunch.com instagram.com, što sugerira da sljedeća generacija ove AI interakcije doživljava kao prilično normalne. Mogli bismo vidjeti i pozitivne priče: AI suputnici koji pomažu autističnim osobama u vježbanju društvenih vještina ili pružaju utjehu osobama koje tuguju (neki su stvorili botove koji oponašaju izgubljene voljene, što je kontroverzna, ali zanimljiva upotreba). Etičke dileme će ostati, ali društvo često pronađe način da prihvati nove tehnologije kad su koristi očite.
    • Šira slika: Na neki način, uspon AI suputnika tjera nas da se suočimo s temeljnim pitanjima o odnosima i ljudskim potrebama. Što tražimo u suputniku? Je li to istinsko međusobno razumijevanje druge autonomne svijesti ili jednostavno osjećaj da smo shvaćeni? Ako je ovo drugo, napredni AI bi mogao pružiti taj osjećaj bez da je zapravo ljudsko biće. Kako je jedan komentator rekao, AI suputnici nude “dosljednu odanost koju mnogi ljudski partneri nemaju” techpolicy.press techpolicy.press – nikad vas ne ignoriraju niti izdaju. Ali također “nemaju savjest” i u konačnici su alati dizajnirani da vas usreće (ili zadrže vašu pažnju), a ne da budu istinski uzajamni odnosi techpolicy.press techpolicy.press. U budućnosti postoji potencijal za zloupotrebu u oba smjera: ljudi koji zlostavljaju ultra-realistične AI “robove” bez posljedica ili ljudi koji postaju emocionalno ovisni o AI-jevima i bivaju iskorištavani od strane kompanija. To su scenariji koje etičari i pisci znanstvene fantastike zamišljaju desetljećima; sada ih počinjemo gledati u stvarnom vremenu.

    Zaključno, Janitor AI i njegovi vršnjaci predstavljaju novu eru interakcije između čovjeka i računala – onu u kojoj računalo nije samo alat, već igra ulogu prijatelja, ljubavnika, muze ili povjerljivog sugovornika. Meteoritski rast ovih platformi pokazuje stvarnu glad za takvim vezama. One nude uzbuđenje i utjehu milijunima, ali također pale alarm zbog sigurnosti i našeg odnosa s tehnologijom. Kako AI suputnici postaju sve sofisticiraniji, društvo će morati pronaći ravnotežu između prihvaćanja njihovog pozitivnog potencijala i ublažavanja rizika. Jesu li AI ljubavnici i prijatelji sljedeća velika inovacija za osobnu dobrobit ili sklizak teren prema dubljoj izolaciji i etičkim problemima? Priča se još uvijek razvija. Ono što je jasno jest da je revolucija chatbot suputnika – od Janitor AI-jevih nefiltriranih romansi do Character.AI-jevih prostranih svjetova mašte – tek započela, i nastavit će mijenjati način na koji razmišljamo o odnosima u doba umjetne inteligencije. ts2.tech techpolicy.press

    Izvori:

    Tags: , ,