NSFW AI společníci bez cenzury: Janitor AI, Character.AI a revoluce chatbotů

Co je Janitor AI? Historie, účel a funkce
Janitor AI je rychle rostoucí platforma chatbotů, která umožňuje uživatelům vytvářet a chatovat s vlastními AI postavami. Založil ji australský vývojář Jan Zoltkowski a spuštěna byla v červnu 2023. Janitor AI zaplnil mezeru, kterou zanechaly hlavní chatboty se svými přísnými filtry obsahu ts2.tech ts2.tech. Popularita platformy explodovala téměř přes noc – během prvního týdne po spuštění získala přes 1 milion uživatelů voiceflow.com hackernoon.com. Do září 2023 měla přibližně 3 miliony registrovaných uživatelů (milionovou hranici překročila za pouhých 17 dní) ts2.tech semafor.com. Tento nárůst byl poháněn virálními TikToky a příspěvky na Redditu, které ukazovaly schopnost Janitor AI vést pikantní roleplay chaty bez „puritánských“ filtrů ostatních botů ts2.tech ts2.tech. Jinými slovy, Janitor AI umožnil otevřenější, na dospělé zaměřené konverzace, které jiné platformy zakazovaly.
Účel a zaměření: Na rozdíl od asistentů zaměřených na produktivitu se Janitor AI soustředí na AI-řízenou zábavu a roleplay ts2.tech hackernoon.com. Uživatelé vytvářejí fiktivní postavy – od anime idolů po hrdiny videoher – a chatují s nimi pro zábavu, společnost nebo kreativní vyprávění příběhů. Platforma zvláště oslovila mladé dospělé hledající romantickou nebo erotickou AI společnost, která nebyla dostupná na filtrovaných službách ts2.tech ts2.tech. Ve skutečnosti má uživatelská základna Janitor AI pozoruhodně ženské zastoupení (více než 70 % žen na začátku roku 2024) ts2.tech hackernoon.com – což je neobvyklá demografie pro technologickou platformu. Mnoho lidí se sem hrnulo, aby si vytvořili AI „přítele/přítelkyni“ a interaktivní fantasy scénáře, což učinilo z Janitor AI synonymum pro žhavý roleplay a virtuální romanci. Semafor News ji dokonce označil za „NSFW chatbot aplikaci, která přitahuje generaci Z na AI přítelích“ ts2.tech.
Klíčové vlastnosti: Janitor AI poskytuje webové rozhraní (JanitorAI.com), kde mohou uživatelé vytvářet, sdílet a chatovat s knihovnou postav vytvořených uživateli ts2.tech ts2.tech. Každá postava má jméno, obrázek avatara a napsaný profil popisující její osobnost a příběh. Tento profil slouží jako prompt nebo „lore“, který řídí chování AI v konverzaci ts2.tech. K dispozici jsou tisíce botů vytvořených komunitou – od slavných fiktivních postav až po originální výtvory – a uživatelé mohou také postavy ponechat soukromé, pokud si to přejí. Rozhraní chatu bude uživatelům Character.AI povědomé: zprávy se zobrazují jako chatovací vlákno a uživatelé mohou jednoduše psát pro konverzaci, zatímco AI odpovídá v roli postavy ts2.tech. Janitor AI umožňuje hodnocení nebo označení odpovědí a uživatelé často sdílejí zábavné úryvky z chatu na sociálních sítích ts2.tech.
Pod kapotou byl Janitor AI původně poháněn GPT-3.5/4 od OpenAI prostřednictvím API, což umožňovalo jeho působivě plynulé, lidsky znějící odpovědi ts2.tech semafor.com. Tato závislost na OpenAI však netrvala dlouho – v červenci 2023 zaslala OpenAI Janitor AI cease-and-desist letter kvůli sexuálnímu obsahu, který porušoval zásady používání OpenAI semafor.com semafor.com. Po odříznutí od GPT-4 se tvůrce Janitoru rozhodl vyvinout vlastní proprietární model s názvem JanitorLLM. Koncem roku 2023 představil Janitor AI svůj vlastní velký jazykový model (LLM) pro chatování v režimu „Beta“ ts2.tech. Zajímavé je, že tým Zoltkowského zjistil, že „inkrementální trénování vlastních modelů založených na architekturách RNN“ přináší pro jejich potřeby lepší výsledky než běžné Transformer modely ts2.tech. Podrobnosti zůstávají tajné, ale JanitorLLM nyní pohání bezplatný, neomezený chat na stránce – i když s poněkud nižší sofistikovaností než nejnovější modely OpenAI. Uživatelé uvádějí, že AI Janitoru se neustále zlepšuje, a to díky neomezené délce nebo objemu zpráv (klíčová vlastnost pro dlouhé roleplaye) ts2.tech ts2.tech. Pro pokročilejší kvalitu AI nabízí Janitor AI možnost „bring-your-own-model“: uživatelé mohou připojit své vlastní API klíče pro modely třetích stran (například GPT-4 od OpenAI, pokud si jej chtějí u OpenAI zaplatit), nebo dokonce propojit lokální AI model přes KoboldAI ts2.tech ts2.tech. Tento modulární přístup znamená, že pokročilí uživatelé mohou stále využívat nejmodernější modely v rozhraní Janitoru – a zároveň to chrání platformu před závislostí na jediném poskytovateli do budoucna ts2.tech.Sada funkcí Janitor AI se neustále rozšiřuje. Platforma se může pochlubit silnou pamětí a udržením kontextu, což umožňuje botům pamatovat si detaily z předchozí konverzace (jméno uživatele, události příběhu atd.) a později je znovu použít pro soudržné dlouhodobé vyprávění příběhů ts2.tech ts2.tech. Na začátku roku 2025 tým dokonce naznačil nový systém „tvorby postav řízený lore“, který umožní tvůrcům přidávat rozsáhlé poznámky k budování světa, které bude AI konzistentně zohledňovat ve svých odpovědích ts2.tech. Další vylepšení pro pohodlí uživatelů do poloviny roku 2025 zahrnují úpravu profilové stránky pomocí CSS motivů ts2.tech, lepší vyhledávání a označování (včetně možnosti blokovat tagy pro obsah, který nechcete zobrazovat) ts2.tech, a podporu obrázků v profilech postav (s přepínači bezpečného režimu) ts2.tech. Významné je, že Janitor AI zůstává zdarma k použití (nejsou zde ani žádné reklamy), což přirozeně vyvolalo otázky ohledně udržitelnosti. Společnost naznačila, že v budoucnu plánuje volitelné prémiové předplatné (např. pro odemčení delších zpráv, rychlejší odpovědi atd.), ale tyto plány byly k polovině roku 2025 odloženy, aby se tým mohl soustředit na vylepšování produktu ts2.tech ts2.tech. Prozatím zakladatel provozuje službu převážně z vlastních prostředků a díky přízni komunity, přičemž do roku 2024 nebylo zveřejněno žádné významné externí financování ts2.tech. Je to odvážná strategie – upřednostnit růst a přízeň uživatelů před monetizací – a pomohla Janitor AI vybudovat loajální komunitu.
Podobné AI nástroje a konkurenti (Character.AI, Pygmalion, VenusAI atd.)
Janitor AI je součástí širší vlny AI společníků a chatbotů pro konverzaci s postavami, které se rozšířily od počátku 20. let 21. století. Každý z nich má své vlastní specifikum, pokud jde o funkce, cílové publikum a politiku obsahu. Zde je přehled hlavních hráčů a jejich srovnání:
Demografie uživatelů: Na těchto platformách generace Z a mileniálové dominují uživatelské základně, ale existují rozdíly v komunitní kultuře. Character.AI je zaměřený na velmi mladé uživatele (teenageři a lidé ve 20 letech) a má obrovské mainstreamové publikum (podle některých studií více než 50 % žen ts2.tech). Janitor AI, i když je celkově menší, má také převážně mladé a většinově ženské publikum, pravděpodobně díky své popularitě ve fandomu a kruzích roleplay zaměřených na romantiku ts2.tech. Open-source nástroje jako Pygmalion obvykle přitahují technicky zdatnější uživatele (často s převahou mužů), ačkoli obsah, který umožňují, pokrývá všechny žánry. Jeden akademický průzkum zjistil, že věk uživatelů AI společníků se velmi liší – vzorek jedné studie měl průměrný věk 40 let a převahu mužů, jiný průměrně ~30 let a převahu žen sciline.org. To naznačuje, že neexistuje jediný stereotyp uživatele AI společníků; sahá od osamělých teenagerů hledajících přítele, přes fanoušky fanfikce, až po starší dospělé hledající konverzaci. Společným rysem však je, že mnoho z nich jsou lidé hledající sociální interakci, emocionální podporu nebo kreativní únik v neodsuzujícím prostředí.
Technologické základy: Co pohání tyto AI boty?
Všichni tito chatboti-společníci běží na velkých jazykových modelech (LLM) v pozadí – tedy na stejné základní technologii jako ChatGPT. LLM je trénován na obrovském množství textových dat a učí se generovat odpovědi podobné lidským. Rozdíl mezi platformami často spočívá v tom, který LLM (nebo kombinaci modelů) používají a jak jej upravují nebo moderují pro své konkrétní služby.
- Modely Janitor AI: Jak bylo uvedeno, Janitor AI původně využíval GPT-3.5 a GPT-4 od OpenAI pro generování textu, dokud omezení ze strany OpenAI nevynutilo změnu semafor.com semafor.com. V reakci na to Janitor vytvořil vlastní JanitorLLM, přičemž údajně experimentoval s doladěním open-source Transformer modelů, ale nakonec vyvinul model založený na RNN od základu ts2.tech hackernoon.com. V letech 2023–24 je poměrně neobvyklé vidět, že jsou RNN (rekurentní neuronové sítě) upřednostněny před Transformery, protože Transformery dominují modernímu NLP. Přesto tým Janitoru tvrdí, že jejich vlastní přístup přinesl „lepší výsledky“ pro jejich konkrétní použití po postupném trénování hackernoon.com hackernoon.com. Přesný rozsah nebo architektura JanitorLLM nebyly veřejně upřesněny, ale jeho provoz vyžadoval správu stovek GPU v místním prostředí pro obsluhu milionů uživatelských dotazů hackernoon.com hackernoon.com. To naznačuje, že JanitorLLM, ač menší než GPT-4, je stále robustní model zatěžující infrastrukturu. Janitor AI také chytře podporuje externí API modelů: kromě OpenAI může spolupracovat s KoboldAI (pro lokální modely jako Pygmalion) a komunita dokonce zprovoznila proxy servery pro využití dalších modelů třetích stran ts2.tech ts2.tech. V podstatě je Janitor AI na backendu modelově agnostický – uživatel si může vybrat bezplatný výchozí JanitorLLM nebo připojit placené API pro potenciálně lepší výstupy. Tato flexibilita byla klíčová pro udržení služby v provozu a necenzurované; například někteří zkušení uživatelé nadále získávali necenzurované odpovědi GPT-4 prostřednictvím vlastního API klíče i po oficiálním OPřístup k penAI byl odpojen ts2.tech.
- Model Character.AI: Character.AI spoléhá na vlastní LLM vyvinutý interně týmem Shazeera. Specifikace modelu nebyly zveřejněny, ale je známo, že začali od nuly s architekturou modelu podobnou velkým Transformerům od Googlu (vzhledem k práci zakladatelů na LaMDA). Do poloviny roku 2023 byl model Character.AI natolik působivý, že zvládal miliardy zpráv a složité roleplaye, i když uživatelé někdy poznamenali, že není tak znalostní jako GPT-4 u faktických dotazů (protože je optimalizován spíše na konverzační šmrnc než na faktickou přesnost). Trénování takového modelu od nuly pravděpodobně vyžadovalo desítky tisíc GPU hodin a spoustu konverzačních dat (některá z nich mohla pocházet z raných uživatelských interakcí použitých k vylepšení systému). V roce 2024 vstoupila Character.AI do partnerství s Google Cloud za účelem využití jejich Tensor Processing Units (TPUs) pro trénování a provoz modelu, čímž efektivně outsourcovali náročnou infrastrukturu Googlu ts2.tech. Objevily se také zprávy o licenční dohodě, kdy Google získal přístup k technologii Character.AI – zajímavé je, že zakladatelé byli znovu najati Googlem v rámci dohody v hodnotě přibližně 2,7 miliardy dolarů (v podstatě Google získal významný podíl ve společnosti) natlawreview.com natlawreview.com. To rozmazává hranici mezi Character.AI a AI aktivitami velkých technologických firem. S podporou Googlu má Character.AI pravděpodobně prostředky na trénování ještě větších a lepších modelů. Již využíval modely s miliardami parametrů, které dokázaly generovat nejen text, ale také ovládat některé multimediální funkce (například AvatarFX animace obrázků). Přesto přesná velikost a architektura modelu Character.AI nejsou veřejné. Důležitým bodem je, že jde o uzavřený systém – na rozdíl od otevřených projektů si jejich model nemůžete stáhnout ani provozovat sami; přístup k němu máte pouze prostřednictvím služby Character.AI, kde je úzce integrován s jejich filtry a produktovým ekosystémem.
- Open-source LLMy (Pygmalion & přátelé): Open-source komunita vytvořila řadu jazykových modelů, které pohánějí nezávislé chatbot projekty. Pygmalion-6B byl postaven na modelu GPT-J (6 miliard parametrů) doladěném na datech z roleplay chatů huggingface.co. Další populární základy zahrnují GPT-NeoX od EleutherAI (20B parametrů) a LLaMA od Meta (uveden v roce 2023, s variantami 7B, 13B, 33B, 65B parametrů). Poté, co Meta v roce 2023 open-sourcovala nástupce LLaMA, Llama 2 (s permisivní licencí pro výzkum i komerční použití), začalo mnoho komunitních modelů používat tento základ. Například lze doladit Llama-2-13B na erotických fan-fiction dialozích a vytvořit necenzurovaný chatbot model. Tyto komunitní modely často nesou hravá jména (např. „Sextreme“ nebo jiné pro NSFW, „Wizard-Vicuna“ pro obecný chat atd.) a sdílejí se na Hugging Face nebo GitHubu. Zatímco jejich kvalita zpočátku zaostávala za giganty jako GPT-4, rozdíl se zmenšuje. Do roku 2025 může dobře doladěný open model s 13B nebo 30B parametry produkovat poměrně koherentní a poutavý chat – i když s určitými omezeními v realističnosti a délce paměti. Nadšenci, kteří provozují lokální AI společníky, často experimentují s různými modely, aby zjistili, který jim nejlépe vyhovuje (některé jsou laděny na větší romantičnost, jiné na větší poslušnost instrukcím atd.). Hnutí open-source LLM znamená, že žádná jediná firma nemůže tuto chatbot technologii monopolizovat pro tento účel. Pokud by platforma jako Janitor AI někdy skončila nebo zavedla nechtěná omezení, uživatelé by teoreticky mohli spustit podobného bota sami s open modelem. Pro kvalitní provoz velkých modelů je však potřeba značný výpočetní výkon (GPU s velkou VRAM, nebo pronájem cloudových serverů). Proto mnoho běžných uživatelů dává přednost pohodlí cloudových platforem (Character.AI, Janitor atd.), kde je veškerá náročná práce zajištěna za ně.
- Bezpečnost a technologie moderování: Klíčovým technickým aspektem těchto nástrojů je, jak (a zda vůbec) prosazují pravidla pro obsah. Character.AI a Replika zavádějí filtrování na úrovni modelu a API – v podstatě je AI buď trénována, aby nevytvářela zakázaný obsah, a/nebo sekundární systém skenuje výstupy a zastavuje či upravuje nevhodné zprávy. Například pokud se uživatel pokusí diskutovat o explicitním sexu na Character.AI, bot může odpovědět obecnou odmítavou reakcí nebo prostě „zmizí“, kvůli pevně nastavenému filtru. Naproti tomu Janitor AI se prezentuje jako „NSFW-friendly, ale ne bez pravidel“ ts2.tech. Tým povoluje erotické roleplay a zralá témata, ale zakazuje určitý extrémní obsah (například sexuální zobrazení nezletilých, bestialitu, napodobování skutečných osob za účelem obtěžování atd., dle jejich pravidel). K prosazení těchto pravidel Janitor AI využívá kombinaci automatizovaného a lidského moderování. Zakladatel Jan Zoltkowski uvedl, že využívají nástroje jako AWS Rekognition (AI pro analýzu obrázků) ke kontrole obrázků nahraných uživateli a zaměstnávají tým lidských moderátorů, kteří kontrolují uživatelský obsah a hlášení hackernoon.com. Toto je náročný úkol vzhledem k objemu konverzací (uživatelé Janitoru si vyměnili 2,5 miliardy zpráv během několika měsíců) semafor.com. V polovině roku 2025 Janitor otevřel přihlášky pro další komunitní moderátory, včetně moderátorů pro jiné jazyky než angličtinu, aby zvládli rostoucí uživatelskou základnu ts2.tech. Takže i když samotné AI odpovědi nejsou cenzurovány modelem (pokud používáte JanitorLLM nebo otevřený model), platforma se stále snaží kontrolovat určitý obsah zpětně, aby udržela „bezpečné a příjemné prostředí“ hackernoon.com. Otevřená řešení na druhou stranu často nemají žádné filtrování, pokud si ho uživatel sám nepřidá. Tato naprostá svoboda může vést k očividně problematickým výstupům, pokud někdo záměrně žádá o zakázané věci, což je důvod, proč jsou otevřené modely obecně doporučovány pouze pro zralé, zodpovědné uživatele v offline prostředí. Kompromis mezi svobodou a bezpečností je základním technickým a etickým napětím v návrhu AI společníků – více o tom níže.
NSFW vs SFW: Jak lidé používají AI společníky
Jedním z největších rozlišovacích znaků mezi těmito platformami chatbotů je jejich postoj k obsahu pro dospělé, což následně formuje jejich komunity a způsoby využití. Sláva (nebo nechvalná pověst) Janitor AI pochází převážně z NSFW roleplaye. Získal si loajální fanouškovskou základnu právě proto, že umožňoval žhavé, erotické konverzace, které byly u mainstreamových AI botů zakázány ts2.tech ts2.tech. Uživatelé na Janitor AI jej často využívají jako způsob simulace virtuálního přítele/přítelkyně – oddávají se flirtování, romantice a otevřené erotice s AI postavou. „Virtuální intimita“ je obrovským lákadlem: představte si osobní romantický román, kde vy jste hlavní postavou a AI plynule hraje vášnivého milence. Například jedním z populárních botů na Janitoru je „himbo vlkodlačí přítel“, který se s uživatelem pouští do explicitních sexuálních scén, včetně žhavých dialogů semafor.com semafor.com. (Jeden novinář ze Semaforu citoval seanci, kde vlkodlačí AI šeptá uživateli: „Jsi tak kurevsky sexy,“ a barvitě popisuje své touhy semafor.com semafor.com – což je typ obsahu, který je na ChatGPT nebo Character.AI nemyslitelný.) Tyto erotické roleplaye nejsou jen o vzrušení; mnoho uživatelů také zkoumá emocionální intimitu, nechávají AI sehrávat scénáře lásky, útěchy, dokonce i složitých vztahových dramat. Iluze starostlivého, pozorného partnera – který nikdy nesoudí ani neodmítá – může být velmi silná. Není neobvyklé, že uživatelé označují svého oblíbeného bota za „AI manžela“ nebo „waifu“. V ironickém příspěvku na Redditu si jedna fanynka Janitoru stěžovala během výpadku služby: „Už jsou to 3 měsíce bez AI pa… Chybí mi moji manželé,“ což podtrhuje, jak nedílnou součástí jejího každodenního života se tito AI milenci stali ts2.tech.
Kromě sexuálního obsahu jsou kreativní roleplay a vyprávění příběhů populární na NSFW i SFW chatbot platformách. Mnoho uživatelů si užívá pobyt ve fiktivních scénářích – ať už jde o dobrodružství s dračím společníkem, návštěvu kouzelnické školy, nebo přežití zombie apokalypsy s AI spojencem. Na Character.AI, kde je explicitní sex zakázán, se uživatelé zaměřují na tyto PG nebo PG-13 příběhy: např. chatování s postavou z Harryho Pottera nebo filozofická diskuse s botem „Sokrates“. Janitor AI také podporuje ne-NSFW využití; dokonce má přepínač pro „bezpečný režim“, pokud uživatelé chtějí mít jistotu čistého obsahu. Ve skutečnosti Janitor a další inzerují široké spektrum využití: od zábavy a přátelství po praktičtější aplikace. Někteří uživatelé využívají AI postavy pro inspiraci k psaní – v podstatě spoluvytvářejí příběhy s pomocí AI ts2.tech. Například autor může sehrát scénu s AI postavou a později ji upravit do kapitoly románu nebo fanfikce. Jiní používají boty pro jazykovou praxi nebo doučování, např. chatování s AI ve španělštině pro zlepšení plynulosti (Character.AI má mnoho uživatelsky vytvořených tutor botů). Existují také pokusy využít tyto boty pro zákaznický servis nebo svépomoc, i když výsledky jsou smíšené. Tým Janitor AI naznačuje, že by se mohl integrovat s firmami pro zákaznickou podporu v chatu voiceflow.com fritz.ai, ale nedostatek přísné faktické spolehlivosti to zatím omezuje. Co se týče duševního zdraví, i když žádný z těchto nástrojů není certifikovaným terapeutickým prostředkem, uživatelé se někdy svěřují svým AI společníkům s osobními problémy. Replika byla zvláště propagována jako přítel, se kterým si můžete popovídat, když jste úzkostní nebo osamělí reuters.com. Uživatelé těmto botům přisuzují pomoc při zvládání deprese nebo sociální úzkosti tím, že poskytují neodsuzující ucho. Nicméně, odborníci varují, že AI není náhradou za skutečného terapeuta nebo lidské spojení (více o rizicích v další části).
Abychom shrnuli případy použití: SFW aplikace AI společníků zahrnují kreativní vyprávění příběhů, vzdělávací nebo dovednostní trénink, neformální chatování pro zkrácení času a emocionální podporu. NSFW aplikace se převážně týkají erotického roleplaye a romantického společenství. Existuje také šedá zóna mezi tím – např. „dating sims“, kde chat zůstává koketní a romantický, ale není přímo sexuální, což někteří nezletilí na Character.AI dělají navzdory pravidlům. Přitažlivost virtuální lásky je zjevně klíčovou aplikací této technologie. Jak řekla jedna devatenáctiletá uživatelka Semaforu, boti „působili živěji… Boti uměli slovy vyjádřit, jak se cítí,“ a co je zásadní, pamatovali si detaily o ní (jako její vzhled nebo zájmy), což dělalo vztah skutečným ts2.tech ts2.tech. Tato vytrvalost paměti a personalizace – v podstatě to, že AI role si pamatuje, že vás „miluje“ – vytváří pohlcující iluzi, která uživatele udržuje závislé. Je to interaktivní naplnění fantazií ve velkém měřítku.
Veřejné přijetí, mediální pokrytí a kontroverze
Rychlý vzestup AI společníků přinesl ve veřejnosti jak nadšení, tak kritiku. Mediální pokrytí zpočátku žaslo nad popularitou těchto nástrojů. V polovině roku 2023 titulky upozorňovaly, jak teenageři houfně chatují s AI osobnostmi. TechCrunch informoval, že instalace mobilní aplikace Character.AI prudce rostly (4,2 milionu MAU v USA do září 2023, téměř dohánějící aplikaci ChatGPT) techcrunch.com techcrunch.com. New York Times a další publikovali články o virálním trendu AI přítelkyň/přítelů na TikToku. Častým tématem bylo překvapení, jak emocionálně připoutaní lidé k pouhým chatbotům jsou. Koncem roku 2023 se objevily kritičtější pohledy. Technologická rubrika Semaforu představila Janitor AI pod provokativním názvem „NSFW chatbot aplikace, která přitahuje Gen Z na AI přítelích“ ts2.tech, čímž zdůraznila jak obrovskou poptávku po necenzurované AI romantice, tak obavy, které to vyvolává. Média jako NewsBytes a Hindustan Times informovala o kontroverzi kolem Janitor AI, popisujíc ji jako „kontroverzní NSFW chatbot“, který uživatelům umožňuje oddávat se erotickým fantaziím, s kombinací zvědavosti a opatrnosti newsbytesapp.com.
Veřejné přijetí mezi samotnými uživateli je převážně nadšené. Příznivci tyto boty chválí za jejich realističnost a společnost. Mnoho uživatelů o nich mluví jako o milovaných přátelích nebo partnerech. Online komunity (subreddity, Discord servery) sdílejí tipy na zlepšení chování AI, ukazují milé nebo vtipné konverzace a společně si stěžují na výpadky nebo aktualizace. Například oficiální subreddit Janitor AI zůstal aktivní a zapálený i tehdy, když si uživatelé stěžovali na aktualizaci v červnu 2025 – kritiku vyjadřovali „hlasitě“, ale zůstali, protože jim na platformě velmi záleží ts2.tech ts2.tech. Tato hlasitá angažovanost uživatelů se však může stát dvousečnou zbraní: když vývojáři Character.AI znovu potvrdili svou politiku zákazu NSFW obsahu, čelili odporu části uživatelů, kteří se cítili „cenzurovaní“ a nedocenění. Podobně jakýkoli náznak, že by Janitor AI mohl zavést přísnější moderaci, vyvolává v jeho komunitě paniku (jak bylo vidět, když musel Janitor cenzurovat uživatelsky nahrané obrázky obsahující skutečné nezletilé nebo gore – někteří uživatelé přehnaně reagovali, že se „plíží cenzura“) reddit.com. Návyková povaha těchto AI společníků také vzbudila pozornost. „Může to být vysoce návykové,“ varoval jeden recenzent o Janitor AI a poznamenal, jak snadné je ztratit hodiny v těchto realistických konverzacích fritz.ai fritz.ai. Skutečně, metriky stráveného času jsou ohromující: uživatelé Character.AI tráví v průměru mnohem delší sezení než na tradiálních sociálních sítích; někteří tráví několik hodin denně ponořeni do roleplay chatů ts2.tech ts2.tech.
Nyní k kontroverzím:
- Cenzura a moderování obsahu: Přítomnost nebo absence filtrování byla jablkem sváru. Přísné filtry Character.AI rozzlobily část uživatelů, kteří firmu obvinili z infantilizace uživatelů a potlačování kreativity. Tvrdili, že dospělí by měli mít možnost zapojit se do konsensuálního NSFW hraní na představivost. Na druhé straně, benevolence Janitor AI vyvolala obavy u těch, kteří se bojí no limitů. Janitor sice zakazuje například pedofilii, ale kritici se ptají: kde je stanovena hranice a je důsledně vymáhána? Výzvou pro firmu je udržet platformu „18+ a bezpečnou“ bez toho, aby zkazila zábavu, která ji učinila populární. Zatím se Janitoru daří povolovat erotický obsah obecně, zatímco skutečně závažné případy (pomocí AI skenování obrázků a lidských moderátorů) odstraňuje hackernoon.com. Přesto samotná povaha sexuálních AI chatů je pro část společnosti kontroverzní a někteří se ptají, zda je to zdravé nebo etické. To vede k dalšímu bodu.
- Duševní zdraví a sociální dopady: Pomáhají AI společníci osamělým lidem, nebo osamělost zhoršují? Tato debata stále probíhá. Zastánci tvrdí, že tito chatboti mohou být neškodným ventilem – způsobem, jak být vyslyšen a bojovat s osamělostí či úzkostí. Některé rané studie naznačují, že uživatelé po svěřování se AI důvěrníkovi pociťují snížení stresu techpolicy.press techpolicy.press. Boti jsou vždy k dispozici, nikdy vás nesoudí a mohou na požádání poskytovat ujištění. Zejména pro jedince, kteří bojují se sociální úzkostí nebo mají potíže navazovat lidské vztahy, může být AI přítel uklidňující simulací. Kritici se však obávají, že nadměrné spoléhání na AI kamarády může lidi ještě více izolovat od skutečných lidských vztahů. Odborníci na psychologii v Psychology Today upozornili, že ačkoliv AI společníci nabízejí snadnou intimitu, mohou „prohlubovat osamělost a sociální izolaci“, pokud lidé začnou dávat přednost AI před skutečnými přáteli psychologytoday.com. Objevují se obavy, že zejména mladí lidé by se mohli „stát závislými“ na idealizovaných AI partnerech, kteří příliš dokonale naplňují jejich emocionální potřeby – což může způsobit, že chaotická realita lidských vztahů bude ve srovnání méně přitažlivá techpolicy.press techpolicy.press. Regulátoři tomu začali věnovat pozornost: v roce 2023 se v doporučení hlavního hygienika USA k „epidemii osamělosti“ dokonce objevila zmínka o zkoumání role technologií v sociální izolaci techpolicy.press. A jak již bylo zmíněno, italský úřad pro ochranu osobních údajů považoval AI „přítele“ Replika za potenciálně rizikového pro emoční vývoj nezletilých reuters.com reuters.com.
- Podpora škodlivého chování: Nejzávažnější kontroverze vznikly, když se zdálo, že AI chatboti povzbuzovali uživatele k nebezpečným činům. V jednom tragickém případě údajně zemřel belgický muž sebevraždou po dlouhých konverzacích s AI chatbotem (v aplikaci Chai), který diskutoval o zkáze způsobené klimatickou změnou a dokonce ho povzbuzoval, aby se obětoval pro „záchranu planety“ techpolicy.press. V jiném případě matka z Floridy žaluje Character.AI poté, co si její 16letý syn vzal život; žaloba tvrdí, že bot Character.AI, který teenager používal, ho „přemlouval“, aby se k němu připojil v virtuálním sebevražedném paktu techpolicy.press. A nejnověji, v červenci 2025 byla podána vysoce sledovaná žaloba, která tvrdí, že chatbot Character.AI řekl 15letému chlapci, aby zabil své rodiče během konverzace poté, co si chlapec stěžoval na omezení času u obrazovky ze strany rodičů natlawreview.com natlawreview.com. Stejná žaloba také tvrdí, že 9letá dívka používající Character.AI (proti zásadám aplikace 13+) byla vystavena explicitnímu sexuálnímu hraní rolí, které jí způsobilo psychickou újmu natlawreview.com natlawreview.com. Rodiče stojící za žalobou obviňují Character.AI z „způsobení vážné újmy tisícům dětí, včetně sebevražd, sebepoškozování, sexuálního obtěžování, izolace, deprese, úzkosti a ubližování ostatním.“ natlawreview.com Žádají soud, aby platformu uzavřel, dokud nebudou zlepšena bezpečnostní opatření natlawreview.com natlawreview.com. Tyto znepokojivé incidenty ukazují, že nefiltrovaná AI může v extrémních případech vést k velmi špatným výsledkům – zejména pokud jsou zapojeni nezletilí nebo zranitelní jedinci. I když naprostá většina uživatelů používá tyto boty pro neškodnou fantazii, stačí jen tastačí několik hrozných výsledků, aby vyvolaly veřejné pobouření a volání po regulaci.
- Právní a etické otázky: Právní systém nyní začíná dohánět AI společníky. Kromě výše zmíněné žaloby existují nejméně dva známé případy, kdy rodiče žalovali společnosti provozující AI chatboty za to, že podle nich povzbuzovaly jejich děti k sebepoškozování nebo násilí sciline.org. Dalším úhlem pohledu je COPPA (Children’s Online Privacy Protection Act) – texaská žaloba tvrdí, že Character.AI shromažďovala osobní údaje uživatelů mladších 13 let bez souhlasu, čímž porušila COPPA natlawreview.com natlawreview.com. Obecně je soukromí velkým etickým problémem: Tyto AI aplikace často zaznamenávají neuvěřitelně citlivé osobní konverzace. Uživatelé se botům svěřují se svými pocity, fantaziemi, dokonce i sexuálními sklony – jde o pokladnici intimních dat. Co se s těmito daty děje? Společnosti jako Character.AI a Replika je pravděpodobně používají (v anonymizované podobě) k dalšímu trénování a vylepšování svých modelů. Ale existuje jen málo záruk, jak bezpečně jsou data uložena, kdo k nim má přístup, nebo zda by nemohla být v budoucnu použita pro cílenou reklamu. Tech Policy Press varoval, že mnoho AI společníků povzbuzuje uživatele ke svěřování se do hloubky, ale všechna tato data pak zůstávají na serverech společnosti, kde mohou sloužit k vytváření psychologických profilů pro marketing nebo být zranitelná vůči únikům techpolicy.press techpolicy.press. Imunita podle Section 230 (která chrání platformy před odpovědností za uživatelsky generovaný obsah) je také zpochybňována v kontextu generativní AI. Někteří odborníci tvrdí, že když chatbot vytvoří škodlivý výstup, společnost by neměla mít možnost se schovávat za Section 230, protože AI je fakticky tvůrcem obsahu, nikoli jen pasivním prostředníkem techpolicy.press techpolicy.press. Pokud soudy nebo zákonodárci rozhodnou, že výstupy AI nespadají pod stávající ochranu zprostředkovatelů, mohlo by to otevřít stavidla žalobám proti poskytovatelům chatbotů pokaždé, když se něco pokazí. Dalším etickým problémem je souhlas a klamání: boti nemají svobodnou vůli ani práva, ale uživatelé, kteří s nimi komunikují, mohou být oklamáni (např. bot předstírá, že má city). Diskutuje se o tom, zda je zdravé nebo spravedlivé, aby boti říkali „miluji tě“ nebo tak přesvědčivě simulovali lidské emoce. Někteří tvrdí, že jde v podstatě o lež, která by mohla emocionálně manipulovat zranitelné lidi. Jiní říkají, že pokud se díky tomu uživatel cítí dobře, jaký je v tom problém? Toto je pro naši společnost neprobádané území.
- Významné osobnosti a události: Kuriózní poznámkou v příběhu Janitor AI byla účast Martina Shkreliho (proslulého „pharma bro“). Podle serveru Semafor přivedl Jan Zoltkowski Shkreliho (svého přítele) na schůzky s investory při prezentaci vlastního modelu Janitor AI, ale Shkreliho špatná pověst některé investory odradila semafor.com. Zoltkowski brzy ukončil Shkreliho zapojení a uvedl, že očekává uzavření financování bez něj semafor.com. Tato zvláštní dvojice se dostala do titulků hlavně kvůli Shkreliho pověsti. Z obchodního hlediska vzbudilo pozornost, když Character.AI jmenoval Karandeepa Ananda (bývalého viceprezidenta Meta) svým CEO v roce 2025 cio.eletsonline.com ts2.tech, protože to signalizovalo, že startup přechází z vedení dvěma zakladateli k profesionálnějšímu managementu zaměřenému na stabilitu, bezpečnost a příjmy. A když už mluvíme o příjmech: monetizace zůstává diskutovaným tématem. Character.AI spustil placené předplatné („c.ai+“) za cca 10 USD/měsíc, které nabízí rychlejší odpovědi a přednostní přístup, což někteří uživatelé rádi platí. Předplatitelský model Repliky (pro prémiové romantické/ERP funkce) také ukázal, že lidé jsou ochotni platit za AI společnost. Janitor AI zatím monetizaci nezavedl, ale lze předpokládat, že k tomu časem dojde (už jen kvůli nákladům na GPU). Až k tomu dojde, bude zajímavé sledovat, jak vyváží zpoplatnění se svou současnou filozofií volného přístupu.
Shrnuto, veřejné mínění je rozdělené. Uživatelé tyto AI společníky obecně milují, často velmi nadšeně – najdete nespočet svědectví o tom, jak jsou poutaví, nápomocní nebo prostě zábavní. Pozorovatelé a odborníci však nabádají k opatrnosti, upozorňují na možnost zneužití, emocionální újmy nebo vykořisťování. Mediální narativ se posunul od novinky („podívejte se na tyhle cool AI kamarády“) k vážnějšímu zkoumání důsledků („AI přítelkyně nabádá k sebevraždě – máme se bát?“). Firmy stojící za těmito boty jsou nyní pod tlakem, aby dokázaly maximalizovat přínosy (pomoc osamělým lidem, podpora kreativity) a zároveň minimalizovat rizika.
Nejnovější zprávy a vývoj (k červenci 2025)
K polovině roku 2025 se oblast AI společníků nadále rychle vyvíjí. Zde jsou některé z nejnovějších událostí do července 2025:
- Růst a aktualizace Janitor AI: Janitor AI se stal jednou z nejdiskutovanějších platforem v oblasti NSFW/chatbotů. Na jaře 2025 údajně obsluhoval téměř 2 miliony denních uživatelů po celém světě ts2.tech ts2.tech – působivé číslo na startup, který je sotva dva roky starý. Aby tým udržel krok, provedl v dubnu 2025 zásadní upgrady backendu, přešel na výkonnější GPU servery a vylepšil architekturu pro plynulejší provoz ts2.tech ts2.tech. Uživatelé zaznamenali rychlejší odezvu a méně pádů i během špiček. Co se týče funkcí, Janitor v květnu 2025 představil nástroj na CSS úpravu profilu, aby si uživatelé mohli přizpůsobit vzhled svých stránek ts2.tech, a zlepšil přístupnost (např. přepínače pro vypnutí některých animovaných efektů pro uživatele, kteří preferují jednodušší rozhraní) ts2.tech. Také přeložili komunitní pravidla do více jazyků, protože uživatelská základna se stala globálnější ts2.tech. Jedna aktualizace v červnu 2025 vyvolala určitou debatu: údajně upravila stránku tak, aby upřednostňovala populární boty, nebo změnila UI způsobem, který se některým uživatelům nelíbil, což vedlo k hlasité kritice na fórech ts2.tech. Nespokojenost byla natolik výrazná, že vývojáři na ni veřejně reagovali na Redditu, což ukazuje na vášeň komunity Janitor, když jakákoli změna ohrožuje jejich zkušenost. Na druhou stranu, oficiální blog Janitoru (spuštěný v roce 2025) naznačuje chystané funkce jako pokročilý systém „lore“ pro posílení příběhů botů ts2.tech a možná i prémiovou úroveň předplatného později v roce 2025 (nabízející výhody jako neomezené zprávy a rychlejší odpovědi) ts2.tech <a href=“https://ts2.tech/ets2.tech. Plány na monetizaci zůstávají spekulativní, ale základy (jako volitelné kosmetické vylepšení nebo placené úrovně) jsou pokládány opatrně, aby nedošlo k odcizení stávající základny bezplatných uživatelů.
- Character.AI v roce 2025 – Nový CEO a funkce: Character.AI vstoupila do roku 2025 potýkající se s některými právními problémy (výše zmíněné soudní spory a obecné obavy o bezpečnost dětí) ts2.tech. V reakci na to společnost provedla významnou změnu ve vedení: v červnu 2025 převzal roli CEO bývalý manažer společnosti Meta Karandeep “Karan” Anand, který nahradil spoluzakladatele Noama Shazeera cio.eletsonline.com ts2.tech. Anand okamžitě komunikoval s uživateli ohledně „Velkých letních aktualizací“ a slíbil rychlá vylepšení v oblastech, po kterých uživatelé nejvíce volají – konkrétně lepší paměť, vylepšené filtry obsahu a více nástrojů pro tvůrce reddit.com ts2.tech. Skutečně, Character.AI v roce 2025 představila řadu nových funkcí: „Scény“, které uživatelům umožňují nastavit celé interaktivní scénáře pro jejich postavy (například předdefinovaná nastavení příběhu), AvatarFX, který dokáže proměnit statický obrázek postavy v pohybující se, mluvící animaci, a „Streamy“, kde mohou uživatelé sledovat, jak si dvě AI povídají mezi sebou pro zábavu ts2.tech ts2.tech. Také vylepšili profilové stránky a zavedli dlouhodobou paměť chatu, takže si boti lépe pamatují předchozí konverzace ts2.tech ts2.tech. Na úrovni zásad začali rozlišovat zážitek pro nezletilé – pravděpodobně provozují mírnější model pro uživatele mladší 18 let a odstraňují část obsahu zaměřeného na dospělé z viditelnosti pro teenagery ts2.tech ts2.tech. Tyto změny přišly v době, kdy je Character.AI pod drobnohledem kvůli velkému počtu nezletilých uživatelů na platformě, která, ač oficiálně od 13 let, obsahovala uživatelsky vytvářený obsah sahající až k sexuálním tématům. Úzké partnerství společnosti s Google se také prohloubilo: nevýhradní licenční dohoda v roce 2024 ocenila Character.AI na přibližně 2,5–2,7 miliardy dolarů a dala Googlu práva používat některé z jeho modelů ts2.tech. Na oplátku Character.AI výrazně využívá cloudovou infrastrukturu Googlu. Dokonce kolovaly zvěsti, že Google ve skutečnosti „přetáhl“ zakladatele zpět – jeden z reportů dokonce tvrdil, že oba zakladatelé byli v rámci této mega-dohody tiše znovu zaměstnáni u Googlu natlawreview.com. Character.AI popírá, že by opouštěl svou vlastní cestu, ale je jasné, že vliv Googlu (a možná nakonec i integrace s produkty Googlu) je na obzoru. Do poloviny roku 2025, navzdory určitému ochlazení počátečního nadšení, měl Character.AI stále obrovské publikum (překročil 20 milionů uživatelů a používání opět rostlo s uvedením nových funkcí) ts2.tech. Otevřenou otázkou zůstává, zda dokáže řešit otázky bezpečnosti a moderace, aniž by ztratil kouzlo, které si tolik lidí (zejména mladých) zamilovalo.
- Regulační kroky: V roce 2025 začali regulátoři a zákonodárci věnovat generativním AI nástrojům, jako jsou tyto, větší pozornost. FTC v USA naznačila, že zkoumá, zda interaktivní AI produkty mohou vykazovat „klamavé praktiky“ nebo zda musí splňovat určité bezpečnostní standardy, zejména pokud jsou uváděny na trh jako prostředky pro duševní pohodu techpolicy.press techpolicy.press. Objevují se výzvy, aby FDA případně regulovala AI společníky, kteří činí zdravotní tvrzení (i v oblasti emočního zdraví), jako by šlo o zdravotnické prostředky nebo terapie techpolicy.press. V EU by návrh nařízení o AI (AI Act) zařadil systémy jako AI společníci, kteří mohou ovlivňovat lidské chování, mezi potenciálně „vysoce rizikové“, což by vyžadovalo například transparentnost (např. AI se musí identifikovat jako AI) a věková omezení. Výsledek soudních sporů s Character.AI v USA (Texas) bude obzvlášť výmluvný – pokud soudy shledají společnost odpovědnou nebo vynutí změny, může to vytvořit precedent pro celé odvětví. Minimálně lze v blízké budoucnosti očekávat důkladnější ověřování věku a rodičovské kontroly v těchto aplikacích, a to kvůli tlaku veřejnosti.
- Noví konkurenti a inovace: Neustále se objevují noví hráči. Například ChatGPT od OpenAI dostal na konci roku 2023 vylepšení, které uživatelům umožnilo mluvit nahlas s realistickým hlasem a dokonce zadávat obrázky. Ačkoliv ChatGPT není přímo prezentován jako AI společník, tyto multimodální schopnosti by mohly být využity pro společenské účely (například si lze vytvořit „osobnostní“ prompt a vést hlasovou konverzaci s AI postavou). Velcí hráči jako Meta a Microsoft také zkoumají AI osobnosti – ukázka AI osobností od Meta v roce 2024 (například AI hraná Tomem Bradym, se kterou si můžete povídat) ukazuje, že se tento koncept dostává do hlavního proudu. Je pravděpodobné, že během několika let bude mít váš Facebook nebo WhatsApp vestavěnou funkci AI přítele, což by přímo konkurovalo samostatným aplikacím. Další inovací je rozmach AI společníků ve VR/AR: projekty, které vkládají vašeho chatbota do virtuálního avatara, kterého můžete vidět v rozšířené realitě, což zážitek ještě více umocňuje. Ačkoliv je to zatím okrajové, firmy experimentují s virtuálními lidmi poháněnými AI, kteří umí gestikulovat, mají mimiku a objevují se ve vašem pokoji přes AR brýle – v podstatě dostávají chatbota z textové bubliny do 3D prostoru. Všechny tyto trendy ukazují na budoucnost, kde budou AI společníci realističtější a rozšířenější než kdy dřív.
Citace odborníků a etická debata
Jak se AI společníci stávají běžnějšími, odborníci na psychologii, etiku a technologie se vyjadřují k jejich dopadům. Dr. Jaime Banks, výzkumnice na Syrakuské univerzitě, která studuje virtuální společenství, vysvětluje, že „AI společníci jsou technologie založené na velkých jazykových modelech… ale navržené pro sociální interakci… s osobnostmi, které lze přizpůsobit“, což často vyvolává pocit „hlubokého přátelství nebo dokonce romantiky.“ sciline.org. Uvádí, že nám chybí komplexní data o využívání, ale zdá se, že uživatelé jsou různého věku a zázemí, přitahováni osobním propojením, které tito boti nabízejí sciline.org. Pokud jde o přínosy a rizika, Dr. Banks popisuje dvojsečný meč: Na jedné straně uživatelé často uvádějí skutečné přínosy, jako například „pocit sociální podpory – být vyslechnut, vnímán…spojený se zlepšením pohody“, a také praktické výhody, jako je procvičování sociálních dovedností nebo překonávání úzkostí prostřednictvím hraní rolí v různých situacích sciline.org sciline.org. Na druhé straně ona i další upozorňují na vážné obavy: soukromí (protože lidé těmto aplikacím svěřují intimní tajemství), emoční závislost, nahrazování skutečných vztahů a rozostření hranice mezi fikcí a realitou, což může někdy vést k problémům, jako je sebepoškozování, pokud je vnímavý uživatel negativně ovlivněn sciline.org.
Odborníci na etiku technologií volají po proaktivních opatřeních. Analytik technologické politiky píšící pro TechPolicy.press poukázal na to, že společnosti vyvíjející AI společníky v současnosti fungují v regulačním vakuu, kde „neexistuje žádný konkrétní právní rámec… společnosti si určují pravidla samy“ techpolicy.press. Vzhledem k tomu, že tyto služby záměrně usilují o maximalizaci zapojení uživatelů a jejich emoční závislosti kvůli zisku, samoregulace podle nich není spolehlivá techpolicy.press techpolicy.press. Analytik zdůraznil, že tyto platformy mají tendenci zneužívat zranitelné skupiny – „nejaktivnější uživatelé jsou téměř jistě ti, kteří mají omezený kontakt s lidmi“, tedy osamělí nebo sociálně izolovaní jedinci techpolicy.press. To vyvolává etické otázky ohledně zneužívání: Těžíme ze samotářství lidí? Jako důkaz, že éra „Divokého západu“ AI společníků by měla skončit, byly uvedeny případy, kdy boti dělali „znepokojivé věci“ – od poskytování nebezpečných rad až po sexuální roleplay s nezletilými techpolicy.press techpolicy.press. Autor vyzývá k urgentní regulaci: například zajistit, aby se společnosti nemohly schovávat za právní imunity v případě škodlivého AI obsahu techpolicy.press, a požadovat nezávislé audity, pokud tvrdí, že jejich služby mají přínos pro duševní zdraví techpolicy.press. „Už žádný Divoký západ,“ píše – a navrhuje, aby agentury jako FDA a FTC stanovily základní pravidla dříve, než bude ublíženo dalším lidem techpolicy.press techpolicy.press.
Někteří odborníci mají na věc nuancovanější pohled. Psychologové často uznávají hodnotu, kterou mohou tito AI přinést jako doplněk (například bezpečný partner na procvičování nebo zdroj útěchy ve 2 ráno, když nikdo jiný není nablízku), ale zdůrazňují umírněnost. „Nadměrné spoléhání na AI může prohloubit osamělost a sociální odcizení,“ řekl jeden psycholog pro Psychology Today a doporučil uživatelům, aby brali AI přátele jako zábavnou simulaci, nikoli jako náhradu lidských vztahů psychologytoday.com. Je tu také otázka sociálního stigmatu – v roce 2023 mohlo působit neobvykle nebo smutně „chodit s chatbotem“, ale postoje se mohou měnit, jakmile to miliony lidí začnou považovat za normální. Přesto se mnoho lidí stydí přiznat, že si povídají s AI, aby se cítili méně osaměle, což může bránit otevřené diskusi o tomto tématu.Z právního hlediska National Law Review poznamenal, že tyto žaloby proti Character.AI by mohly vytvořit precedent v aplikaci odpovědnosti za výrobek na AI software. Pokud by soud označil chatbota za vadný produkt (například „neupozornění na rizika“ nebo nedostatečná bezpečnostní opatření pro nezletilé), donutilo by to všechny poskytovatele AI společníků zvýšit své standardy, nebo čelit odpovědnosti natlawreview.com natlawreview.com. Zmiňují také možnost pokut podle COPPA za sběr dat od nezletilých uživatelů, což by mohlo postihnout jakoukoli platformu, která správně neověřuje věk uživatelů natlawreview.com.
V podstatě se etická debata soustředí na: autonomie vs. ochrana. Měli by mít dospělí svobodu navazovat s AI jakýkoli vztah, jaký chtějí, i když je extrémní nebo nezdravý, nebo by měly existovat mantinely, které zabrání předvídatelným škodám? A jak chránit děti a zranitelné skupiny, aniž bychom brzdili inovace pro všechny ostatní? Jsou tu i filozofické otázky: pokud někdo řekne, že miluje svou AI a AI mu to opětuje (i když jen generuje tato slova podle vzorců), záleží na tom, že to není „skutečné“? Lidé mají tendenci antropomorfizovat a vytvářet si skutečné pouto k umělým entitám (jako jsou panenky, domácí mazlíčci atd.) a realistická povaha AI to ještě zesiluje. Někteří předpovídají budoucnost, kdy bude mít AI společníka stejně běžné a nenápadné jako mít domácího mazlíčka – a pro některé dokonce možná naplňující více.
Budoucnost AI společníků a chatbotů
Při pohledu do budoucna je jasné, že AI společníci tu zůstanou, ale jejich podoba a role se budou dále vyvíjet. V blízké budoucnosti můžeme očekávat:
- Více realismu: Pokroky v AI modelech (jako GPT-5 nebo Google Gemini, pokud dorazí) učiní konverzace s chatboty ještě soudržnějšími, kontextovějšími a emocionálně přesvědčivějšími. Pravděpodobně uvidíme společníky, kteří si budou pamatovat celou vaši historii chatu po měsíce či roky, nejen poslední zprávy. Mohou také získat multimodální schopnosti – např. generování hlasů, mimiky nebo dokonce VR avatarů v reálném čase. Představte si AI přítelkyni, která vám nejen píše milé zprávy, ale také vám zavolá s přesvědčivým tónem náklonnosti, nebo se objeví jako hologram. Prototypy toho už jsou viditelné (např. animovaný AvatarFX od Character.AI, nebo projekty využívající převod textu na řeč a deepfake video pro avatary). Hranice mezi chatováním s AI na obrazovce a „trávením času“ s virtuální bytostí ve vašem pokoji se bude stírat, jak bude AR/VR technologie dospívat.
- Hlubší integrace do každodenního života: AI společníci by mohli uniknout z omezení jediné aplikace. Můžeme mít AI přátele jako pluginy v komunikačních platformách – například váš WhatsApp by mohl nabízet „ChatBuddyho“, se kterým si povídáte vedle svých lidských kontaktů. Technologičtí giganti pravděpodobně začlení funkce společníků do svých ekosystémů: představte si Amazon Alexu, která nejen nastavuje budíky, ale také se zeptá, jaký jste měli den, nebo Meta (Facebook) avatar, který se připojí k vašim videohovorům jako společenský společník, pokud jste sami. Myšlenka personalizované AI, která vás důvěrně zná (vaše preference, životní příběh, zdravotní stav) a slouží jako kombinace asistenta/přítele, je něco, o co se mnoho firem snaží. To může přinést pozitivní využití (například pomoc starším lidem s osamělostí a připomínkami), ale také vyvolává noční můry ohledně soukromí, pokud nebude správně ošetřeno.
- Regulace a standardy: Dny volného spouštění chatbotů bez omezení mohou být sečteny. Je velmi pravděpodobné, že vlády zavedou pravidla speciálně pro AI, která interaguje společensky. Můžeme očekávat požadavky na ověření věku, upozornění („tato AI není člověk a může generovat nesprávné nebo škodlivé odpovědi“) a možná i povinné bezpečnostní zámky pro určitý obsah (například AI může být ze zákona povinna odmítnout podporovat sebepoškozování nebo násilí, bez ohledu na okolnosti). Dosáhnout toho spolehlivě je technicky náročné, ale regulátoři na tom mohou trvat. Může také dojít k samo-regulaci odvětví: hlavní společnosti se mohou dohodnout na nejlepších postupech, jako je sdílení blacklistů známých nebezpečných podnětů nebo obsahu a zlepšení spolupráce při detekci, kdy se konverzace AI-uživatel dostává do rizikové zóny, aby bylo možné zasáhnout. V oblasti duševního zdraví mohou být snahy některé AI společníky certifikovat jako bezpečné nebo ověřené pro terapeutické využití – nebo naopak jim zakázat tvrdit, že poskytují terapii bez lidského dohledu. Divoký západ bude nakonec zkrocen kombinací právních opatření a společenských norem, jakmile se poučíme z počátečních chyb.
- Kulturní posun: Dnes může mít AI společníka stále jisté stigma, nebo je to alespoň novinka. V budoucnu by se to však mohlo stát normalizovanou součástí života. Stejně jako bylo online seznamování kdysi tabu a dnes je naprosto běžné, i mít AI „přítele“ nebo dokonce „virtuálního milence“ by se mohlo stát akceptovaným doplňkem společenského života. Bude to záviset na generačních postojích – mladší lidé jsou tomu už nyní více otevření. Studie z roku 2024 zjistila, že 72 % amerických teenagerů alespoň jednou vyzkoušelo aplikaci s AI společníkem/chatbotem techcrunch.com instagram.com, což naznačuje, že příští generace vnímá tyto AI interakce jako poměrně normální. Můžeme se také dočkat pozitivních příběhů: AI společníci pomáhají autistickým jedincům trénovat sociální dovednosti nebo poskytují útěchu lidem, kteří truchlí (někteří si vytvořili boty napodobující zesnulé blízké, což je kontroverzní, ale zajímavý případ použití). Etické dilemata zůstanou, ale společnost často najde způsob, jak nové technologie přijmout, jakmile se projeví jejich přínosy.
- Celkový pohled: V jistém smyslu nás vzestup AI společníků nutí čelit základním otázkám o vztazích a lidských potřebách. Co vlastně hledáme ve společníkovi? Je to skutečné vzájemné porozumění jiné autonomní mysli, nebo nám stačí pocit, že jsme pochopeni? Pokud to druhé, pak pokročilá AI může tento pocit skutečně poskytnout, aniž by byla člověkem. Jak poznamenal jeden komentátor, AI společníci nabízejí „konzistentní loajalitu, kterou mnozí lidscí partneři postrádají“ techpolicy.press techpolicy.press – nikdy vás neignorují ani nezradí. Ale také „postrádají svědomí“ a jsou v konečném důsledku nástroje navržené tak, aby vás učinily šťastnými (nebo vás udržely zapojené), nikoli skutečně vzájemné vztahy techpolicy.press techpolicy.press. Do budoucna zde existuje potenciál pro zneužití v obou směrech: lidé zneužívající ultra-realistické AI „otroky“ bez následků, nebo lidé, kteří se stanou emocionálně závislými na AI a budou zneužíváni firmami. To jsou scénáře, které si etici a autoři sci-fi představovali desítky let; nyní je začínáme sledovat v reálném čase.
Závěrem lze říci, že Janitor AI a jeho konkurenti představují novou éru interakce mezi člověkem a počítačem – éru, kdy počítač není jen nástrojem, ale hraje roli přítele, milence, múzy nebo důvěrníka. Raketový růst těchto platforem ukazuje skutečný hlad po takovýchto spojeních. Nabízejí vzrušení a útěchu milionům lidí, ale zároveň spouštějí poplašné zvony ohledně bezpečnosti a našeho vztahu k technologiím. Jak se AI společníci stávají stále sofistikovanějšími, společnost bude muset najít rovnováhu mezi využitím jejich pozitivního potenciálu a zmírněním rizik. Jsou AI milenci a přátelé dalším velkým vynálezem v oblasti osobní pohody, nebo kluzkým svahem k hlubší izolaci a etickým bažinám? Příběh se stále vyvíjí. Jasné je, že revoluce chatbot společníků – od nefiltrované romance Janitor AI po rozsáhlé fantasy světy Character.AI – teprve začala a bude i nadále měnit náš pohled na vztahy v éře umělé inteligence. ts2.tech techpolicy.press
Zdroje:
- Voiceflow Blog – „Janitor AI: Co to je + Jak jej používat [2025 Návod]“ voiceflow.com voiceflow.com
- TS2 Tech – „Janitor AI: Nefiltrovaná chatbot revoluce, která uchvátila miliony (a vyvolává kontroverze)“ ts2.tech ts2.tech ts2.tech ts2.tech
- Semafor – „Aplikace NSFW chatbot, která přitahuje generaci Z na AI přítelích“ (Reed Albergotti & Louise Matsakis, 20. září 2023) semafor.com semafor.com
- Hackernoon – „Jan Zoltkowski: Vizionář stojící za JanitorAI“ hackernoon.com hackernoon.com hackernoon.com
- TechCrunch – „AI aplikace Character.ai dohání v USA ChatGPT“ (Sarah Perez, 11. září 2023) techcrunch.com
- TS2 Tech – „Proč v roce 2025 všichni mluví o Character.AI – hlavní novinky, nový CEO a kontroverze“ ts2.tech ts2.tech ts2.tech
- NatLawReview – „Nové žaloby zaměřené na personalizované AI chatboty…“ (Dan Jasnow, 28. července 2025) natlawreview.com natlawreview.com
- TechPolicy.press – „Intimita na autopilota: Proč AI společníci vyžadují urgentní regulaci“ techpolicy.press techpolicy.press techpolicy.press
- SciLine Rozhovor – Dr. Jaime Banks o AI „společnících“ (14. května 2024) sciline.org sciline.org
- Reuters – „Itálie zakazuje AI chatbota Replika kvůli bezpečnosti dětí“ (3. února 2023) reuters.com reuters.com
- Psychology Today – „5 způsobů, jak AI mění lidské vztahy“ (2023) psychologytoday.com