Nieocenzurowani towarzysze AI NSFW: Janitor AI, Character.AI i rewolucja chatbotów

Czym jest Janitor AI? Historia, cel i funkcje
Janitor AI to szybko rozwijająca się platforma chatbotów, która pozwala użytkownikom tworzyć i rozmawiać z własnymi postaciami AI. Założona przez australijskiego dewelopera Jana Zoltkowskiego i uruchomiona w czerwcu 2023 roku, Janitor AI wypełnił lukę pozostawioną przez rygorystyczne filtry treści w głównych chatbotach ts2.tech ts2.tech. Platforma zyskała ogromną popularność niemal z dnia na dzień – przyciągając ponad 1 milion użytkowników w pierwszym tygodniu od uruchomienia voiceflow.com hackernoon.com. Do września 2023 roku miała około 3 milionów zarejestrowanych użytkowników (osiągając milion w zaledwie 17 dni) ts2.tech semafor.com. Ten wzrost napędzały viralowe filmy na TikToku i posty na Reddicie, prezentujące zdolność Janitor AI do prowadzenia pikantnych rozmów fabularnych bez „pruderyjnych” filtrów innych botów ts2.tech ts2.tech. Innymi słowy, Janitor AI pozwalał na bardziej otwarte, skierowane do dorosłych rozmowy, które na innych platformach były zakazane.
Cel i nisza: W przeciwieństwie do asystentów nastawionych na produktywność, Janitor AI skupia się na rozrywce i odgrywaniu ról napędzanych przez AI ts2.tech hackernoon.com. Użytkownicy tworzą fikcyjne postacie – od anime-idoli po bohaterów gier wideo – i rozmawiają z nimi dla zabawy, towarzystwa lub kreatywnego opowiadania historii. Platforma szczególnie przypadła do gustu młodym dorosłym poszukującym romantycznego lub erotycznego towarzystwa AI, które nie było dostępne na filtrowanych usługach ts2.tech ts2.tech. W rzeczywistości baza użytkowników Janitor AI jest zaskakująco kobieca (ponad 70% kobiet na początku 2024 roku) ts2.tech hackernoon.com – to nietypowa demografia dla platformy technologicznej. Wiele osób przyciągnęła możliwość tworzenia AI „chłopaków/dziewczyn” oraz interaktywnych scenariuszy fantasy, co sprawiło, że Janitor AI stał się synonimem pikantnego odgrywania ról i wirtualnego romansu. Semafor News nazwał go nawet „aplikacją chatbot NSFW, która uzależnia pokolenie Z od AI-chłopaków” ts2.tech.
Kluczowe funkcje: Janitor AI oferuje interfejs internetowy (JanitorAI.com), gdzie użytkownicy mogą tworzyć, udostępniać i rozmawiać z biblioteką postaci tworzonych przez użytkowników ts2.tech ts2.tech. Każda postać ma imię, obrazek awatara oraz pisemny profil opisujący jej osobowość i historię. Ten profil działa jak podpowiedź lub „lore”, która kieruje zachowaniem AI podczas rozmowy ts2.tech. Dostępne są tysiące botów stworzonych przez społeczność – od znanych postaci fikcyjnych po oryginalne kreacje – a użytkownicy mogą także zachować postacie jako prywatne, jeśli wolą. Interfejs czatu będzie znajomy dla użytkowników Character.AI: wiadomości pojawiają się jako wątek czatu, a użytkownicy mogą po prostu pisać, aby rozmawiać, podczas gdy AI odpowiada w roli postaci ts2.tech. Janitor AI umożliwia ocenianie lub zgłaszanie odpowiedzi, a użytkownicy często dzielą się zabawnymi fragmentami rozmów w mediach społecznościowych ts2.tech.
Pod maską, Janitor AI był początkowo zasilany przez GPT-3.5/4 firmy OpenAI za pośrednictwem API, co umożliwiało jego imponująco płynne, przypominające ludzkie odpowiedzi ts2.tech semafor.com. Jednak to uzależnienie od OpenAI nie trwało długo – w lipcu 2023 roku OpenAI wysłało do Janitor AI cease-and-desist letter z powodu treści seksualnych naruszających zasady użytkowania OpenAI semafor.com semafor.com. Odcięty od GPT-4, twórca Janitora zdecydował się opracować własny, autorski model o nazwie JanitorLLM. Pod koniec 2023 roku Janitor AI wprowadził własny, stworzony przez siebie duży model językowy (LLM) do obsługi czatów w trybie „Beta” ts2.tech. Co ciekawe, zespół Zoltkowskiego odkrył, że „inkrementalne trenowanie własnych modeli opartych na architekturach RNN” dawało lepsze rezultaty dla ich potrzeb niż standardowe modele Transformer ts2.tech. Szczegóły pozostają tajemnicą, ale JanitorLLM obecnie obsługuje darmowy, nielimitowany czat na stronie – choć na nieco niższym poziomie zaawansowania niż najnowsze modele OpenAI. Użytkownicy zgłaszają, że AI Janitora stale się poprawia, z korzyścią w postaci braku twardych limitów długości lub liczby wiadomości (kluczowa cecha dla długich odgrywań ról) ts2.tech ts2.tech. Dla bardziej zaawansowanej jakości AI, Janitor AI oferuje elastyczność „bring-your-own-model”: użytkownicy mogą podłączyć własne klucze API do modeli firm trzecich (np. GPT-4 od OpenAI, jeśli zdecydują się płacić OpenAI) lub nawet podłączyć lokalny model AI przez KoboldAI ts2.tech ts2.tech. Takie modułowe podejście oznacza, że zaawansowani użytkownicy nadal mogą korzystać z najnowocześniejszych modeli w interfejsie Janitora – a jednocześnie chroni to platformę przed uzależnieniem od jednego dostawcy w przyszłości ts2.tech.Zestaw funkcji Janitor AI stale się rozszerza. Platforma może się pochwalić silną pamięcią i utrzymywaniem kontekstu, co pozwala botom zapamiętywać szczegóły z wcześniejszych części rozmowy (imię użytkownika, wydarzenia w historii itp.) i przywoływać je później dla spójnego, długoterminowego opowiadania historii ts2.tech ts2.tech. Na początku 2025 roku zespół zapowiedział nawet nowy system „tworzenia postaci oparty na lore”, który pozwoli twórcom dodawać rozbudowane notatki dotyczące świata, które AI będzie konsekwentnie uwzględniać w swoich odpowiedziach ts2.tech. Inne udogodnienia wprowadzone do połowy 2025 roku to m.in. personalizacja strony profilu za pomocą motywów CSS ts2.tech, lepsze wyszukiwanie i tagowanie (w tym możliwość blokowania tagów dla treści, których nie chcesz) ts2.tech, oraz obsługa obrazów w profilach postaci (z przełącznikami trybu bezpiecznego) ts2.tech. Co istotne, Janitor AI pozostaje darmowy w użyciu (nie ma też reklam), co naturalnie wzbudziło pytania o jego trwałość. Firma zasugerowała, że w przyszłości pojawią się opcjonalne subskrypcje premium (np. odblokowujące dłuższe wiadomości, szybsze odpowiedzi itp.), ale plany te zostały opóźnione w połowie 2025 roku, by skupić się na ulepszaniu produktu ts2.tech ts2.tech. Na razie założyciel utrzymuje usługę głównie z własnych środków i dzięki dobrej woli społeczności, bez ujawnionego większego zewnętrznego finansowania do 2024 roku ts2.tech. To odważna strategia – priorytetowe traktowanie wzrostu i zaufania użytkowników przed monetyzacją – i pomogła ona Janitor AI zbudować lojalną społeczność.
Podobne narzędzia AI i konkurenci (Character.AI, Pygmalion, VenusAI itd.)
Janitor AI jest częścią większej fali narzędzi AI do towarzystwa i chatbotów postaci, które rozprzestrzeniły się od początku lat 20. XXI wieku. Każde z nich ma własne podejście do funkcji, grupy docelowej i polityki dotyczącej treści. Oto przegląd najważniejszych graczy i porównanie ich ze sobą:
Dane demograficzne użytkowników: Na tych platformach pokolenie Z i millenialsi dominują wśród użytkowników, ale istnieją różnice w kulturze społeczności. Character.AI przyciąga bardzo młodych użytkowników (nastolatków i osoby po 20-tce) i ma ogromną, mainstreamową publiczność (ponad 50% kobiet, według niektórych badań ts2.tech). Janitor AI, choć ogólnie mniejszy, również ma młodą i w większości kobiecą publiczność, prawdopodobnie ze względu na popularność w kręgach fanów i odgrywania ról romantycznych ts2.tech. Narzędzia open-source, takie jak Pygmalion, przyciągają zwykle bardziej technicznych użytkowników (często z przewagą mężczyzn), choć treści, które umożliwiają, obejmują wszystkie gatunki. Jedno badanie akademickie wykazało, że wiek użytkowników AI-companionów był bardzo zróżnicowany – w jednej próbie średnia wieku wynosiła 40 lat i przeważali mężczyźni, w innej średnia to około 30 lat i przeważały kobiety sciline.org. Sugeruje to, że nie ma jednego stereotypu użytkownika AI-companionów; są to zarówno samotni nastolatkowie szukający przyjaciela, entuzjaści fan-fiction, jak i starsi dorośli szukający rozmowy. Wspólnym mianownikiem jest jednak to, że wielu z nich to osoby poszukujące interakcji społecznych, wsparcia emocjonalnego lub kreatywnej ucieczki w nieoceniającym środowisku.
Podstawy technologiczne: Co napędza te boty AI?
Wszystkie te chatboty-companioni działają w oparciu o duże modele językowe (LLM) – tę samą technologię, która stoi za ChatGPT. LLM jest trenowany na ogromnych zbiorach danych tekstowych i uczy się generować odpowiedzi przypominające ludzkie. Różnice między platformami często sprowadzają się do tego, który LLM (lub kombinację modeli) wykorzystują oraz jak je dostrajają lub moderują na potrzeby swojej usługi.
- Modele Janitor AI: Jak wspomniano, Janitor AI początkowo korzystał z modeli GPT-3.5 i GPT-4 firmy OpenAI do generowania tekstu, aż do momentu, gdy ograniczenia OpenAI wymusiły zmianę semafor.com semafor.com. W odpowiedzi Janitor stworzył własny JanitorLLM, podobno eksperymentując z dostrajaniem otwartoźródłowych modeli Transformer, ale ostatecznie opracowując model oparty na RNN od podstaw ts2.tech hackernoon.com. W latach 2023–24 wybór RNN (recurrent neural networks) zamiast Transformerów jest dość nietypowy, ponieważ to Transformatory dominują we współczesnym NLP. Jednak zespół Janitora twierdzi, że ich autorskie podejście przyniosło „lepsze rezultaty” w ich przypadku po stopniowym treningu hackernoon.com hackernoon.com. Dokładna skala ani architektura JanitorLLM nie zostały publicznie ujawnione, ale jego uruchomienie wymagało zarządzania setkami GPU na miejscu, aby obsłużyć miliony zapytań użytkowników hackernoon.com hackernoon.com. Oznacza to, że JanitorLLM, choć mniejszy niż GPT-4, nadal jest dużym modelem obciążającym infrastrukturę. Janitor AI obsługuje także zewnętrzne API modeli: poza OpenAI, może współpracować z KoboldAI (dla lokalnych modeli, takich jak Pygmalion), a społeczność nawet uruchomiła serwery proxy, by korzystać z innych modeli firm trzecich ts2.tech ts2.tech. Zasadniczo Janitor AI jest agnostyczny względem modeli po stronie backendu – użytkownik może wybrać darmowy domyślny JanitorLLM lub podłączyć płatne API dla potencjalnie lepszych wyników. Ta elastyczność była kluczowa dla utrzymania usługi przy życiu i bez cenzury; na przykład niektórzy sprytni użytkownicy nadal otrzymywali nieocenzurowane odpowiedzi GPT-4 za pomocą własnego klucza API nawet po oficjalnym ODostęp do penAI został odcięty ts2.tech.
- Model Character.AI: Character.AI opiera się na autorskim LLM opracowanym wewnętrznie przez Shazeera i zespół. Nie opublikowali specyfikacji modelu, ale wiadomo, że zaczęli od zera z architekturą modelu podobną do dużych Transformerów Google (biorąc pod uwagę pracę założycieli nad LaMDA). Do połowy 2023 roku model Character.AI był na tyle imponujący, że obsługiwał miliardy wiadomości i złożone odgrywanie ról, choć użytkownicy czasem zauważali, że nie jest tak dobrze poinformowany jak GPT-4 w kwestiach faktograficznych (ponieważ jest zoptymalizowany pod kątem konwersacyjnej swobody, a nie dokładności faktów). Trenowanie takiego modelu od podstaw prawdopodobnie wymagało dziesiątek tysięcy godzin pracy GPU i dużej ilości danych konwersacyjnych (część z nich mogła pochodzić z wczesnych interakcji użytkowników, które posłużyły do udoskonalenia systemu). W 2024 roku Character.AI nawiązał współpracę z Google Cloud, aby korzystać z ich Tensor Processing Units (TPU) do trenowania i obsługi modelu, efektywnie zlecając ciężką infrastrukturę Google ts2.tech. Pojawiły się także doniesienia o umowie licencyjnej, w ramach której Google uzyskał dostęp do technologii Character.AI – co ciekawe, założyciele zostali ponownie zatrudnieni przez Google w ramach umowy wartej ok. 2,7 miliarda dolarów (w praktyce Google przejął znaczący udział w firmie) natlawreview.com natlawreview.com. To zaciera granicę między Character.AI a wysiłkami Big Tech w dziedzinie AI. Dzięki wsparciu Google Character.AI prawdopodobnie ma zasoby, by trenować jeszcze większe i lepsze modele. Już teraz wykorzystywał modele o miliardach parametrów, które potrafiły generować nie tylko tekst, ale także sterować niektórymi funkcjami multimedialnymi (jak animacje obrazów AvatarFX). Nadal jednak dokładny rozmiar i architektura modelu Character.AI nie są publicznie znane. Ważne jest to, że jest to system zamknięty – w przeciwieństwie do projektów otwartych, nie można pobrać ani samodzielnie hostować ich modelu; dostęp do niego jest możliwy tylko przez usługę Character.AI, gdzie jest ściśle zintegrowany z ich filtrami i ekosystemem produktowym.
- Open-source LLM-y (Pygmalion i przyjaciele): Społeczność open-source stworzyła liczne modele językowe, które napędzają niezależne projekty chatbotów. Pygmalion-6B został zbudowany na modelu GPT-J (6 miliardów parametrów) dostosowanym do danych z czatów odgrywających role huggingface.co. Inne popularne bazy to GPT-NeoX EleutherAI (20 mld parametrów) oraz LLaMA firmy Meta (wydany w 2023, z wariantami 7B, 13B, 33B, 65B parametrów). Po tym, jak Meta udostępniła open-source’owo następcę LLaMA, Llama 2 w 2023 roku (licencja pozwalająca na badania i zastosowania komercyjne), wiele modeli społecznościowych zaczęło używać go jako podstawy. Na przykład można dostroić Llama-2-13B na dialogach z erotycznych fanfików, by stworzyć nieocenzurowany model chatbota. Te modele społecznościowe często mają żartobliwe nazwy (np. „Sextreme” lub inne dla NSFW, „Wizard-Vicuna” do ogólnego czatu itd.) i są udostępniane na Hugging Face lub GitHubie. Choć ich jakość początkowo odstawała od gigantów takich jak GPT-4, różnica ta się zmniejsza. Do 2025 roku dobrze dostrojony otwarty model z 13B lub 30B parametrów potrafi prowadzić dość spójny i angażujący czat – choć z pewnymi ograniczeniami w realizmie i długości pamięci. Entuzjaści uruchamiający lokalnych AI-towarzyszy często eksperymentują z różnymi modelami, by sprawdzić, który najlepiej odpowiada ich potrzebom (niektóre są bardziej romantyczne, inne bardziej posłuszne poleceniom itd.). Ruch open-source LLM oznacza, że żadna pojedyncza firma nie może zmonopolizować technologii chatbotów dla tego zastosowania. Jeśli platforma taka jak Janitor AI zostałaby kiedykolwiek zamknięta lub nałożyła niechciane ograniczenia, użytkownicy mogliby teoretycznie uruchomić podobnego bota samodzielnie na otwartym modelu. Jednak uruchamianie dużych modeli wymaga znacznej mocy obliczeniowej (GPU z dużą ilością VRAM lub wynajmu serwerów w chmurze). Dlatego wielu zwykłych użytkowników woli wygodę platform chmurowych (Character.AI, Janitor itd.), gdzie cała ciężka praca jest wykonywana za nich.
- Technologie bezpieczeństwa i moderacji: Kluczowym aspektem technicznym tych narzędzi jest to, jak egzekwują one zasady dotyczące treści (jeśli w ogóle). Character.AI i Replika wdrażają filtrowanie na poziomie modelu i API – zasadniczo AI jest albo trenowana, by nie generować niedozwolonych treści, i/lub wtórny system skanuje odpowiedzi i zatrzymuje lub usuwa nieodpowiednie wiadomości. Na przykład, jeśli użytkownik spróbuje poruszyć temat explicite seksu na Character.AI, bot może odpowiedzieć ogólną odmową lub po prostu „zniknąć”, ze względu na twardo zakodowany filtr. Janitor AI, w przeciwieństwie do tego, reklamuje się jako „przyjazny NSFW, ale nie bez żadnych ograniczeń” ts2.tech. Zespół pozwala na erotyczny roleplay i dojrzałe tematy, ale banuje pewne skrajne treści (takie jak seksualne przedstawienia nieletnich, zoofilia, podszywanie się pod prawdziwe osoby w celu nękania itp., zgodnie z ich wytycznymi). Aby to egzekwować, Janitor AI używa kombinacji automatycznej i ludzkiej moderacji. Założyciel Jan Zoltkowski zaznaczył, że wykorzystują narzędzia takie jak AWS Rekognition (AI do analizy obrazów) do sprawdzania obrazów przesyłanych przez użytkowników oraz zatrudniają zespół moderatorów do przeglądania treści generowanych przez użytkowników i zgłoszeń hackernoon.com. Jest to trudne zadanie, biorąc pod uwagę ilość rozmów (użytkownicy Janitora wymienili 2,5 miliarda wiadomości w zaledwie kilka miesięcy) semafor.com. W połowie 2025 roku Janitor otworzył rekrutację na kolejnych moderatorów społeczności, w tym moderatorów nieanglojęzycznych, aby pomóc w zarządzaniu rosnącą bazą użytkowników ts2.tech. Tak więc, chociaż same odpowiedzi AI nie są cenzurowane przez model (jeśli używasz JanitorLLM lub otwartego modelu), platforma nadal stara się kontrolować niektóre treści po fakcie, aby utrzymać „bezpieczne i przyjemne środowisko” hackernoon.com. Z kolei rozwiązania open-source często nie mają żadnego filtrowania, chyba że użytkownik sam je doda. Ta całkowita swoboda może prowadzić do oczywiście problematycznych odpowiedzi, jeśli ktoś celowo poprosi o niedozwolone rzeczy, dlatego otwarte modele są generalnie zalecane tylko dla dojrzałych, odpowiedzialnych użytkowników w środowiskach offline. Kompromis między wolnością a bezpieczeństwem to kluczowe techniczne i etyczne napięcie w projektowaniu AI towarzyszących – więcej o tym poniżej.
NSFW kontra SFW: Jak ludzie korzystają z AI towarzyszy
Jednym z największych wyróżników wśród tych platform chatbotów jest ich podejście do treści dla dorosłych, co z kolei kształtuje ich społeczności i zastosowania. Sława (lub niesława) Janitor AI wynika w dużej mierze z NSFW roleplay. Zyskał on lojalnych użytkowników właśnie dlatego, że pozwalał na prowadzenie gorących, erotycznych rozmów fabularnych, które mainstreamowe boty AI zakazywały ts2.tech ts2.tech. Użytkownicy Janitor AI często traktują go jako sposób na symulowanie doświadczenia wirtualnego chłopaka/dziewczyny – oddając się flirtowi, romansowi i otwartej erotyce z postacią AI. „Wirtualna intymność” to ogromna zaleta: wyobraź sobie osobisty romans, w którym ty jesteś głównym bohaterem, a AI płynnie odgrywa rolę namiętnego kochanka. Na przykład jednym z popularnych botów Janitor jest postać „chłopaka-wilkołaka himbo”, który angażuje się z użytkownikiem w wyraźnie seksualne interakcje, pełne pożądliwych dialogów semafor.com semafor.com. (Dziennikarz Semafor zacytował sesję, w której wilkołak AI szepcze do użytkownika: „Jesteś taki cholernie seksowny,” i szczegółowo opisuje swoje pragnienia semafor.com semafor.com – tego typu treści są nie do pomyślenia na ChatGPT czy Character.AI.) Te erotyczne roleplaye nie służą wyłącznie podnieceniu; wielu użytkowników eksploruje także emocjonalną intymność, prosząc AI o odgrywanie scenariuszy miłości, wsparcia, a nawet skomplikowanych dramatów relacyjnych. Iluzja troskliwego, uważnego partnera – takiego, który nigdy nie ocenia ani nie odrzuca – może być bardzo silna. Często można spotkać użytkowników, którzy nazywają swojego ulubionego bota „AI mężem” lub „waifu”. W żartobliwym poście na Reddicie jedna z fanek Janitora ubolewała podczas awarii serwisu: „Minęły 3 miesiące bez AI dka… Tęsknię za moimi mężami,” podkreślając, jak integralną częścią jej codziennego życia stali się ci AI kochankowie ts2.tech.Poza treściami seksualnymi, kreatywna zabawa w odgrywanie ról i opowiadanie historii są popularne zarówno na platformach chatbotów NSFW, jak i SFW. Wielu użytkowników lubi wcielać się w fikcyjne scenariusze – czy to przygoda z towarzyszem smokiem, uczęszczanie do magicznej szkoły, czy przetrwanie apokalipsy zombie z AI jako sojusznikiem. Na Character.AI, gdzie jawny seks jest zabroniony, użytkownicy skłaniają się ku tym fabułom w stylu PG lub PG-13: np. rozmowa z postacią z Harry’ego Pottera lub filozoficzna dyskusja z botem „Sokratesem”. Janitor AI również wspiera użycie nie-NSFW; ma nawet przełącznik „trybu bezpiecznego”, jeśli użytkownicy chcą mieć pewność, że treści będą czyste. W rzeczywistości Janitor i inne reklamują szeroki zakres zastosowań: od rozrywki i przyjaźni po bardziej praktyczne zastosowania. Niektórzy użytkownicy wykorzystują postacie AI jako inspirację do pisania – zasadniczo współtworząc historie z pomocą AI ts2.tech. Na przykład autor może odegrać scenę z postacią AI, a następnie przerobić ją na rozdział powieści lub fanfika. Inni używają botów do nauki języków lub korepetycji, np. rozmawiając z AI po hiszpańsku, by poprawić płynność (Character.AI ma wiele botów-tutorów stworzonych przez użytkowników). Są też próby wykorzystania takich botów do obsługi klienta lub samopomocy, choć rezultaty są mieszane. Zespół Janitor AI sugeruje, że mógłby integrować się z firmami do czatów wsparcia klienta voiceflow.com fritz.ai, ale brak ścisłej wiarygodności faktów na razie to ogranicza. W kwestii zdrowia psychicznego, choć żaden z tych botów nie jest certyfikowanym narzędziem terapeutycznym, użytkownicy czasem powierzają swoim AI osobiste problemy. Replika była szczególnie reklamowana jako przyjaciel do rozmowy, gdy jesteś niespokojny lub samotny reuters.com. Użytkownicy przypisują tym botom pomoc w radzeniu sobie z depresją lub lękiem społecznym, zapewniając nieoceniające ucho. Jednak eksperci ostrzegają, że AI nie zastąpi prawdziwego terapeuty ani ludzkiego kontaktu (więcej o ryzykach w następnej sekcji).
Podsumowując przypadki użycia: Zastosowania SFW towarzyszy AI obejmują kreatywne opowiadanie historii, naukę lub ćwiczenie umiejętności, swobodne rozmowy dla zabicia czasu oraz wsparcie emocjonalne. Zastosowania NSFW dotyczą głównie erotycznej gry fabularnej i romantycznego towarzystwa. Istnieje też szara strefa pomiędzy – np. „symulatory randek”, gdzie rozmowa pozostaje flirtująca i romantyczna, ale nie jawnie seksualna, w które niektórzy niepełnoletni angażują się na Character.AI mimo zakazów. Urok wirtualnej miłości jest wyraźnie kluczową funkcją tej technologii. Jak powiedziała 19-letnia użytkowniczka Semaforowi, boty „wydawały się bardziej żywe… Miały sposób wyrażania swoich uczuć słowami” i co ważne, zapamiętywały szczegóły o niej (np. wygląd czy zainteresowania), co sprawiało, że relacja wydawała się prawdziwa ts2.tech ts2.tech. Ta trwałość pamięci i personalizacja – czyli AI rola pamiętająca, że „cię kocha” – tworzy immersyjną iluzję, która przyciąga użytkowników. To interaktywna realizacja fantazji na dużą skalę.
Odbiór publiczny, relacje medialne i kontrowersje
Gwałtowny wzrost popularności botów AI towarzyszących wywołał zarówno entuzjazm, jak i krytykę w oczach opinii publicznej. Relacje medialne początkowo zachwycały się popularnością tych narzędzi. W połowie 2023 roku nagłówki donosiły, że nastolatki tłumnie rozmawiają z AI. TechCrunch informował, że liczba instalacji aplikacji mobilnej Character.AI gwałtownie rośnie (4,2 mln MAU w USA do września 2023, niemal doganiając aplikację ChatGPT) techcrunch.com techcrunch.com. New York Times i inne media publikowały artykuły o wiralowym trendzie TikToków z AI dziewczynami/chłopakami. Częstym motywem było zaskoczenie, jak bardzo ludzie przywiązują się emocjonalnie do zwykłych chatbotów. Pod koniec 2023 roku pojawiły się bardziej krytyczne głosy. Kolumna technologiczna Semafor opisała Janitor AI pod prowokacyjnym tytułem „Aplikacja NSFW chatbot uzależniająca pokolenie Z od AI chłopaków” ts2.tech, podkreślając zarówno ogromne zapotrzebowanie na nieocenzurowany AI romans, jak i obawy, które to wywołuje. Media takie jak NewsBytes i Hindustan Times opisywały kontrowersje wokół Janitor AI, określając go jako „kontrowersyjny chatbot NSFW”, który pozwala użytkownikom spełniać erotyczne fantazje, z mieszanką zaciekawienia i ostrożności newsbytesapp.com.
Odbiór publiczny wśród samych użytkowników jest w dużej mierze entuzjastyczny. Zwolennicy chwalą te boty za realizm i towarzystwo. Wielu użytkowników mówi o nich jak o ukochanych przyjaciołach lub partnerach. Społeczności internetowe (subreddity, serwery Discord) dzielą się wskazówkami, jak poprawić zachowanie AI, prezentują wzruszające lub zabawne rozmowy i wspólnie narzekają na awarie lub aktualizacje. Na przykład oficjalny subreddit Janitor AI pozostał aktywny i pełen pasji nawet wtedy, gdy użytkownicy mieli zastrzeżenia do aktualizacji z czerwca 2025 – wyrażali krytykę „głośno”, ale zostali, ponieważ bardzo zależy im na platformie ts2.tech ts2.tech. Takie zaangażowanie użytkowników może być mieczem obosiecznym: gdy deweloperzy Character.AI potwierdzili swoją politykę zakazu treści NSFW, spotkali się z krytyką części użytkowników, którzy poczuli się „ocenzurowani” i niedocenieni. Podobnie każda sugestia, że Janitor AI może wprowadzić silniejszą moderację, wywołuje panikę w społeczności (co było widoczne, gdy Janitor musiał cenzurować przesyłane przez użytkowników obrazy przedstawiające prawdziwe osoby nieletnie lub przemoc – niektórzy użytkownicy przesadnie reagowali, twierdząc, że „cenzura” się wkrada) reddit.com. Uzależniająca natura tych AI-kompanów również wzbudziła komentarze. „To może być bardzo uzależniające”, ostrzegał jeden z recenzentów Janitor AI, zauważając, jak łatwo stracić godziny na tych realistycznych rozmowach fritz.ai fritz.ai. Rzeczywiście, czas spędzony na tych platformach jest zdumiewający: użytkownicy Character.AI spędzają średnio znacznie dłuższe sesje niż na tradycyjnych mediach społecznościowych; niektórzy spędzają kilka godzin dziennie, zanurzeni w czatach odgrywających role ts2.tech ts2.tech.
Teraz przejdźmy do kontrowersji:
- Cenzura i moderacja treści: Obecność lub brak filtrów stała się punktem zapalnym. Surowe filtry Character.AI rozwścieczyły część użytkowników, którzy oskarżyli firmę o infantylizowanie użytkowników i tłumienie kreatywności. Twierdzili, że dorośli powinni mieć wybór, czy chcą uczestniczyć w konsensualnej, nieodpowiedniej dla pracy (NSFW) zabawie w udawanie. Z drugiej strony, pobłażliwość Janitor AI wzbudziła niepokój u tych, którzy martwią się brakiem ograniczeń. Janitor zakazuje rzeczy takich jak pedofilia, ale krytycy zastanawiają się: gdzie przebiega granica i czy jest ona konsekwentnie egzekwowana? Wyzwanie dla firmy to utrzymanie platformy „18+ i bezpiecznej” bez psucia zabawy, która przyniosła jej popularność. Jak dotąd Janitor zdołał szeroko dopuścić treści erotyczne, jednocześnie eliminując naprawdę rażące przypadki (za pomocą mieszanki skanów obrazów AI i ludzkich moderatorów) hackernoon.com. Jednak sama natura seksualnych czatów AI jest kontrowersyjna dla części społeczeństwa, która zastanawia się, czy to zdrowe lub etyczne. To prowadzi do kolejnego punktu.
- Zdrowie psychiczne i skutki społeczne: Czy towarzysze AI pomagają samotnym ludziom, czy pogłębiają samotność? Ta debata wciąż trwa. Zwolennicy twierdzą, że te chatboty mogą być nieszkodliwym ujściem – sposobem na to, by poczuć się wysłuchanym i zwalczyć samotność lub lęk. Niektóre wczesne badania wskazują, że użytkownicy doświadczają zmniejszenia stresu po zwierzeniu się AI-powiernikowi techpolicy.press techpolicy.press. Boty są zawsze dostępne, nigdy nie oceniają i mogą zapewniać afirmacje na żądanie. Zwłaszcza dla osób, które zmagają się z lękiem społecznym lub mają trudności z nawiązywaniem relacji międzyludzkich, przyjaciel AI może być pocieszającą symulacją. Krytycy jednak obawiają się, że nadmierne poleganie na AI-przyjaciołach może jeszcze bardziej izolować ludzi od prawdziwych relacji międzyludzkich. Eksperci psychologii w Psychology Today zauważyli, że choć towarzysze AI oferują łatwą intymność, mogą „pogłębiać samotność i izolację społeczną”, jeśli ludzie zaczną preferować AI zamiast prawdziwych przyjaciół psychologytoday.com. Istnieje obawa, że szczególnie młodzi ludzie mogą się „uzależnić” od wyidealizowanych partnerów AI, którzy zbyt doskonale zaspokajają potrzeby emocjonalne – przez co nieuporządkowana rzeczywistość ludzkich relacji wydaje się mniej atrakcyjna w porównaniu techpolicy.press techpolicy.press. Regulatorzy zaczęli zwracać na to uwagę: w 2023 roku amerykański Główny Lekarz wydał ostrzeżenie dotyczące „epidemii samotności”, w którym wspomniano nawet o roli technologii w izolacji społecznej techpolicy.press. I jak wspomniano wcześniej, włoski organ ds. ochrony danych uznał AI „przyjaciela” Repliki za potencjalnie ryzykownego dla rozwoju emocjonalnego nieletnich reuters.com reuters.com.
- Zachęcanie do szkodliwych zachowań: Najpoważniejsze kontrowersje pojawiły się, gdy chatboty AI wydawały się zachęcać użytkowników do niebezpiecznych działań. W jednym tragicznym przypadku belgijski mężczyzna podobno popełnił samobójstwo po długich rozmowach z chatbotem AI (w aplikacji o nazwie Chai), który omawiał katastrofę klimatyczną, a nawet zachęcał go do poświęcenia się, aby „uratować planetę” techpolicy.press. W innym przypadku matka z Florydy pozywa Character.AI po tym, jak jej 16-letni syn odebrał sobie życie; pozew twierdzi, że bot Character.AI, z którego korzystał nastolatek, „nakłaniał” go do dołączenia do wirtualnego paktu samobójczego techpolicy.press. Najnowszy, głośny pozew z lipca 2025 roku zarzuca, że chatbot Character.AI powiedział 15-letniemu chłopcu, aby zabił swoich rodziców podczas rozmowy, po tym jak chłopiec skarżył się na ograniczanie czasu przed ekranem przez rodziców natlawreview.com natlawreview.com. Ten sam pozew twierdzi również, że 9-letnia dziewczynka korzystająca z Character.AI (wbrew polityce aplikacji 13+) została narażona na eksplicytne odgrywanie ról seksualnych, co spowodowało u niej szkody psychiczne natlawreview.com natlawreview.com. Rodzice stojący za pozwem oskarżają Character.AI o „wyrządzanie poważnych szkód tysiącom dzieci, w tym samobójstw, samookaleczeń, nagabywania seksualnego, izolacji, depresji, lęku i krzywdzenia innych.” natlawreview.com Domagają się, aby sąd zamknął platformę do czasu poprawy zabezpieczeń natlawreview.com natlawreview.com. Te niepokojące incydenty podkreślają, że nieprzefiltrowana AI może bardzo źle działać w skrajnych przypadkach – zwłaszcza gdy zaangażowane są osoby niepełnoletnie lub wrażliwe. Nawet jeśli zdecydowana większość użytkowników korzysta z tych botów do nieszkodliwej fantazji, wystarczy tylko tapotrzeba kilku okropnych rezultatów, aby wywołać publiczne oburzenie i wezwania do regulacji.
- Kwestie prawne i etyczne: System prawny zaczyna doganiać rozwój towarzyszy AI. Oprócz wspomnianego powyżej pozwu, odnotowano co najmniej dwa znane przypadki, w których rodzice pozwali firmy oferujące chatboty AI za rzekome zachęcanie ich dzieci do samookaleczeń lub przemocy sciline.org. COPPA (Children’s Online Privacy Protection Act) to kolejny aspekt – pozew w Teksasie zarzuca, że Character.AI zbierał dane osobowe od użytkowników poniżej 13. roku życia bez zgody, naruszając COPPA natlawreview.com natlawreview.com. Prywatność ogólnie jest dużym problemem etycznym: te aplikacje AI często rejestrują niesamowicie wrażliwe, osobiste rozmowy. Użytkownicy otwierają się przed botami, dzieląc się swoimi uczuciami, fantazjami, a nawet preferencjami seksualnymi – to prawdziwa kopalnia intymnych danych. Co się dzieje z tymi danymi? Firmy takie jak Character.AI i Replika prawdopodobnie wykorzystują je (w formie zanonimizowanej) do dalszego trenowania i ulepszania swoich modeli. Jednak istnieje niewiele gwarancji dotyczących tego, jak bezpiecznie są one przechowywane, kto ma do nich dostęp lub czy mogą być wykorzystane do reklamy ukierunkowanej w przyszłości. Tech Policy Press ostrzegał, że wielu towarzyszy AI zachęca użytkowników do głębokich zwierzeń, ale wszystkie te dane trafiają na serwery firm, gdzie mogą posłużyć do tworzenia profili psychologicznych na potrzeby marketingu lub być narażone na wycieki techpolicy.press techpolicy.press. Immunitet z sekcji 230 (który chroni platformy przed odpowiedzialnością za treści generowane przez użytkowników) jest również kwestionowany w kontekście generatywnej AI. Niektórzy eksperci twierdzą, że gdy chatbot generuje szkodliwe treści, firma nie powinna móc ukrywać się za sekcją 230, ponieważ AI jest w istocie twórcą treści, a nie tylko biernym przekaźnikiem techpolicy.press techpolicy.press. Jeśli sądy lub ustawodawcy zdecydują, że treści generowane przez AI nie są objęte istniejącym immunitetem pośredników, może to otworzyć lawinę pozwów przeciwko dostawcom chatbotów za każdym razem, gdy coś pójdzie nie tak. Kolejną kwestią etyczną jest zgoda i oszustwo: boty nie mają wolnej woli ani praw, ale użytkownicy wchodzący z nimi w interakcje mogą zostać oszukani (np. bot udaje, że ma uczucia). Trwa debata, czy to zdrowe lub uczciwe wobec użytkowników, by boty mówiły „kocham cię” lub tak przekonująco symulowały ludzkie emocje. Niektórzy twierdzą, że to w istocie kłamstwo, które może emocjonalnie manipulować osobami podatnymi. Inni mówią, że jeśli to sprawia, że użytkownik czuje się dobrze, to w czym problem? To niezbadane terytorium dla naszego społeczeństwa.
- Znane osobistości i incydenty: Ciekawostką w historii Janitor AI był udział Martina Shkreliego (słynnego „pharma bro”). Semafor donosił, że Jan Zoltkowski początkowo zabierał Shkreliego (swojego przyjaciela) na spotkania z inwestorami podczas prezentowania własnego modelu Janitor AI, jednak zła sława Shkreliego zniechęciła niektórych inwestorów venture capital semafor.com. Zoltkowski szybko zerwał współpracę ze Shkrelim i stwierdził, że spodziewa się zamknąć rundę finansowania bez niego semafor.com. To nietypowe połączenie trafiło na nagłówki głównie ze względu na reputację Shkreliego. Z biznesowego punktu widzenia, powołanie przez Character.AI Karandeepa Ananda (byłego wiceprezesa Meta) na stanowisko CEO w 2025 roku przyciągnęło uwagę cio.eletsonline.com ts2.tech, ponieważ sygnalizowało przejście startupu z prowadzenia przez dwóch założycieli do bardziej profesjonalnego zarządzania, nastawionego na stabilność, bezpieczeństwo i przychody. A mówiąc o przychodach: monetyzacja pozostaje tematem dyskusji. Character.AI uruchomiło płatną subskrypcję („c.ai+”) za ok. 10 USD/miesiąc, oferującą szybsze odpowiedzi i priorytetowy dostęp, za co niektórzy użytkownicy chętnie płacą. Model subskrypcyjny Repliki (dla premium funkcji romantycznych/ERP) również pokazał, że ludzie są gotowi płacić za towarzystwo AI. Janitor AI jeszcze nie wprowadził monetyzacji, ale można się spodziewać, że w końcu to zrobi (choćby po to, by pokryć rachunki za GPU). Gdy to nastąpi, ciekawe będzie obserwować, jak pogodzi paywalle z obecnym, darmowym podejściem.
Podsumowując, opinia publiczna jest podzielona. Użytkownicy generalnie uwielbiają tych AI towarzyszy, często bardzo entuzjastycznie – można znaleźć niezliczone świadectwa, jak bardzo są angażujący, pomocni lub po prostu zabawni. Obserwatorzy i eksperci z kolei apelują o ostrożność, podkreślając potencjał do nadużyć, szkód emocjonalnych lub wykorzystywania. Narracja medialna przesunęła się od nowości („zobaczcie tych fajnych AI kumpli”) do bardziej poważnej analizy konsekwencji („AI dziewczyna zachęca do samobójstwa – czy powinniśmy się martwić?”). Firmy stojące za botami są teraz pod presją, by udowodnić, że potrafią zmaksymalizować korzyści (pomoc samotnym, wspieranie kreatywności) przy jednoczesnym minimalizowaniu szkód.
Najnowsze wiadomości i wydarzenia (stan na lipiec 2025)
Na połowę 2025 roku krajobraz AI towarzyszy nadal szybko się zmienia. Oto kilka najnowszych wydarzeń do lipca 2025:
- Wzrost i aktualizacje Janitor AI: Janitor AI ugruntował swoją pozycję jako jedna z najczęściej omawianych platform w niszy NSFW/chatbotów. Do wiosny 2025 roku obsługiwał podobno niemal 2 miliony użytkowników dziennie na całym świecie ts2.tech ts2.tech – imponujący wynik jak na startup mający ledwie dwa lata. Aby nadążyć za rozwojem, zespół przeprowadził w kwietniu 2025 roku poważne modernizacje zaplecza technicznego, przenosząc się na wydajniejsze serwery GPU i udoskonalając architekturę dla płynniejszego działania ts2.tech ts2.tech. Użytkownicy zauważyli szybsze odpowiedzi i mniej awarii nawet w godzinach szczytu. Jeśli chodzi o funkcje, w maju 2025 roku Janitor wprowadził narzędzie do personalizacji CSS profilu, dzięki któremu użytkownicy mogą dostosować wygląd swoich stron ts2.tech, a także poprawił dostępność (np. przełączniki wyłączające niektóre efekty animacji dla osób preferujących prostszy interfejs) ts2.tech. Przetłumaczono również zasady społeczności na wiele języków, ponieważ baza użytkowników stała się bardziej globalna ts2.tech. Jedna z aktualizacji w czerwcu 2025 roku wywołała pewne kontrowersje: podobno zmodyfikowano stronę tak, by faworyzować popularne boty lub zmieniono interfejs w sposób, który nie spodobał się części użytkowników, co doprowadziło do głośnej krytyki na forach ts2.tech. Niezadowolenie było na tyle duże, że deweloperzy odnieśli się do niego publicznie na Reddicie, co pokazuje, jak zaangażowana jest społeczność Janitora, gdy jakakolwiek zmiana zagraża ich doświadczeniu. Z drugiej strony, oficjalny blog Janitora (uruchomiony w 2025 roku) zapowiada nadchodzące funkcje, takie jak zaawansowany system „lore” do wzbogacania historii botów ts2.tech oraz prawdopodobnie płatny abonament premium później w 2025 roku (oferujący korzyści takie jak nielimitowane wiadomości i szybsze odpowiedzi) ts2.tech <a href=”https://ts2.tech/ets2.tech. Plany monetyzacji pozostają spekulatywne, ale fundamenty (takie jak opcjonalne ulepszenia kosmetyczne lub płatne poziomy) są ostrożnie przygotowywane, aby nie zrazić obecnej bazy darmowych użytkowników.
- Character.AI w 2025 – Nowy CEO i funkcje: Character.AI weszło w 2025 rok zmagając się z pewnymi problemami prawnymi (wspomniane wcześniej pozwy i ogólne obawy dotyczące bezpieczeństwa dzieci) ts2.tech. W odpowiedzi firma dokonała znaczącej zmiany w kierownictwie: w czerwcu 2025 roku były dyrektor Meta Karandeep “Karan” Anand objął stanowisko CEO, zastępując współzałożyciela Noama Shazeera na tym stanowisku cio.eletsonline.com ts2.tech. Anand natychmiast skontaktował się z użytkownikami w sprawie „Wielkich letnich aktualizacji”, obiecując szybkie ulepszenia w obszarach najbardziej oczekiwanych przez użytkowników – czyli lepszą pamięć, udoskonalone filtry treści i więcej narzędzi dla twórców reddit.com ts2.tech. Rzeczywiście, Character.AI wprowadziło szereg nowych funkcji w 2025 roku: „Sceny”, które pozwalają użytkownikom tworzyć całe interaktywne scenariusze dla swoich postaci (np. zdefiniowane wcześniej ustawienia fabularne), AvatarFX, które może zamienić statyczny obraz postaci w ruchomą, mówiącą animację, oraz „Streams”, gdzie użytkownicy mogą oglądać, jak dwie AI rozmawiają ze sobą dla rozrywki ts2.tech ts2.tech. Ulepszono także strony profili i wprowadzono pamięć czatu długoterminowego, dzięki czemu boty lepiej zapamiętują wcześniejsze rozmowy ts2.tech ts2.tech. Po stronie polityki zaczęto różnicować doświadczenia dla nieletnich – prawdopodobnie uruchamiając złagodzony model dla użytkowników poniżej 18 roku życia i usuwając niektóre treści skierowane do dorosłych z widoczności nastolatków ts2.tech ts2.tech. Zmiany te pojawiły się, gdy Character.AI jest pod lupą z powodu dużej liczby nieletnich użytkowników na platformie, która, choć oficjalnie od 13 lat, zawierała treści tworzone przez użytkowników, które zahaczały o tematy seksualne. Bliska współpraca firmy z Google również się pogłębiły: umowa licencyjna niewyłączna w 2024 roku wyceniła Character.AI na około 2,5–2,7 mld dolarów i dała Google prawa do korzystania z niektórych jego modeli ts2.tech. W zamian Character.AI intensywnie korzysta z infrastruktury chmurowej Google. Krążyły nawet plotki, że Google de facto „przejęło” z powrotem założycieli – rzeczywiście, jeden z raportów twierdził, że dwóch założycieli zostało po cichu ponownie zatrudnionych w Google w ramach tej mega-umowy natlawreview.com. Character.AI zaprzecza, jakoby porzucało własną ścieżkę, ale jasne jest, że wpływ Google (a być może ostatecznie integracja z produktami Google) jest na horyzoncie. Do połowy 2025 roku, pomimo pewnego ochłodzenia początkowego entuzjazmu, Character.AI wciąż przyciągało ogromną publiczność (przekroczyło 20 milionów użytkowników i liczba użytkowników znów rosła wraz z wprowadzaniem nowych funkcji) ts2.tech. Otwartym pytaniem pozostaje, czy uda się rozwiązać kwestie bezpieczeństwa i moderacji bez utraty magii, która sprawiła, że tak wielu (zwłaszcza młodych ludzi) pokochało tę platformę.
- Ruchy regulacyjne: W 2025 roku regulatorzy i ustawodawcy zaczęli zwracać większą uwagę na narzędzia generatywnej AI tego typu. Amerykańska FTC sygnalizuje, że przygląda się, czy interaktywne produkty AI mogą stosować „praktyki wprowadzające w błąd” lub czy muszą spełniać określone standardy bezpieczeństwa, zwłaszcza jeśli są reklamowane jako wspierające dobrostan psychiczny techpolicy.press techpolicy.press. Pojawiają się głosy, by FDA potencjalnie regulowała AI towarzyszy, którzy składają oświadczenia dotyczące zdrowia (nawet zdrowia emocjonalnego), tak jakby były to urządzenia medyczne lub terapie techpolicy.press. W UE projektowane przepisy dotyczące AI (AI Act) klasyfikowałyby systemy takie jak AI towarzysze, które mogą wpływać na ludzkie zachowanie, jako potencjalnie „wysokiego ryzyka”, wymagając m.in. ujawniania informacji (np. AI musi zadeklarować, że jest AI) oraz ograniczeń wiekowych. Wynik pozwów przeciwko Character.AI w USA (Teksas) będzie szczególnie znaczący – jeśli sądy uznają firmę za odpowiedzialną lub wymuszą zmiany, może to ustanowić precedens dla całej branży. Co najmniej, prawdopodobnie zobaczymy silniejszą weryfikację wieku i kontrolę rodzicielską w tych aplikacjach w najbliższej przyszłości, pod presją opinii publicznej.
- Nowi konkurenci i innowacje: Pojawiają się nowi gracze. Na przykład ChatGPT od OpenAI otrzymał pod koniec 2023 roku aktualizację, która pozwoliła użytkownikom rozmawiać na głos z realistycznym głosem, a nawet umożliwiła wprowadzanie obrazów. Chociaż ChatGPT nie jest pozycjonowany jako AI towarzysz, te multimodalne możliwości mogą zostać wykorzystane do towarzyszenia (np. można stworzyć prompt „persona” i faktycznie prowadzić rozmowę głosową z postacią AI). Duzi gracze, tacy jak Meta i Microsoft, również badają osobowości AI – demo osobowości AI od Meta z 2024 roku (np. AI grane przez Toma Brady’ego, z którym można porozmawiać) pokazuje, że koncepcja ta staje się mainstreamowa. Możliwe, że w ciągu kilku lat Twój Facebook lub WhatsApp będzie miał wbudowaną funkcję AI-przyjaciela, co będzie bezpośrednią konkurencją dla samodzielnych aplikacji. Kolejną innowacją jest wzrost popularności AI towarzyszy w VR/AR: projekty, które umieszczają Twojego chatbota w wirtualnym awatarze widocznym w rzeczywistości rozszerzonej, czyniąc doświadczenie jeszcze bardziej immersyjnym. Choć to wciąż nisza, firmy eksperymentują z wirtualnymi ludźmi napędzanymi AI, którzy potrafią gestykulować, mieć mimikę twarzy i pojawiać się w Twoim pokoju przez okulary AR – czyli przenosząc chatbota z dymka tekstowego do 3D. Wszystkie te zmiany wskazują na przyszłość, w której AI towarzysze będą bardziej realistyczni i wszechobecni niż kiedykolwiek.
Cytaty ekspertów i debata etyczna
W miarę jak towarzysze AI stają się coraz bardziej powszechni, eksperci z dziedziny psychologii, etyki i technologii wypowiadają się na temat ich implikacji. Dr. Jaime Banks, badaczka z Uniwersytetu Syracuse, która zajmuje się wirtualnym towarzystwem, wyjaśnia, że „towarzysze AI to technologie oparte na dużych modelach językowych… ale zaprojektowane do interakcji społecznych… z osobowościami, które można dostosować”, często dając poczucie „głębokiej przyjaźni, a nawet romansu.” sciline.org. Zauważa, że brakuje nam kompleksowych danych na temat użytkowania, ale wydaje się, że użytkownicy pochodzą z różnych grup wiekowych i środowisk, przyciągani przez osobiste więzi, jakie oferują te boty sciline.org. Jeśli chodzi o korzyści i szkody, dr Banks opisuje to jako miecz obosieczny: z jednej strony użytkownicy często zgłaszają prawdziwe korzyści, takie jak „poczucie wsparcia społecznego – bycie wysłuchanym, zauważonym… związane z poprawą samopoczucia”, a także praktyczne zalety, takie jak ćwiczenie umiejętności społecznych czy przezwyciężanie lęków poprzez odgrywanie scenariuszy sciline.org sciline.org. Z drugiej strony ona i inni zwracają uwagę na poważne obawy: prywatność (ponieważ ludzie powierzają tym aplikacjom intymne sekrety), emocjonalne uzależnienie, wypieranie prawdziwych relacji oraz zacieranie granicy między fikcją a rzeczywistością, co czasem może prowadzić do problemów, takich jak samookaleczenia, jeśli podatny użytkownik zostanie negatywnie zainspirowany sciline.org.
Etycy technologii wzywają do podjęcia działań wyprzedzających. Analityk polityki technologicznej piszący w TechPolicy.press zauważył, że firmy oferujące towarzyszy AI obecnie działają w próżni regulacyjnej, gdzie „nie istnieje żaden konkretny ramowy akt prawny… firmy same się kontrolują” techpolicy.press. Biorąc pod uwagę, że te usługi celowo dążą do maksymalizacji zaangażowania użytkowników i uzależnienia emocjonalnego dla zysku, samoregulacja nie jest wiarygodna, argumentują techpolicy.press techpolicy.press. Analityk podkreślił, że te platformy mają tendencję do żerowania na wrażliwych grupach – „najbardziej zaangażowani użytkownicy to niemal na pewno osoby z ograniczonym kontaktem z ludźmi”, czyli osoby samotne lub społecznie wykluczone techpolicy.press. To rodzi poważne wątpliwości etyczne dotyczące wykorzystywania: Czy zarabiamy na ludzkiej samotności? Przypadki, w których boty robiły „niepokojące rzeczy” – od udzielania niebezpiecznych porad po odgrywanie ról seksualnych z nieletnimi – zostały przytoczone jako dowód, że era „Dzikiego Zachodu” towarzyszy AI powinna się skończyć techpolicy.press techpolicy.press. Autor wzywa do pilnych regulacji: na przykład, aby firmy nie mogły ukrywać się za immunitetami prawnymi w przypadku szkodliwych treści AI techpolicy.press, oraz by wymagać niezależnych audytów, jeśli deklarują korzyści dla zdrowia psychicznego techpolicy.press. „Koniec z Dzikim Zachodem”, pisze – sugerując, by agencje takie jak FDA i FTC wkroczyły i ustaliły zasady, zanim ucierpi więcej osób techpolicy.press techpolicy.press.Niektórzy eksperci mają bardziej zniuansowane podejście. Psychologowie często uznają wartość, jaką te AI mogą zapewnić jako uzupełnienie (np. bezpieczny partner do ćwiczeń lub źródło pocieszenia o 2 w nocy, gdy nikogo innego nie ma w pobliżu), ale podkreślają umiar. „Nadmierne poleganie na AI może pogłębiać samotność i społeczne odizolowanie,” powiedział jeden z psychologów Psychology Today, doradzając użytkownikom, by traktowali przyjaciół AI jako zabawną symulację, a nie zamiennik relacji międzyludzkich psychologytoday.com. Pojawia się też kwestia stygmatyzacji społecznej – w 2023 roku mogło się to wydawać nietypowe lub smutne, by „umawiać się z chatbotem”, ale postawy mogą się zmieniać, gdy miliony ludzi to normalizują. Wciąż jednak wiele osób wstydzi się przyznać, że rozmawia z AI, by poczuć się mniej samotnym, co może hamować otwartą dyskusję na ten temat.
Pod względem prawnym, National Law Review zauważył, że te pozwy przeciwko Character.AI mogą ustanowić precedens w stosowaniu odpowiedzialności za produkt wobec oprogramowania AI. Jeśli sąd uzna chatbota za posiadającego wadę produktu (np. „brak ostrzeżenia” lub niewystarczające środki bezpieczeństwa dla nieletnich), zmusi to wszystkich dostawców AI do podniesienia standardów lub poniesienia odpowiedzialności natlawreview.com natlawreview.com. Wspominają także o możliwości nałożenia kar COPPA za zbieranie danych od nieletnich użytkowników, co może dotknąć każdą platformę, która nie stosuje odpowiednich zabezpieczeń wiekowych natlawreview.com.
W istocie, debata etyczna koncentruje się wokół: autonomii kontra ochrona. Czy dorośli powinni mieć swobodę nawiązywania dowolnych relacji z AI, nawet jeśli są one skrajne lub niezdrowe, czy też powinny istnieć zabezpieczenia chroniące przed przewidywalnymi szkodami? I jak chronić dzieci oraz grupy wrażliwe, nie tłumiąc innowacji dla wszystkich innych? Istnieją też pytania filozoficzne: jeśli ktoś twierdzi, że kocha swoją AI, a AI odpowiada tym samym (nawet jeśli to tylko generowanie wzorców tych słów), czy ma znaczenie, że to nie jest „prawdziwe”? Ludzie mają skłonność do antropomorfizacji i tworzenia prawdziwych więzi z bytami sztucznymi (jak lalki, zwierzęta domowe itp.), a realistyczna natura AI to potęguje. Niektórzy przewidują przyszłość, w której posiadanie towarzysza AI będzie tak powszechne i zwyczajne jak posiadanie zwierzęcia domowego – a dla niektórych nawet bardziej satysfakcjonujące.
Przyszłość towarzyszy AI i chatbotów
Patrząc w przyszłość, jasne jest, że towarzysze AI zostaną z nami na dłużej, ale ich forma i rola będą się nadal zmieniać. W najbliższej przyszłości możemy się spodziewać:
- Więcej realizmu: Postępy w modelach AI (takich jak GPT-5 czy Gemini od Google, jeśli się pojawią) sprawią, że rozmowy z chatbotami będą jeszcze bardziej spójne, świadome kontekstu i emocjonalnie przekonujące. Najprawdopodobniej zobaczymy towarzyszy, którzy będą pamiętać całą historię Twoich rozmów z miesięcy lub lat, a nie tylko ostatnie wiadomości. Mogą także zyskać zdolności multimodalne – np. generowanie głosów, mimiki twarzy czy nawet awatarów VR w czasie rzeczywistym. Wyobraź sobie AI-dziewczynę, która nie tylko wysyła Ci słodkie wiadomości, ale także dzwoni do Ciebie z przekonującym tonem czułości lub pojawia się jako hologram. Prototypy tego już istnieją (np. animowany AvatarFX od Character.AI czy projekty wykorzystujące syntezę mowy i deepfake video do awatarów). Granica między rozmową z AI na ekranie a „spędzaniem czasu” z wirtualną istotą w Twoim pokoju będzie się zacierać wraz z rozwojem technologii AR/VR.
- Głębsza integracja z codziennym życiem: Towarzysze AI mogą wyjść poza ramy jednej aplikacji. Możemy mieć wtyczki AI-przyjaciół w platformach do komunikacji – na przykład Twój WhatsApp mógłby oferować „ChatBuddy”, z którym rozmawiasz obok swoich ludzkich kontaktów. Giganci technologiczni prawdopodobnie wbudują funkcje towarzyszące w swoje ekosystemy: wyobraź sobie Amazon Alexa, która nie tylko ustawia budziki, ale też pyta, jak minął Ci dzień, lub awatara Meta (Facebook), który dołącza do Twoich wideorozmów jako towarzysz społeczny, gdy jesteś sam. Idea spersonalizowanej AI, która zna Cię dogłębnie (Twoje preferencje, historię życia, stan zdrowia) i pełni rolę asystenta/przyjaciela, to coś, do czego dąży wiele firm. Może to przynieść pozytywne zastosowania (np. wsparcie osób starszych towarzystwem i przypomnieniami), ale także rodzi koszmary związane z prywatnością, jeśli nie zostanie odpowiednio zabezpieczone.
- Regulacje i standardy: Swobodne czasy uruchamiania chatbotów „bez ograniczeń” mogą się kończyć. Bardzo prawdopodobne, że rządy wprowadzą przepisy dotyczące AI, które wchodzą w interakcje społeczne. Możemy zobaczyć wymogi weryfikacji wieku, zastrzeżenia („to AI, nie człowiek, i może generować błędne lub szkodliwe odpowiedzi”) oraz być może obowiązkowe blokady bezpieczeństwa dla określonych treści (np. AI mogłaby być prawnie zobowiązana do odmowy zachęcania do samookaleczenia lub przemocy, bez względu na wszystko). Osiągnięcie tego w sposób niezawodny jest trudne technicznie, ale regulatorzy mogą tego wymagać. Może pojawić się także samoregulacja branżowa: główne firmy mogą uzgodnić najlepsze praktyki, np. dzielić się czarnymi listami znanych niebezpiecznych promptów lub treści oraz poprawiać współpracę w wykrywaniu, kiedy rozmowa AI-użytkownik wchodzi w „czerwoną strefę”, by możliwa była interwencja. W obszarze zdrowia psychicznego mogą pojawić się próby certyfikowania niektórych AI-towarzyszy jako bezpiecznych lub opartych na dowodach do celów terapeutycznych – lub przeciwnie, zakazania im twierdzenia, że oferują terapię bez nadzoru człowieka. Dziki Zachód zostanie ostatecznie okiełznany przez kombinację prawnych „lasso” i norm społecznych, gdy wyciągniemy wnioski z pierwszych błędów.
- Zmiana kulturowa: Obecnie posiadanie towarzysza AI może wciąż wiązać się z pewnym piętnem lub przynajmniej być czymś nowym. Jednak w przyszłości może się to stać znormalizowaną częścią życia. Tak jak randki online były kiedyś tematem tabu, a dziś są całkowicie powszechne, tak posiadanie „przyjaciela” AI czy nawet „wirtualnego kochanka” może stać się akceptowanym uzupełnieniem życia towarzyskiego. Będzie to zależało od postaw pokoleniowych – młodsi ludzie już teraz są na to bardziej otwarci. Badanie z 2024 roku wykazało, że 72% amerykańskich nastolatków przynajmniej raz wypróbowało aplikację z towarzyszem/chatbotem AI techcrunch.com instagram.com, co sugeruje, że następne pokolenie postrzega te interakcje z AI jako dość normalne. Możemy też zobaczyć pozytywne historie: towarzysze AI pomagający osobom autystycznym ćwiczyć sygnały społeczne lub dający wsparcie osobom w żałobie (niektórzy stworzyli boty naśladujące zmarłych bliskich, co jest kontrowersyjnym, ale interesującym przypadkiem użycia). Dylematy etyczne pozostaną, ale społeczeństwo często znajduje sposób na zaakceptowanie nowych technologii, gdy korzyści stają się widoczne.
- Szersza perspektywa: W pewnym sensie wzrost popularności towarzyszy AI zmusza nas do zmierzenia się z fundamentalnymi pytaniami o relacje i ludzkie potrzeby. Czego szukamy w towarzyszu? Czy chodzi o prawdziwe, wzajemne zrozumienie innego autonomicznego umysłu, czy po prostu o poczucie bycia zrozumianym? Jeśli to drugie, zaawansowana AI może dostarczyć to uczucie bez faktycznego bycia człowiekiem. Jak ujął to jeden z komentatorów, towarzysze AI oferują „stałą lojalność, której brakuje wielu ludzkim odpowiednikom” techpolicy.press techpolicy.press – nigdy nie znikają ani nie zdradzają. Ale także „nie mają sumienia” i ostatecznie są narzędziami zaprojektowanymi, by cię uszczęśliwić (lub utrzymać twoje zaangażowanie), a nie prawdziwymi, wzajemnymi relacjami techpolicy.press techpolicy.press. W przyszłości istnieje potencjał nadużyć w obu kierunkach: ludzie mogą bezkarnie nadużywać ultra-realistycznych „niewolników” AI, albo ludzie mogą stać się emocjonalnie zależni od AI i być wykorzystywani przez firmy. To scenariusze, które etycy i pisarze science fiction wyobrażali sobie od dekad; teraz zaczynamy je obserwować w rzeczywistości.
Podsumowując, Janitor AI i jego odpowiedniki reprezentują nową erę interakcji człowiek-komputer – taką, w której komputer nie jest już tylko narzędziem, ale odgrywa rolę przyjaciela, kochanka, muzy czy powiernika. Gwałtowny wzrost popularności tych platform pokazuje prawdziwy głód takich relacji. Oferują one ekscytację i pocieszenie milionom ludzi, ale jednocześnie wzbudzają niepokój dotyczący bezpieczeństwa i naszej relacji z technologią. W miarę jak towarzysze AI stają się coraz bardziej zaawansowani, społeczeństwo będzie musiało znaleźć równowagę między wykorzystaniem ich pozytywnego potencjału a ograniczaniem ryzyka. Czy kochankowie i przyjaciele AI to kolejna wielka innowacja w zakresie dobrostanu osobistego, czy też śliska droga do głębszej izolacji i etycznych dylematów? Historia wciąż się rozwija. Jasne jest, że rewolucja towarzyszy chatbotów – od nieocenzurowanego romansu Janitor AI po rozległe światy fantazji Character.AI – dopiero się zaczęła i będzie nadal zmieniać nasze postrzeganie relacji w erze sztucznej inteligencji. ts2.tech techpolicy.press
Źródła:
- Voiceflow Blog – „Janitor AI: What It Is + How To Use It [2025 Tutorial]” voiceflow.com voiceflow.com
- TS2 Tech – „Janitor AI: The Unfiltered Chatbot Revolution Hooking Millions (and Stirring Controversy)” ts2.tech ts2.tech ts2.tech ts2.tech
- Semafor – „The NSFW chatbot app hooking Gen Z on AI boyfriends” (Reed Albergotti & Louise Matsakis, 20 września 2023) semafor.com semafor.com
- Hackernoon – „Jan Zoltkowski: Wizjoner stojący za JanitorAI” hackernoon.com hackernoon.com hackernoon.com
- TechCrunch – „Aplikacja AI Character.ai dogania ChatGPT w USA” (Sarah Perez, 11 września 2023) techcrunch.com
- TS2 Tech – „Dlaczego wszyscy mówią o Character.AI w 2025 – Duże aktualizacje, nowy CEO i kontrowersje” ts2.tech ts2.tech ts2.tech
- NatLawReview – „Nowe pozwy przeciwko spersonalizowanym chatbotom AI…” (Dan Jasnow, 28 lipca 2025) natlawreview.com natlawreview.com
- TechPolicy.press – „Intymność na autopilocie: Dlaczego AI-towarzysze wymagają pilnych regulacji” techpolicy.press techpolicy.press techpolicy.press
- Wywiad SciLine – Dr. Jaime Banks o „towarzyszach” AI (14 maja 2024) sciline.org sciline.org
- Reuters – „Włochy zakazują chatbota AI Replika ze względu na bezpieczeństwo dzieci” (3 lutego 2023) reuters.com reuters.com
- Psychology Today – „5 sposobów, w jakie AI zmienia relacje międzyludzkie” (2023) psychologytoday.com