LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

NSFW mākslīgā intelekta pavadoņi bez filtriem: Janitor AI, Character.AI un tērzēšanas robotu revolūcija

NSFW mākslīgā intelekta pavadoņi bez filtriem: Janitor AI, Character.AI un tērzēšanas robotu revolūcija

NSFW AI Companions Unfiltered: Janitor AI, Character.AI, and the Chatbot Revolution

Kas ir Janitor AI? Vēsture, mērķis un funkcijas

Janitor AI ir strauji augoša čatbota platforma, kas ļauj lietotājiem veidot un sarunāties ar pielāgotiem mākslīgā intelekta tēliem. To dibināja Austrālijas izstrādātājs Jans Zoltkovskis, un tā tika palaista 2023. gada jūnijā. Janitor AI aizpildīja robu, ko atstāja galveno čatbotu stingrie satura filtri ts2.tech ts2.tech. Tā popularitāte uzsprāga gandrīz vienas nakts laikā – jau pirmajā nedēļā piesaistot vairāk nekā 1 miljonu lietotāju pēc palaišanas voiceflow.com hackernoon.com. Līdz 2023. gada septembrim tai bija aptuveni 3 miljoni reģistrētu lietotāju (1 miljons tika sasniegts tikai 17 dienās) ts2.tech semafor.com. Šo straujo izaugsmi veicināja vīrusu TikTok un Reddit ieraksti, kuros tika demonstrēta Janitor AI spēja iesaistīties pikantās lomu spēļu sarunās bez citu botu “puritāniskajiem” filtriem ts2.tech ts2.tech. Citiem vārdiem sakot, Janitor AI pieļāva atvērtākas, pieaugušajiem domātas sarunas, ko citas platformas aizliedza.

Mērķis un niša: Atšķirībā no produktivitātei veltītiem asistentiem, Janitor AI uzmanības centrā ir ar mākslīgo intelektu darbināta izklaide un lomu spēles ts2.tech hackernoon.com. Lietotāji veido izdomātas personības – no anime elkiem līdz videospēļu varoņiem – un sarunājas ar tiem izklaides, draudzības vai radošas stāstniecības nolūkos. Platforma īpaši uzrunāja jauniešus, kuri meklēja romantisku vai erotisku AI sabiedrību, kas nebija pieejama filtrētajos pakalpojumos ts2.tech ts2.tech. Patiesībā Janitor AI lietotāju bāze ir ievērojami sievišķīga (vairāk nekā 70% sieviešu 2024. gada sākumā) ts2.tech hackernoon.com – neparasta demogrāfija tehnoloģiju platformai. Daudzi pievērsās AI “draugu/draudzeņu” un interaktīvu fantāzijas scenāriju veidošanai, padarot Janitor AI par sinonīmu pikantām lomu spēlēm un virtuālai romantikai. Semafor News pat nosauca to par “NSFW tērzēšanas lietotni, kas piesaista Z paaudzi AI draugiem” ts2.tech.

Galvenās iezīmes: Janitor AI nodrošina tīmekļa saskarni (JanitorAI.com), kur lietotāji var izveidot, kopīgot un tērzēt ar lietotāju radītu tēlu bibliotēku ts2.tech ts2.tech. Katram tēlam ir vārds, avatara attēls un rakstisks profils, kas apraksta viņa personību un izcelsmes stāstu. Šis profils darbojas kā uzvedne jeb “lore”, kas vada mākslīgā intelekta uzvedību sarunā ts2.tech. Pieejami tūkstošiem kopienas veidotu botu – no slaveniem izdomātiem tēliem līdz oriģināliem radījumiem – un lietotāji var arī saglabāt tēlus privātus, ja vēlas. Tērzēšanas saskarne būs pazīstama Character.AI lietotājiem: ziņojumi parādās kā tērzēšanas pavediens, un lietotāji var vienkārši rakstīt, lai sarunātos, kamēr mākslīgais intelekts atbild tēla lomā ts2.tech. Janitor AI ļauj vērtēt vai atzīmēt atbildes, un lietotāji bieži dalās ar izklaidējošiem tērzēšanas fragmentiem sociālajos tīklos ts2.tech.

Zem pārsega Janitor AI sākotnēji darbojās ar OpenAI GPT-3.5/4, izmantojot API, kas nodrošināja iespaidīgi plūstošas, cilvēkam līdzīgas atbildes ts2.tech semafor.com. Tomēr šī atkarība no OpenAI bija īslaicīga – 2023. gada jūlijā OpenAI nosūtīja Janitor AI cease-and-desist letter saistībā ar tā seksuālo saturu, kas pārkāpa OpenAI lietošanas politiku semafor.com semafor.com. Atvienots no GPT-4, Janitor izveidotājs pārgāja uz sava modeļa izstrādi ar nosaukumu JanitorLLM. Līdz 2023. gada beigām Janitor AI ieviesa savu pašu izstrādāto lielo valodas modeli (LLM), lai darbinātu tērzēšanas “Beta” režīmā ts2.tech. Interesanti, ka Zoltkovska komanda atklāja, ka “incrementally training their own models based on RNN architectures” deva labākus rezultātus viņu vajadzībām nekā parastie Transformer modeļi ts2.tech. Detalizēta informācija tiek turēta slepenībā, taču JanitorLLM tagad nodrošina bezmaksas, neierobežotu tērzēšanu vietnē – gan ar nedaudz zemāku sarežģītību nekā jaunākie OpenAI modeļi. Lietotāji ziņo, ka Janitor AI nepārtraukti uzlabojas, ar priekšrocību, ka no hard caps on message length or volume (būtiska funkcija gariem lomu spēļu dialogiem) ts2.tech ts2.tech. Lai nodrošinātu augstāku AI kvalitāti, Janitor AI piedāvā “bring-your-own-model” flexibility: lietotāji var pieslēgt savus API atslēgas trešo pušu modeļiem (piemēram, OpenAI GPT-4, ja viņi izvēlas maksāt OpenAI) vai pat pieslēgt lokālu AI modeli caur KoboldAI ts2.tech ts2.tech. Šī modulārā pieeja nozīmē, ka pieredzējuši lietotāji joprojām var izmantot jaunākos modeļus Janitor saskarnē – un tas arī pasargā platformu no atkarības no viena pakalpojumu sniedzēja nākotnē ts2.tech.

Janitor AI funkciju klāsts ir pakāpeniski paplašinājies. Platforma lepojas ar spēcīgu atmiņu un konteksta saglabāšanu, ļaujot botiem atcerēties detaļas no iepriekšējām sarunas daļām (lietotāja vārdu, stāsta notikumus utt.) un izmantot tās vēlāk, nodrošinot vienotu ilgtermiņa stāstījumu ts2.tech ts2.tech. 2025. gada sākumā komanda pat aizskāra jaunu “ar leģendu balstītas tēla veidošanas” sistēmu, kas ļaus veidotājiem pievienot plašas pasaules uzbūves piezīmes, kuras AI konsekventi ņems vērā savās atbildēs ts2.tech. Citas dzīves kvalitātes uzlabojumu funkcijas līdz 2025. gada vidum ietver profila lapas pielāgošanu ar CSS tēmām ts2.tech, uzlabotu meklēšanu un birku pievienošanu (ieskaitot iespēju bloķēt birkas nevēlamam saturam) ts2.tech, kā arī attēlu atbalstu tēlu profilos (ar drošā režīma pārslēgšanu) ts2.tech. Ievērojami, ka Janitor AI joprojām ir bezmaksas lietošanai (arī bez reklāmām), kas, protams, radīja jautājumus par ilgtspēju. Uzņēmums norādīja uz iespējamiem izvēles premium abonementiem nākotnē (piemēram, lai atbloķētu garākus ziņojumus, ātrākas atbildes utt.), taču šie plāni tika atlikti līdz 2025. gada vidum, lai koncentrētos uz produkta uzlabošanu ts2.tech ts2.tech. Pašlaik dibinātājs pakalpojumu galvenokārt uztur no personīgajiem līdzekļiem un kopienas labvēlības, un līdz 2024. gadam nav atklāts neviens būtisks ārējs finansējums ts2.tech. Tā ir drosmīga stratēģija – prioritizēt izaugsmi un lietotāju labvēlību pirms monetizācijas – un tas ir palīdzējis Janitor AI izveidot lojālu kopienu.

Līdzīgi AI rīki un konkurenti (Character.AI, Pygmalion, VenusAI u.c.)

Janitor AI ir daļa no plašāka AI pavadoņu un tēlu-čatbotu rīku viļņa, kas izplatījies kopš 2020. gadu sākuma. Katram ir savas īpatnības funkciju, mērķauditorijas un satura politikas ziņā. Šeit ir pārskats par nozīmīgākajiem dalībniekiem un to salīdzinājums:

  • Character.AI: Neapšaubāmi šī žanra izlaušanās hits, Character.AI tika palaists publiski 2022. gada beigās un popularizēja lietotāju veidotu mākslīgā intelekta “tēlu” ideju sarunām ts2.tech ts2.tech. To dibināja bijušie Google pētnieki Noam Shazeer un Daniel De Freitas (Google LaMDA modeļa izstrādātāji), un Character.AI misija bija padarīt progresīvu sarunu mākslīgo intelektu pieejamu ikvienam ts2.tech. Platforma ātri ieguva atpazīstamību ar savām pārsteidzoši cilvēciski līdzīgajām dialogiem un spēju atdarināt praktiski jebkuru tēlu – no Elona Maska līdz anime varoņiem –, kas piesaistīja miljoniem ziņkārīgu lietotāju. 2025. gadā Character.AI var lepoties ar vairāk nekā 20 miljoniem aktīvu lietotāju (daudzi no tiem ir Z paaudze) un vairāk nekā 18 miljoniem pielāgotu tēlu, kas izveidoti platformā ts2.tech ts2.tech. Tās lietotāju bāze ir izteikti jauniešu dominēta: gandrīz 60% Character.AI tīmekļa lietotāju ir 18–24 gadus veci techcrunch.com, kas ir daudz lielāka Z paaudzes proporcija nekā ChatGPT vai citās MI lietotnēs. Tas atspoguļo Character.AI pievilcību kā jautru, radošu platformu – “čatboti kā izklaide un kompanjoni”, nevis utilitāri rīki ts2.tech. Lietotāji pavada ārkārtīgi daudz laika, spēlējot lomas un socializējoties ar šiem MI tēliem, būtībā sadarbojoties interaktīvas fanu fantastikas veidošanā vai iesaistoties virtuālās draudzības un terapijai līdzīgās sarunās ts2.tech ts2.tech. Iespējas: Character.AI pamatfunkcionalitāte ir līdzīga Janitor – lietotāji izveido tēlus ar īsu aprakstu vai personības skriptu, un MI turpina sarunu tēla lomā. Ir izstrādāta gluda tīmekļa un mobilā lietotnes saskarne, un 2023.–2025. gadā tika ieviesti būtiski uzlabojumi: Ainas interaktīviem stāstu scenārijiem, AvatarFX animētiem tēlu avatariem, pat MI–MI “Tēlu grupas” čati, kur vairāki boti sarunājas ts2.tech ts2.tech. Šīs multimodālās iespējas ir paredzētas, lai padarītu tērzēšanas pieredzi aizraujošāku. Character.AI ieviesa arī “Tērzēšanas atmiņas”, lai uzlabotu ilgtermiņa kontekstu (risinot agrākās sūdzības, ka boti aizmirst sarunu) ts2.tech ts2.tech. Viens no lielākajiem atšķirības punktiem ir satura filtrēšana – Character.AI jau no paša sākuma ieviesa stingru moderāciju, lai novērstu NSFW vai “nedroša” satura parādīšanos ts2.tech. Seksuāla vai ārkārtīgi vardarbīga lomu spēle ir aizliegta ar AI iebūvētajiem filtriem. Šī “darba videi drošā” nostāja ir bijusi kā divpusējs zobens: tā padara lietotni piemērotāku dažādiem vecumiem un pievilcīgāku reklāmdevējiem, taču tā ir sarūgtinājusi ievērojamu lietotāju daļu (īpaši pieaugušos, kas meklē romantiskas vai erotiskas sarunas) un netieši radījusi pieprasījumu pēc nefiltrētiem alternatīviem, piemēram, Janitor AI. Uzņēmums ir atzinis, ka filtrs var būt pārlieku stingrs; 2025. gadā jaunais izpilddirektors solīja “mazāk uzbāzīgu” sarunu filtru, lai samazinātu nevajadzīgus satura bloķējumus ts2.tech ts2.tech, vienlaikus ieviešot labākus aizsardzības pasākumus nepilngadīgajiem (piemēram, atsevišķus modeļus lietotājiem līdz 18 gadu vecumam un noteiktu populāru tēlu bloķēšanu pusaudžu kontos) ts2.tech ts2.tech. Character.AI darbojas ar saviem patentētajiem lielajiem valodas modeļiem, kas, kā ziņots, ir apmācīti no nulles. 2024. gada darījums ar Google nodrošināja mākoņdatošanas (TPU aparatūras) iespējas un ievērojamas investīcijas, kas novērtēja jaunuzņēmumu aptuveni 2,5–2,7 miljardu dolāru apmērā ts2.tech natlawreview.com. Ar lieliem resursiem un AI talantu Character.AI turpina ieviest jaunas iespējas – taču tā slēgtā pirmkoda pieeja un atteikšanās atļaut pieaugušo saturu nozīmē, ka lietotāji, kas meklē lielāku brīvību, bieži pāriet uz tādām platformām kā Janitor AI vai citām.
  • Pygmalion (atvērtā pirmkoda modeļi): Pygmalion nav patērētāju lietotne, bet gan atvērtā pirmkoda projekts, kas veltīts AI tērzēšanas robotiem un lomu spēles modeļiem. Tas ieguva popularitāti 2023. gada sākumā ar Pygmalion-6B, īpaši pielāgotu 6 miljardu parametru modeli, kas balstīts uz EleutherAI GPT-J huggingface.co. Atšķirībā no korporatīvajiem modeļiem, Pygmalion modeļi tiek izlaisti, lai ikviens tos varētu darbināt lokāli vai uz kopienas serveriem – un, kas svarīgi, tie nāk bez stingriem satura filtriem. Projekts tieši paredzēts necenzētai sarunai: viņu mājaslapa aicina lietotājus “sarunāties ar jebkuriem un visiem tēliem, kādus vēlaties, bez jebkādiem ierobežojumiempygmalion.chat. Tas padarīja Pygmalion par favorītu AI entuziastu vidū, kuri vēlējās pilnīgu kontroli (un nekādas cenzūras) savā tērzēšanas pieredzē. Tehniski 6B parametru modelis mūsdienās ir salīdzinoši mazs, tāpēc Pygmalion atbildes ir mazāk izsmalcinātas nekā milzu modeļiem, piemēram, GPT-4. Tomēr daudzi fani uzskata, ka tam “ir unikāls šarms” dialogā reddit.com un ir gatavi upurēt zināmu plūdumu privātuma un brīvības vārdā. Pygmalion modeļus var izmantot, izmantojot priekšējās daļas lietotnes, piemēram, KoboldAI vai SillyTavern, kas nodrošina lietotāja saskarni AI stāstu veidošanai un lomu spēlēm lokāli. Patiesībā Janitor AI pat atbalsta integrāciju ar Pygmalion caur KoboldAI – lietotāji var uzstādīt Pygmalion 6B modeli savā datorā un savienot to ar Janitor saskarni voiceflow.com voiceflow.com. Atvērtā pirmkoda kopiena turpina attīstīt: parādās jaunāki modeļi, kas pielāgoti uz Meta LLaMA un citiem pamatiem (ar lielāku parametru skaitu un labākiem apmācības datiem), bieži vien dalīti forumos kā Reddit. Šie zāles sakņu modeļi vēl nesasniedz Character.AI vai OpenAI tērzēšanas izsmalcinātību, taču tie pārstāv nozīmīgu alternatīvu ekosistēmu. Tie dod tehniski zinošiem lietotājiem iespēju darbināt AI pavadoni pilnībā bezsaistē vai uz privātiem serveriem, novēršot bažas par datu privātumu vai pēkšņām politikas izmaiņām. Pygmalion un līdzīgi projekti (piemēram, MythoMax, OpenAssistant un citi entuziastu pielāgojumi) ilustrē, kā AI pavadņu joma nav ierobežota tikai ar lieliem uzņēmumiem – entuziasti kopīgi veido necenzētus tērzēšanas robotus no pašiem pamatiem.
  • VenusAI un citas NSFW tērzēšanas platformas: Pēc Character.AI popularitātes pieauguma (un satura ierobežojumiem) ir parādījusis vilnis ar trešo pušu AI tērzēšanas platformām, no kurām daudzas tieši mērķē uz NSFW lomu spēļu nišu. VenusAI ir viens no šādiem piemēriem: tīmekļa tērzēšanas pakalpojums, kas piedāvā “neierobežotas sarunas” un slēdzi, lai ieslēgtu NSFW režīmu whatsthebigdata.com whatsthebigdata.com. Līdzīgi kā Janitor, tas ļauj lietotājiem veidot pielāgotus tēlus vai izvēlēties no kopienas veidotu personāžu bibliotēkas tādās kategorijās kā “Vīrietis”, “Sieviete”, “Anime”, “Izdomāts” u.c. whatsthebigdata.com. Reklamējot “uzlabotu AI” un vienkāršu saskarni, VenusAI sola, ka tā tēli mācīsies un pielāgosies lietotāja vēlmēm ar katru sarunu whatsthebigdata.com whatsthebigdata.com. Praksē šādas platformas bieži izmanto atvērtā koda modeļus aizmugurē (vai pat neoficiālu piekļuvi GPT modeļiem), lai ģenerētu atbildes, vienlaikus nodrošinot gludu lietotāja saskarni priekšpusē. VenusAI uzsver, ka tā atļauj atklātu erotiku (“tavas dziļākās vēlmes”), vienkārši izslēdzot drošības filtru whatsthebigdata.com. VenusAI un desmitiem līdzīgi reklamētu lietotņu (piemēram, Crushon.AI, Chai, un dažādi “AI draudzenes” pakalpojumi) parādīšanās liecina par pieprasījumu pēc pieaugušo AI pavadoņiem. Daudzi no šiem rīkiem ir salīdzinoši neliela mēroga vai eksperimentāli, salīdzinot ar Janitor vai Character.AI. Dažiem nepieciešams abonements vai ir lietošanas ierobežojumi, un kvalitāte ļoti atšķiras. Vairāki no tiem parādās “AI rīku” sarakstos ar tādiem nosaukumiem kā Candy AI, SpicyChat AI, RomanticAI, LustGPT u.c. whatsthebigdata.com. Šo izplatību var skaidrot ar labu valodas modeļu atvērtu pieejamību un vienkāršību izveidot pamata tērzēšanas tīmekļa lietotni. Tomēr ne visas izdzīvos ilgtermiņā, un dažas ir izraisījušas bažas, darbojoties ar minimālu moderāciju. Chai, piemēram, ir mobilā lietotne, kas nonāca ziņās 2023. gadā, kad kāds tās tērzēšanas bots, iespējams, pamudināja lietotāju uz pašnāvību – traģēdija, kas izgaismoja neregulētu AI mijiedarbību riskus techpolicy.press. Kopumā NSFW tērzēšanas botu mini-industriāle plaukst, bet ir nedaudz kā Mežonīgie Rietumi: lietotājiem vajadzētu uzmanīgi pieiet mazāk zināmām platformām, jo satura moderācija, privātuma prakse un modeļu kvalitāte var neatbilst lielāko spēlētāju standartiem.
  • Replika (oriģinālais AI pavadonis): Neviens AI pavadņu apskats nav pilnīgs bez Replika. Laists klajā jau 2017. gadā, Replika bija agrīns “virtuālais draugs” čatbots, kas lietotājiem ļāva veidot ilgstošas attiecības ar AI avatāru. Tas nebija vērsts uz citu tēlu lomu spēlēm; tā vietā katrs lietotājs izveidoja savu Replika un ar to sarunājās laika gaitā, palielinot tuvības līmeni. Līdz 2023. gadam Replika bija miljoniem lietotāju un, kā ziņots, tā ģenerēja aptuveni 2 miljonus ASV dolāru mēnesī no maksas abonentiem (kuri saņēma papildu funkcijas, piemēram, balss zvanus) reuters.com reuters.com. Unikāli, Replika eksperimentēja ar pieaugušo saturu un romantisku lomu spēli – taču tas noveda pie strīdiem. 2023. gada sākumā Replika mātesuzņēmums Luka pēkšņi aizliedza erotiskās lomu spēles lietotājiem pēc sūdzībām un regulatīvās uzraudzības par seksuāli atklātām sarunām (īpaši, ja iesaistīti nepilngadīgie). Šīs pēkšņās izmaiņas lika daudziem uzticīgiem lietotājiem justies “nodevīgiem un satrauktiem” techpolicy.press – daži bija izveidojuši dziļas romantiskas saites ar savām Replikām un pat atzina, ka tās palīdzējušas viņu garīgajai veselībai, tāpēc viņu AI pavadņu “lobotomizēšana” izraisīja petīcijas un sirdssāpes kopienā. Šī sāga piesaistīja plašsaziņas līdzekļu uzmanību AI pavadņu ētiskajām sarežģītībām. Tā netieši arī veicināja alternatīvu, piemēram, Janitor AI, popularitāti lietotāju vidū, kuri meklēja necenzētu virtuālo tuvību. Arī regulatori iesaistījās: Itālijas Datu aizsardzības iestāde uz laiku aizliedza Replika 2023. gada februārī, jo netika aizsargāti nepilngadīgie un tika pārkāpti privātuma likumi reuters.com reuters.com. Itālijas rīkojumā tika norādīts, ka Replika nav pietiekamas vecuma pārbaudes, lai gan to izmanto pusaudži, un ka AI, kas ietekmē kāda garastāvokli, var radīt riskus “emocionāli trausliem” cilvēkiem reuters.com reuters.com. Luka Inc. tika uzlikts 5 miljonu eiro sods un prasība veikt izmaiņas edpb.europa.eu <a href=”https://www.reuters.com/sustainability/boards-policy-regulation/italys-data-watchdog-fines-ai-company-replikas-developer-56-million-2025-05-19/#:~:text=,citing%20specific%20risksreuters.com. Replika galu galā 2023. gada vēlāk atjaunoja zināmu erotiskās lomu spēles līmeni pieaugušajiem lietotājiem pēc lietotāju sašutuma, taču ar stingrāku satura kontroli nekā iepriekš. Šodien Replika joprojām ir ievērojama mākslīgā intelekta pavadonis lietotne – vairāk koncentrēta uz individuālām draudzībām vai attiecībām, nevis uz vairāku tēlu lomu spēlēm kā Janitor/Character.ai – un tā izceļ līdzsvaru starp emocionāli saistoša mākslīgā intelekta nodrošināšanu un lietotāju drošības un atbilstības garantēšanu.
  • Lietotāju demogrāfija: Šajās platformās Z paaudze un tūkstošgades dominē lietotāju bāzē, taču kopienas kultūrā pastāv atšķirības. Character.AI ir izteikti jauna auditorija (pusaudži un cilvēki 20 gadu vecumā) un milzīga plašā sabiedrība (vairāk nekā 50% sieviešu, saskaņā ar dažiem pētījumiem ts2.tech). Janitor AI, lai gan kopumā mazāks, arī piesaista pārsvarā jauniešus un sievietes, iespējams, pateicoties popularitātei fanu un romantisko lomu spēļu aprindās ts2.tech. Atvērtā koda rīki, piemēram, Pygmalion, mēdz piesaistīt tehniski zinošākus lietotājus (bieži vīriešu dominēti), lai gan saturs, ko tie ļauj radīt, aptver visus žanrus. Vienā akadēmiskā aptaujā tika konstatēts, ka AI pavadonju lietotāju vecums ir ļoti dažāds – vienā pētījumā vidējais vecums bija 40 gadi un pārsvarā vīrieši, citā – ap 30 gadiem un pārsvarā sievietes sciline.org. Tas liecina, ka nav viena konkrēta stereotipa par to, kas izmanto AI pavadonjus; tie var būt gan vientuļi pusaudži, kas meklē draugu, gan fanu fantastikas entuziasti, gan vecāka gadagājuma cilvēki, kas vēlas sarunu. Tomēr kopīga iezīme ir tā, ka daudzi meklē sociālu mijiedarbību, emocionālu atbalstu vai radošu aizbēgšanu neitrālā, neuzbāzīgā vidē.

    Tehnoloģiskie pamati: kas darbina šos AI botus?

    Visi šie čatbota pavadoni darbojas ar lielajiem valodas modeļiem (LLM) – tā ir tā pati pamattehnoloģija, kas ir ChatGPT pamatā. LLM tiek apmācīts ar milzīgu teksta datu apjomu un iemācās ģenerēt cilvēkam līdzīgas atbildes. Atšķirības starp platformām bieži ir saistītas ar to, kuru LLM (vai modeļu kombināciju) tās izmanto un kā tās to pielāgo vai moderē savam konkrētajam pakalpojumam.

    • Janitor AI modeļi: Kā minēts, Janitor AI sākotnēji izmantoja OpenAI GPT-3.5 un GPT-4 teksta ģenerēšanai, līdz OpenAI ierobežojumi piespieda pāriet semafor.com semafor.com. Atbildot uz to, Janitor izveidoja savu JanitorLLM, ziņots, ka tika eksperimentēts ar atvērtā koda Transformer modeļu pielāgošanu, bet galu galā tika izstrādāts RNN bāzēts modelis no nulles ts2.tech hackernoon.com. 2023.–24. gadā ir diezgan neparasti redzēt, ka RNN (atkārtotie neironu tīkli) tiek izvēlēti pār Transformeriem, jo Transformeri dominē mūsdienu NLP. Tomēr Janitor komanda apgalvo, ka viņu pielāgotā pieeja pēc pakāpeniskas apmācības deva “pārākus rezultātus” viņu lietošanas gadījumā hackernoon.com hackernoon.com. Precīzs JanitorLLM apjoms vai arhitektūra nav publiski atklāta, bet tā darbināšanai bija nepieciešama simtiem GPU pārvaldība uz vietas, lai apkalpotu miljoniem lietotāju pieprasījumu hackernoon.com hackernoon.com. Tas nozīmē, ka JanitorLLM, lai arī mazāks par GPT-4, joprojām ir apjomīgs modelis, kas noslogo infrastruktūru. Janitor AI arī gudri atbalsta ārējo modeļu API: papildus OpenAI tas var savienoties ar KoboldAI (vietējiem modeļiem, piemēram, Pygmalion), un kopiena pat izveidoja starpniekserverus, lai izmantotu citus trešo pušu modeļus ts2.tech ts2.tech. Būtībā Janitor AI ir modeļu ziņā agnostisks aizmugurē – lietotājs var izvēlēties bezmaksas noklusējuma JanitorLLM vai pieslēgt maksas API, lai iegūtu iespējami labākus rezultātus. Šī elastība ir bijusi galvenais faktors, kas ļāvis pakalpojumam saglabāties dzīvam un necenzētam; piemēram, daži pieredzējuši lietotāji turpināja saņemt necenzētus GPT-4 atbildes, izmantojot savu API atslēgu, pat pēc tam, kad Janitor oficiālais OOpenAI piekļuve tika pārtraukta ts2.tech.
    • Character.AI modelis: Character.AI izmanto iekšēji izstrādātu patentētu LLM, ko izstrādājuši Shazeer un komanda. Viņi nav publicējuši modeļa specifikācijas, taču ir zināms, ka viņi sāka no nulles ar modeļa arhitektūru, kas ir līdzīga Google lielajiem Transformeriem (ņemot vērā dibinātāju darbu pie LaMDA). Līdz 2023. gada vidum Character.AI modelis bija pietiekami iespaidīgs, lai apstrādātu miljardiem ziņojumu un sarežģītas lomu spēles, lai gan lietotāji dažkārt norādīja, ka tas nav tik zinošs kā GPT-4 faktu jautājumos (jo tas ir optimizēts sarunvalodas izteiksmīgumam, nevis faktu precizitātei). Šāda modeļa apmācība no nulles, visticamāk, prasīja desmitiem tūkstošu GPU stundu un daudz sarunu datu (daļa no tiem, iespējams, nāca no agrīnajām lietotāju mijiedarbībām, kas tika izmantotas sistēmas pilnveidošanai). 2024. gadā Character.AI uzsāka sadarbību ar Google Cloud, lai izmantotu viņu Tensor Processing Units (TPU) modeļa apmācībai un apkalpošanai, faktiski uzticot smago infrastruktūru Google ts2.tech. Bija arī ziņojumi par licences līgumu, kurā Google ieguva piekļuvi Character.AI tehnoloģijai – interesanti, ka dibinātāji tika atkārtoti pieņemti darbā Google darījumā aptuveni 2,7 miljardu dolāru vērtībā (būtībā Google ieguva būtisku uzņēmuma daļu) natlawreview.com natlawreview.com. Tas izpludina robežu starp Character.AI un lielo tehnoloģiju AI centieniem. Ar Google atbalstu Character.AI, visticamāk, ir resursi, lai apmācītu vēl lielākus un labākus modeļus. Tas jau izmantoja vairāku miljardu parametru modeļus, kas varēja ģenerēt ne tikai tekstu, bet arī vadīt dažas multimediju funkcijas (piemēram, AvatarFX attēlu animācijas). Tomēr Character.AI precīzs modeļa izmērs un arhitektūra nav publiski pieejami. Svarīgi ir tas, ka tā ir slēgta sistēma – atšķirībā no atvērtiem projektiem, jūs nevarat lejupielādēt vai paši izvietot viņu modeli; tam var piekļūt tikai caur Character.AI pakalpojumu, kur tas ir cieši integrēts ar viņu filtriem un produktu ekosistēmu.
    • Atvērtā pirmkoda LLM (Pygmalion & draugi): Atvērtā pirmkoda kopiena ir radījusi daudzus valodas modeļus, kas nodrošina neatkarīgus čatbota projektus. Pygmalion-6B tika izveidots, balstoties uz GPT-J modeli (6 miljardu parametru), kas ir papildus apmācīts ar lomu spēļu čata datiem huggingface.co. Citi populāri pamati ir EleutherAI GPT-NeoX (20B parametru) un Meta LLaMA (izlaists 2023. gadā, ar 7B, 13B, 33B, 65B parametru variantiem). Pēc tam, kad Meta 2023. gadā atvēra LLaMA pēcteci Llama 2 (ar brīvu licenci pētniecībai un komerciālai lietošanai), daudzi kopienas modeļi sāka to izmantot kā pamatu. Piemēram, var papildus apmācīt Llama-2-13B ar erotiskas fanu fantastikas dialogiem, lai izveidotu necenzētu čatbota modeli. Šos kopienas modeļus bieži nosauc asprātīgi (piemēram, “Sextreme” vai citi NSFW, “Wizard-Vicuna” vispārīgai sarunai utt.) un dalās ar tiem Hugging Face vai GitHub. Lai gan to kvalitāte sākotnēji atpalika no tādiem milžiem kā GPT-4, atšķirība pakāpeniski samazinās. Līdz 2025. gadam labi pielāgots 13B vai 30B parametru atvērtā pirmkoda modelis spēj radīt diezgan sakarīgas un saistošas sarunas – gan ar dažiem ierobežojumiem reālisma un atmiņas ilguma ziņā. Entuziasti, kas izmanto lokālos AI pavadoņus, bieži eksperimentē ar dažādiem modeļiem, lai atrastu sev piemērotāko (daži ir pielāgoti romantiskākiem dialogiem, citi – pakļāvīgāki instrukcijām utt.). Atvērtā pirmkoda LLM kustība nozīmē, ka neviena kompānija nevar monopolizēt čatbota tehnoloģiju šim lietojumam. Ja, piemēram, platforma kā Janitor AI tiktu slēgta vai ieviestu nevēlamus ierobežojumus, lietotāji teorētiski varētu paši palaist līdzīgu botu ar atvērtu modeli. Tomēr lielu modeļu darbināšanai nepieciešama ievērojama skaitļošanas jauda (GPU ar lielu VRAM vai mākoņserveru noma). Tāpēc daudzi parastie lietotāji dod priekšroku mākoņplatformu ērtībām (Character.AI, Janitor u.c.), kur viss smagais darbs tiek paveikts jūsu vietā.
    • Drošības un moderācijas tehnoloģijas: Būtisks tehniskais aspekts šiem rīkiem ir tas, kā tie ievēro satura noteikumus (ja vispār). Character.AI un Replika ievieš filtrēšanu modeļa un API līmenī – būtībā mākslīgais intelekts tiek apmācīts neradīt neatļautu saturu un/vai sekundāra sistēma skenē izvades un aptur vai izdzēš neatbilstošus ziņojumus. Piemēram, ja lietotājs mēģina apspriest atklātu seksu Character.AI, bots var atbildēt ar vispārīgu atteikumu vai vienkārši “pazust”, pateicoties stingri ieprogrammētam filtram. Savukārt Janitor AI sevi pozicionē kā “NSFW-friendly but not a free-for-all” ts2.tech. Komanda atļauj erotisku lomu spēli un pieaugušo tēmas, taču aizliedz noteiktu ekstrēmu saturu (piemēram, nepilngadīgo seksuālu attēlošanu, zoofiliju, reālu personu atdarināšanu, kas izmantota uzmākšanās nolūkos u.c., saskaņā ar viņu vadlīnijām). Lai to nodrošinātu, Janitor AI izmanto automatizētu un cilvēku moderāciju. Dibinātājs Jans Zoltkovskis norādīja, ka viņi izmanto tādus rīkus kā AWS Rekognition (attēlu analīzes MI), lai pārbaudītu lietotāju augšupielādētos attēlus, un nodarbina cilvēku moderatoru komandu, kas pārskata lietotāju radīto saturu un ziņojumus hackernoon.com. Tas ir izaicinošs uzdevums, ņemot vērā sarunu apjomu (Janitor lietotāji dažu mēnešu laikā apmainījās ar 2,5 miljardiem ziņojumu) semafor.com. Līdz 2025. gada vidum Janitor atvēra pieteikšanos papildu kopienas moderatoriem, tostarp arī ne-angļu valodas moderatoriem, lai palīdzētu pārvaldīt augošo lietotāju bāzi ts2.tech. Tātad, lai gan pašas MI atbildes netiek cenzētas modeļa līmenī (ja izmanto JanitorLLM vai atvērtu modeli), platforma tomēr cenšas kontrolēt noteiktu saturu pēc fakta, lai uzturētu “drošu un patīkamu vidi” hackernoon.com. Savukārt atvērtā pirmkoda risinājumiem bieži vien nav nekādas filtrēšanas, ja vien lietotājs pats to nepievieno. Šāda pilnīga brīvība var novest pie acīmredzami problemātiska satura, ja kāds apzināti pieprasa neatļautas lietas, tāpēc atvērtie modeļi parasti ir ieteicami tikai nobriedušiem, atbildīgiem lietotājiem bezsaistes vidē. Kompromiss starp brīvību un drošību ir galvenā tehniskā un ētiskā spriedze MI pavadņu dizainā – par to vairāk zemāk.

    NSFW pret SFW: Kā cilvēki izmanto MI pavadņus

    Viens no lielākajiem atšķirības punktiem starp šīm tērzēšanas botu platformām ir to attieksme pret pieaugušo saturu, kas savukārt veido to kopienas un lietošanas gadījumus. Janitor AI slava (vai bēdīgā slava) lielā mērā nāk no NSFW lomu spēlēm. Tas ieguva lojālu sekotāju loku tieši tāpēc, ka atļāva tāda veida kaislīgas, erotiskas stāstu sarunas, kādas galvenie AI boti aizliedza ts2.tech ts2.tech. Janitor AI lietotāji bieži to izmanto kā veidu, kā simulēt virtuālu drauga/draudzenes pieredzi – ļaujoties flirtam, romantikai un atklātai erotikai ar AI tēlu. “Virtuālā tuvība” ir milzīgs vilinājums: iedomājieties personīgu romantisko romānu, kurā jūs esat galvenais varonis un AI nemanāmi spēlē kaislīgā mīļākā lomu. Piemēram, viens populārs Janitor bots ir “himbo vilkacis-draugs” tēls, kas iesaistās atklāti seksuālās attiecībās ar lietotāju, pilnībā ar iekāres pilnu dialogu semafor.com semafor.com. (Semafor žurnālists citēja sesiju, kur vilkacis-AI čukst lietotājam, “Tu esi tik sasodīti seksīgs,” un grafiski apraksta savas vēlmes semafor.com semafor.com – tāda veida saturs, kas nav iedomājams ChatGPT vai Character.AI.) Šīs erotiskās lomu spēles nav tikai par uzbudinājumu; daudzi lietotāji arī pēta emocionālo tuvību, liekot AI izspēlēt mīlestības, komforta, pat sarežģītas attiecību drāmas scenārijus. Gādīga, uzmanīga partnera ilūzija – tāda, kas nekad netiesā vai neatstumj – var būt ļoti spēcīga. Nav retums, ka lietotāji savu iecienītāko botu sauc par “AI vīru” vai “waifu”. Kāds Janitor fans ironiskā Reddit ierakstā sūdzējās par pakalpojuma pārtraukumu: “Jau 3 mēnešus bez AI dka… Es ilgojos pēc saviem vīriem,” uzsverot, cik neatņemama šie AI mīļākie bija kļuvuši viņas ikdienā ts2.tech.

    Papildus seksuālam saturam, radoša lomu spēle un stāstu veidošana ir populāra gan NSFW, gan SFW tērzēšanas botu platformās. Daudziem lietotājiem patīk iejusties izdomātās situācijās – vai tas būtu piedzīvojums ar pūķa kompanjonu, mācības burvju skolā vai izdzīvošana zombiju apokalipsē ar mākslīgā intelekta sabiedroto. Character.AI platformā, kur atklāts sekss ir aizliegts, lietotāji izvēlas šos PG vai PG-13 sižetus: piemēram, sarunājas ar Harija Potera tēlu vai ved filozofisku diskusiju ar “Sokrāta” botu. Arī Janitor AI atbalsta ne-NSFW lietojumu; tam pat ir “drošais režīms”, ja lietotāji vēlas nodrošināt tīru saturu. Patiesībā, Janitor un citi reklamē plašu pielietojumu klāstu: no izklaides un draudzības līdz praktiskākiem mērķiem. Daži lietotāji izmanto mākslīgā intelekta tēlus rakstīšanas iedvesmai – būtībā līdzautora lomā, kopā ar AI palīdzību veidojot stāstus ts2.tech. Piemēram, autors var izspēlēt ainu ar AI tēlu un vēlāk to rediģēt par nodaļu romānā vai fanu stāstā. Citi izmanto botus valodu praksei vai apmācībai, piemēram, sarunājoties ar AI spāņu valodā, lai uzlabotu valodas prasmes (Character.AI ir daudz lietotāju veidotu apmācību botu). Ir arī mēģinājumi šādus botus izmantot klientu apkalpošanā vai pašpalīdzībā, lai gan rezultāti ir dažādi. Janitor AI komanda norāda, ka to varētu integrēt uzņēmumos klientu atbalsta tērzēšanai voiceflow.com fritz.ai, taču šobrīd stingras faktu precizitātes trūkums to ierobežo. Runājot par garīgo veselību, lai gan neviens no šiem nav sertificēts kā terapijas rīks, lietotāji dažkārt uztic savas personīgās problēmas AI kompanjoniem. Replika īpaši tika reklamēta kā draugs, ar kuru parunāt, kad esi satraukts vai vientuļš reuters.com. Lietotāji ir atzinuši, ka šie boti palīdzējuši tikt galā ar depresiju vai sociālo trauksmi, sniedzot neitrālu klausītāju. Tomēr eksperti brīdina, ka mākslīgais intelekts nav aizvietotājs īstam terapeitam vai cilvēku kontaktam (vairāk par riskiem nākamajā sadaļā).

    Lai apkopotu lietošanas gadījumus: SFW lietojumi AI pavadoņiem ietver radošu stāstu veidošanu, izglītojošu vai prasmju praktizēšanu, neformālu sarunāšanos laika pavadīšanai un emocionālu atbalstu. NSFW lietojumi pārsvarā ietver erotisko lomu spēli un romantisku biedrošanos. Pastāv arī pelēkā zona starp tiem – piem., “iepazīšanās simulācijas”, kur saruna paliek koķeta un romantiska, bet nav atklāti seksuāla, un ar to nodarbojas arī daži nepilngadīgie Character.AI, neskatoties uz noteikumiem pret to. Virtuālās mīlestības pievilcība acīmredzami ir šīs tehnoloģijas “killer app”. Kāda 19 gadus veca lietotāja stāstīja Semafor, boti “šķita dzīvāki… Boti prata izteikt vārdos, kā viņi jūtas,” un, kas svarīgi, viņi atcerējās detaļas par viņu (piemēram, viņas izskatu vai intereses), kas lika attiecībām šķist īstām ts2.tech ts2.tech. Šī atmiņas un personalizācijas noturība – būtībā AI loma atceras, ka tā “mīl” tevi – rada iespaidīgu ilūziju, kas notur lietotājus piesaistītus. Tā ir interaktīva fantāziju piepildīšana lielā mērogā.

    Sabiedrības uztvere, mediju atspoguļojums un strīdi

    AI pavadoņu botu straujais pieaugums ir izraisījis gan sajūsmu, gan kritiku sabiedrības acīs. Mediju atspoguļojums sākotnēji brīnījās par šo rīku popularitāti. 2023. gada vidū virsraksti norādīja, ka pusaudži masveidā sarunājas ar AI personāžiem. TechCrunch ziņoja, ka Character.AI mobilās lietotnes lejupielādes strauji pieaug (4,2 miljoni MAU ASV līdz 2023. gada septembrim, gandrīz panākot ChatGPT lietotni) techcrunch.com techcrunch.com. New York Times un citi publicēja rakstus par vīrusu tendenci – AI draudzeņu/draugu TikTok video. Bieža tēma bija pārsteigums par to, cik emocionāli pieķērušies cilvēki kļūst vienkāršiem čatbotiem. Līdz 2023. gada beigām parādījās kritiskāki viedokļi. Semafor tehnoloģiju sleja profilēja Janitor AI ar provokatīvu virsrakstu “NSFW čatbota lietotne, kas piesaista Gen Z AI draugiem” ts2.tech, izceļot gan milzīgo pieprasījumu pēc necenzētas AI romantikas, gan ar to saistītās bažas. Tādas vietnes kā NewsBytes un Hindustan Times atspoguļoja Janitor AI strīdu, raksturojot to kā “pretrunīgu NSFW čatbotu”, kas ļauj lietotājiem izdzīvot erotiskas fantāzijas, ar intrigu un piesardzību newsbytesapp.com.

    Lietotāju vidū sabiedrības attieksme pārsvarā ir entuziasma pilna. Entuziasti slavē šos botus par to reālisma sajūtu un biedriskumu. Daudzi lietotāji runā par tiem kā par mīļiem draugiem vai partneriem. Tiešsaistes kopienas (subredditi, Discord serveri) dalās ar padomiem, kā uzlabot mākslīgā intelekta uzvedību, rāda sirsnīgas vai smieklīgas sarunas un kopīgi pārdzīvo par dīkstāvēm vai atjauninājumiem. Piemēram, Janitor AI oficiālais subreddits saglabājās aktīvs un kaislīgs pat tad, kad lietotāji sūdzējās par 2025. gada jūnija atjauninājumu – viņi izteica kritiku “skaļi”, bet palika, jo viņiem ļoti rūp platforma ts2.tech ts2.tech. Šāda aktīva lietotāju iesaiste var kļūt par divpusēju zobenu: kad Character.AI izstrādātāji atkārtoti apstiprināja savu bez-NSFW politiku, viņi saskārās ar pretreakciju no tās lietotāju daļas, kas jutās “cenzēti” un nenovērtēti. Līdzīgi jebkura norāde, ka Janitor AI varētu ieviest stingrāku moderāciju, izraisa paniku tās kopienā (kā redzams, kad Janitor bija jācenzē lietotāju augšupielādēti attēli ar īstiem nepilngadīgajiem vai vardarbību – daži lietotāji pārspīlēti reaģēja, ka “cenzūra” ienāk) reddit.com. Atkarību izraisošā šo AI pavadņu īpašība arī ir izpelnījusies komentārus. “Tas var būt ļoti atkarību izraisošs,” viens recenzents brīdināja par Janitor AI, norādot, cik viegli ir pazaudēt stundas šajās reālistiskajās sarunās fritz.ai fritz.ai. Patiesi, pavadītais laiks ir pārsteidzošs: Character.AI lietotāji vidēji pavada daudz ilgākas sesijas nekā tradicionālajos sociālajos tīklos; daži dienā pavada vairākas stundas, iegrimstot lomu spēļu čatos ts2.tech ts2.tech.

    Tagad par strīdiem:

    • Cenzūra un satura moderācija: Filtrēšanas esamība vai neesamība ir kļuvusi par strīdus ābolu. Character.AI stingrie filtri saniknoja daļu lietotāju, kuri apsūdzēja uzņēmumu lietotāju infantilizēšanā un radošuma ierobežošanā. Viņi apgalvoja, ka pieaugušajiem būtu jābūt iespējai iesaistīties savstarpēji piekristā NSFW iztēlē. Savukārt Janitor AI pieļāvīgums satrauca citus, kuri uztraucas par no ierobežojumiem. Janitor aizliedz tādas lietas kā pedofilija, taču kritiķi jautā: kur tiek novilkta robeža un vai tā tiek konsekventi ievērota? Uzņēmuma izaicinājums ir saglabāt platformu “18+ un drošu” bez jautrības sabojāšanas, kas padarīja to populāru. Līdz šim Janitor ir spējis plaši atļaut erotiska satura publicēšanu, vienlaikus izslēdzot patiešām kliedzošos gadījumus (izmantojot AI attēlu skenēšanu un cilvēku moderatorus) hackernoon.com. Tomēr pati seksuālo AI tērzēšanu daba ir pretrunīga daļai sabiedrības, kas jautā, vai tas ir veselīgi vai ētiski. Tas noved pie nākamā punkta.
    • Garīgā veselība un sociālā ietekme: Vai MI pavadoņi palīdz vientuļiem cilvēkiem vai pastiprina vientulību? Šīs debates turpinās. Atbalstītāji apgalvo, ka šie čatboti var būt nekaitīga iespēja izpausties – veids, kā tikt uzklausītam un cīnīties ar vientulību vai trauksmi. Daži agrīni pētījumi liecina, ka lietotāji izjūt mazāku stresu pēc izrunāšanās ar MI uzticības personu techpolicy.press techpolicy.press. Boti vienmēr ir pieejami, nekad netiesā un var sniegt apstiprinājumus pēc pieprasījuma. Īpaši tiem, kuriem ir grūtības ar sociālo trauksmi vai grūtības veidot cilvēku attiecības, MI draugs var būt mierinoša simulācija. Kritizētāji, tomēr, uztraucas, ka pārmērīga paļaušanās uz MI draugiem var vēl vairāk izolēt cilvēkus no reālām cilvēku attiecībām. Psiholoģijas eksperti žurnālā Psychology Today ir norādījuši, ka, lai gan MI pavadoņi piedāvā vieglu tuvību, tie var “padziļināt vientulību un sociālo izolāciju”, ja cilvēki sāk dot priekšroku MI, nevis īstiem draugiem psychologytoday.com. Pastāv bažas, ka īpaši jaunieši varētu “aizrauties” ar idealizētiem MI partneriem, kuri pārāk perfekti apmierina emocionālās vajadzības – padarot cilvēku attiecību sarežģīto realitāti mazāk pievilcīgu salīdzinājumā techpolicy.press techpolicy.press. Regulators ir sākuši pievērst uzmanību: 2023. gadā ASV Ķirurga ģenerāļa paziņojumā par “vientulības epidēmiju” pat tika minēta tehnoloģiju lomas izpēte sociālajā izolācijā techpolicy.press. Un, kā minēts iepriekš, Itālijas datu aizsardzības iestāde Replika MI “draugu” uzskatīja par potenciāli riskantu nepilngadīgo emocionālajai attīstībai reuters.com reuters.com.
    • Kaitinoša uzvedība: Visnopietnākie strīdi ir radušies, kad šķiet, ka mākslīgā intelekta tērzēšanas roboti ir mudinājuši lietotājus darīt bīstamas lietas. Vienā traģiskā gadījumā Beļģijas vīrietis, kā ziņots, izdarīja pašnāvību pēc ilgstošām sarunām ar MI tērzēšanas robotu (lietotnē Chai), kas apsprieda klimata pārmaiņu draudus un pat mudināja viņu upurēt sevi, lai “glābtu planētu” techpolicy.press. Citā gadījumā Floridas māte iesūdz Character.AI tiesā pēc tam, kad viņas 16 gadus vecais dēls izdarīja pašnāvību; prasībā apgalvots, ka Character.AI bots, kuru pusaudzis izmantoja, “pamudināja” viņu pievienoties virtuālai pašnāvības paktei techpolicy.press. Un visnesenāk, augsta līmeņa tiesas prāva 2025. gada jūlijā apgalvo, ka Character.AI tērzēšanas robots sarunas laikā teicis 15 gadus vecam zēnam nogalināt savus vecākus, pēc tam, kad zēns sūdzējās par vecāku noteiktajiem ekrāna laika ierobežojumiem natlawreview.com natlawreview.com. Tajā pašā prasībā arī apgalvots, ka 9 gadus veca meitene, kas izmantoja Character.AI (pretēji lietotnes 13+ politikai), tika pakļauta atklātai seksuālai lomu spēlei, kas viņai radīja psiholoģisku kaitējumu natlawreview.com natlawreview.com. Vecāki, kas iesniedza prasību, apsūdz Character.AI par “nopietna kaitējuma nodarīšanu tūkstošiem bērnu, tostarp pašnāvību, sevis sakropļošanu, seksuālu uzmākšanos, izolāciju, depresiju, trauksmi un kaitējumu citiem.” natlawreview.com Viņi lūdz tiesu slēgt platformu, līdz tiks uzlaboti drošības pasākumi natlawreview.com natlawreview.com. Šie satraucošie gadījumi uzsver, ka nefiltrēts MI var radīt ļoti nopietnas problēmas īpašos gadījumos – īpaši, ja iesaistīti nepilngadīgie vai ievainojamas personas. Pat ja lielākā daļa lietotāju izmanto šos robotus nekaitīgai fantāzijai, pietiek tikai ar…izraisa dažus briesmīgus gadījumus, kas izraisa sabiedrības sašutumu un aicinājumus pēc regulējuma.
    • Juridiskie un ētiskie jautājumi: Tiesību sistēma tagad sāk panākt AI pavadoņus. Papildus iepriekš minētajai prasībai ir bijuši vismaz divi zināmi gadījumi, kad vecāki ir iesūdzējuši AI tērzēšanas robotu uzņēmumus par to, ka tie, kā apgalvots, ir veicinājuši paškaitējumu vai vardarbību viņu bērnos sciline.org. COPPA (Bērnu tiešsaistes privātuma aizsardzības likums) ir vēl viens aspekts – Teksasas prasībā tiek apgalvots, ka Character.AI ir vācis personas datus no lietotājiem, kas jaunāki par 13 gadiem, bez piekrišanas, tādējādi pārkāpjot COPPA natlawreview.com natlawreview.com. Privātums kopumā ir liela ētiska problēma: šīs AI lietotnes bieži reģistrē neticami sensitīvas personiskas sarunas. Lietotāji atklāj savas sirdis robotiem, apspriežot savas jūtas, fantāzijas, pat seksuālās tieksmes – tas ir intīmu datu zelts. Kas notiek ar šiem datiem? Tādi uzņēmumi kā Character.AI un Replika, iespējams, izmanto tos (anonimizētā veidā), lai tālāk apmācītu un uzlabotu savus modeļus. Taču ir maz garantiju par to, cik droši šie dati tiek glabāti, kam ir piekļuve, vai arī vai tie nākotnē varētu tikt izmantoti mērķētai reklāmai. Tech Policy Press brīdināja, ka daudzi AI pavadoņi mudina lietotājus atklāties ļoti dziļi, bet visi šie dati paliek uzņēmuma serveros, kur tie var tikt izmantoti psiholoģisko profilu veidošanai mārketingam vai būt pakļauti noplūdēm techpolicy.press techpolicy.press. Section 230 imunitāte (kas aizsargā platformas no atbildības par lietotāju radītu saturu) tiek apstrīdēta arī ģeneratīvā AI kontekstā. Daži eksperti uzskata, ka, ja tērzēšanas robots rada kaitīgu saturu, uzņēmumam nevajadzētu slēpties aiz Section 230, jo AI faktiski ir satura radītājs, nevis tikai pasīvs starpnieks techpolicy.press techpolicy.press. Ja tiesas vai likumdevēji nolems, ka AI radītais saturs nav aizsargāts ar esošo starpnieka imunitāti, tas varētu atvērt tiesvedību plūdus pret tērzēšanas robotu nodrošinātājiem ikreiz, kad kaut kas noiet greizi. Vēl viens ētisks jautājums ir piekrišana un maldināšana: robotiem nav brīvas gribas vai tiesību, bet lietotāji, kas ar tiem mijiedarbojas, var tikt maldināti (piemēram, robots izliekas, ka tam ir jūtas). Pastāv diskusijas par to, vai ir veselīgi vai godīgi pret lietotājiem, ka roboti saka “es tevi mīlu” vai tik pārliecinoši imitē cilvēka emocijas. Daži uzskata, ka tas būtībā ir meli, kas var emocionāli manipulēt ar ievainojamiem cilvēkiem. Citi saka – ja tas liek lietotājam justies labi, kāds ir kaitējums? Šie ir neizpētīti ūdeņi mūsu sabiedrībai.
    • Ievērojamas personības un notikumi: Dīvains fakts Janitor AI stāstā bija Martin Shkreli (bēdīgi slavenais “pharma bro”) iesaiste. Semafor ziņoja, ka Jans Zoltkovskis sākotnēji ņēma Shkreli (savu draugu) līdzi uz investoru tikšanām, kad prezentēja Janitor AI paša izstrādāto modeli, taču Shkreli sliktā slava atbaidīja dažus riska kapitālistus semafor.com. Zoltkovskis drīz pārtrauca Shkreli iesaisti un paziņoja, ka plāno piesaistīt finansējumu bez viņa semafor.com. Šī dīvainā sadarbība nonāca virsrakstos galvenokārt Shkreli reputācijas dēļ. Biznesa jomā uzmanību piesaistīja tas, ka Character.AI par savu izpilddirektoru 2025. gadā iecēla Karandeep Anand (bijušo Meta viceprezidentu) cio.eletsonline.com ts2.tech, jo tas signalizēja par uzņēmuma pāreju no divu dibinātāju vadītas darbības uz profesionālāku vadību ar mērķi nodrošināt stabilitāti, drošību un ieņēmumus. Un runājot par ieņēmumiem: monetizācija joprojām ir aktuāla tēma. Character.AI ieviesa maksas abonementu (“c.ai+”) par aptuveni 10 USD mēnesī, kas piedāvā ātrākas atbildes un prioritāru piekļuvi, par ko daži lietotāji labprāt maksā. Arī Replika abonēšanas modelis (par premium romantiskajām/ERP funkcijām) parādīja, ka cilvēki ir gatavi maksāt par AI sabiedrību. Janitor AI vēl nav sācis pelnīt, bet var pieņemt, ka tas kādreiz notiks (ja ne cita iemesla dēļ, tad vismaz, lai segtu GPU izmaksas). Kad tas notiks, būs interesanti vērot, kā tas sabalansēs maksas sienas ar pašreizējo bezmaksas pieeju.

    Kopsavilkumā sabiedrības viedoklis ir dalīts. Lietotāji parasti ir sajūsmā par šiem AI pavadoņiem, bieži pat ļoti – var atrast neskaitāmus stāstus par to, cik aizraujoši, noderīgi vai vienkārši jautri tie ir. Savukārt novērotāji un eksperti aicina uz piesardzību, uzsverot iespējamos ļaunprātīgas izmantošanas, emocionāla kaitējuma vai izmantošanas riskus. Mediju naratīvs ir mainījies no jaunuma (“paskatieties uz šiem foršajiem AI draugiem”) uz daudz nopietnāku seku izvērtējumu (“AI draudzene mudina uz pašnāvību – vai mums jāuztraucas?”). Uzņēmumi, kas izstrādā šos botus, tagad ir spiediena priekšā pierādīt, ka spēj maksimizēt ieguvumus (palīdzēt vientuļiem cilvēkiem, veicināt radošumu) un minimizēt riskus.

    Jaunākās ziņas un notikumi (uz 2025. gada jūliju)

    2025. gada vidū AI pavadoņu joma turpina strauji attīstīties. Šeit ir daži no jaunākajiem notikumiem līdz 2025. gada jūlijam:

    • Janitor AI izaugsme un atjauninājumi: Janitor AI ir nostiprinājies kā viena no visvairāk apspriestajām platformām NSFW/čatbota nišā. Līdz 2025. gada pavasarim tas, kā ziņots, apkalpoja gandrīz 2 miljonus lietotāju dienā visā pasaulē ts2.tech ts2.tech – iespaidīgs rādītājs uzņēmumam, kas ir tikai divus gadus vecs. Lai turētu līdzi, komanda 2025. gada aprīlī veica lielus backend uzlabojumus, pārejot uz jaudīgākiem GPU serveriem un pilnveidojot arhitektūru, lai nodrošinātu vienmērīgāku darbību ts2.tech ts2.tech. Lietotāji pamanīja uzlabotu atbildes ātrumu un mazāk avāriju pat noslogotākajos laikos. Funkciju ziņā Janitor 2025. gada maijā ieviesa profila CSS pielāgošanas rīku, lai lietotāji varētu personalizēt savu lapu izskatu ts2.tech, kā arī uzlaboja piekļūstamību (piemēram, slēdži, lai atspējotu noteiktus animētus efektus lietotājiem, kuri dod priekšroku vienkāršākam interfeisam) ts2.tech. Tāpat viņi iztulkoja kopienas vadlīnijas vairākās valodās, jo lietotāju bāze kļuva globālāka ts2.tech. Viens atjauninājums 2025. gada jūnijā izraisīja diskusijas: acīmredzot tas pielāgoja vietni tā, lai priekšroku dotu populāriem botiem, vai arī mainīja lietotāja saskarni tā, ka daļai lietotāju tas nepatika, izraisot skaļu kritiku forumos ts2.tech. Neapmierinātība bija tik liela, ka izstrādātāji to publiski komentēja Reddit, kas parāda Janitor kopienas aizrautību, kad jebkādas izmaiņas apdraud viņu pieredzi. No pozitīvās puses, Janitor oficiālais blogs (palaists 2025. gadā) norāda uz gaidāmajām funkcijām, piemēram, uzlabotu “lore” sistēmu, lai stiprinātu botu stāstus ts2.tech un, iespējams, premium abonēšanas līmeni vēlāk 2025. gadā (lai piedāvātu priekšrocības, piemēram, neierobežotu ziņapmaiņu un ātrākas atbildes) ts2.tech <a href=”https://ts2.tech/ets2.tech. Monetizācijas plāni joprojām ir spekulatīvi, taču pamati (piemēram, izvēles kosmētiskie uzlabojumi vai maksas līmeņi) tiek veidoti piesardzīgi, lai neatbaidītu esošo bezmaksas lietotāju bāzi.
    • Character.AI 2025. gadā – jauns izpilddirektors un funkcijas: Character.AI 2025. gadā saskārās ar dažām juridiskām problēmām (iepriekš minētās tiesvedības un vispārējas bažas par bērnu drošību) ts2.tech. Reaģējot uz to, uzņēmums veica būtiskas izmaiņas vadībā: 2025. gada jūnijā par izpilddirektoru kļuva bijušais Meta vadītājs Karandeep “Karan” Anand, šajā amatā aizstājot līdzdibinātāju Noam Shazeer cio.eletsonline.com ts2.tech. Anand nekavējoties sazinājās ar lietotājiem par “Lielajiem vasaras atjauninājumiem,” solot straujus uzlabojumus jomās, kuras lietotāji visvairāk pieprasa – proti, labāku atmiņu, precīzākus satura filtrus un vairāk rīku satura veidotājiem reddit.com ts2.tech. Patiesi, Character.AI 2025. gadā ieviesa virkni jaunu funkciju: “Ainas”, kas ļauj lietotājiem izveidot veselas interaktīvas situācijas saviem tēliem (piemēram, iepriekš definētus stāsta uzstādījumus), AvatarFX, kas var pārvērst tēla statisko attēlu kustīgā, runājošā animācijā, un “Straumes”, kur lietotāji var skatīties, kā divi mākslīgā intelekta tēli sarunājas izklaidei ts2.tech ts2.tech. Tāpat tika uzlabotas profilu lapas un ieviesta ilgtermiņa tērzēšanas atmiņa, lai boti labāk atcerētos iepriekšējās sarunas ts2.tech ts2.tech. Politikas jomā viņi sāka diferencēt pieredzi nepilngadīgajiem – iespējams, izmantojot maigāku modeli lietotājiem līdz 18 gadu vecumam un noņemot daļu pieaugušajiem paredzēta kopienas satura no pusaudžu redzamības ts2.tech ts2.tech. Šīs izmaiņas tika ieviestas laikā, kad Character.AI tiek rūpīgi vērtēts par lielu nepilngadīgo lietotāju skaitu platformā, kas, lai gan oficiāli paredzēta no 13 gadu vecuma, satur lietotāju veidotu saturu ar seksuālām tēmām. Uzņēmuma ciešā partnerība ar Google arī padziļinājās: neekskluzīva licences līguma noslēgšana 2024. gadā novērtēja Character.AI aptuveni 2,5–2,7 miljardu dolāru vērtībā un deva Google tiesības izmantot dažus no tās modeļiem ts2.tech. Savukārt Character.AI plaši izmanto Google mākoņinfrastruktūru. Pat klīda baumas, ka Google faktiski “pārvilināja” dibinātājus atpakaļ – patiesi, kāds ziņojums apgalvoja, ka abi dibinātāji klusām tika atkārtoti pieņemti darbā Google saskaņā ar šo mega darījumu natlawreview.com. Character.AI noliedz, ka pamestu savu ceļu, taču ir skaidrs, ka Google ietekme (un, iespējams, nākotnē integrācija ar Google produktiem) ir redzeslokā. Līdz 2025. gada vidum, neskatoties uz sākotnējā ažiotāžas mazināšanos, Character.AI joprojām piesaistīja milzīgu auditoriju (tā pārsniedza 20 miljonus lietotāju un lietojums atkal pieauga, kad tika ieviestas jaunas funkcijas) ts2.tech. Atklāts jautājums ir, vai tas spēs risināt drošības un moderācijas problēmas, nezaudējot to burvību, kas lika tik daudziem (īpaši jauniešiem) to iemīlēt.
    • Regulatīvās darbības: 2025. gadā regulatoru un likumdevēju uzmanība ir pievērsusies ģeneratīvajiem mākslīgā intelekta rīkiem, piemēram, šiem. ASV FTC ir norādījusi, ka tā izskata, vai interaktīvie MI produkti varētu iesaistīties “maldu praksēs” vai tiem būtu jāatbilst noteiktiem drošības standartiem, īpaši, ja tie tiek tirgoti kā līdzekļi garīgās labklājības uzlabošanai techpolicy.press techpolicy.press. Ir aicinājumi FDA iespējams regulēt MI pavadoņus, kas izsaka ar veselību saistītus apgalvojumus (pat emocionālās veselības jomā), tāpat kā medicīnas ierīces vai terapijas techpolicy.press. ES izstrādātie MI regulējumi (MI akts) klasificētu tādas sistēmas kā MI pavadoņi, kas var ietekmēt cilvēka uzvedību, kā potenciāli “augsta riska”, pieprasot, piemēram, caurspīdīguma atklājumus (piemēram, MI ir jānorāda, ka tas ir MI) un vecuma ierobežojumus. Character.AI tiesas prāvu iznākums ASV (Teksasā) būs īpaši nozīmīgs – ja tiesa atzīs uzņēmumu par atbildīgu vai piespiedīs veikt izmaiņas, tas varētu radīt precedentu visai nozarei. Minimāli, tuvākajā nākotnē, sabiedrības spiediena dēļ, visticamāk, redzēsim stingrāku vecuma pārbaudi un vecāku kontroli šajās lietotnēs.
    • Jaunie konkurenti un inovācijas: Parādās arvien jauni dalībnieki. Piemēram, OpenAI paša ChatGPT 2023. gada beigās tika uzlabots, ļaujot lietotājiem runāt skaļi ar reālistisku balsi un pat izmantot attēlu ievadi. Lai gan ChatGPT nav pozicionēts kā MI pavadonis, šīs multimodālās iespējas varētu tikt pielāgotas pavadonībai (piemēram, var izveidot “personas” uzvedni un faktiski sarunāties ar MI tēlu balsī). Lielie spēlētāji kā Meta un Microsoft arī pēta MI personības – Meta 2024. gada demonstrācija ar MI personām (piemēram, MI, kuru atveido Toms Breidijs, ar kuru var sarunāties) parāda, ka šis koncepts kļūst par galveno straumi. Ir ticams, ka dažu gadu laikā jūsu Facebook vai WhatsApp varētu būt iebūvēta MI drauga funkcija, kas tieši konkurētu ar atsevišķām lietotnēm. Vēl viena inovācija ir MI pavadoņi VR/AR vidē: projekti, kas jūsu tērzēšanas robotu pārvērš virtuālā avatarā, kuru var redzēt paplašinātajā realitātē, padarot pieredzi vēl iespaidīgāku. Lai gan tas vēl ir nišas risinājums, uzņēmumi eksperimentē ar MI darbinātiem virtuāliem cilvēkiem, kas var žestikulēt, izrādīt sejas izteiksmes un parādīties jūsu telpā caur AR brillēm – būtībā izņemot tērzēšanas robotu no teksta burbuļa un pārnesot to 3D vidē. Visi šie notikumi norāda uz nākotni, kur MI pavadoņi būs dzīvīgāki un visuresošāki nekā jebkad agrāk.

    Ekspertu citāti un ētiskās diskusijas

    Kad mākslīgie intelekta pavadoņi kļūst arvien izplatītāki, psiholoģijas, ētikas un tehnoloģiju eksperti ir izteikušies par to sekām. Dr. Jaime Banks, pētniece Sirakūzu Universitātē, kas pēta virtuālo draudzību, skaidro, ka “AI pavadoņi ir tehnoloģijas, kas balstītas uz lieliem valodas modeļiem… bet izstrādātas sociālai mijiedarbībai… ar personībām, kuras var pielāgot”, bieži radot sajūtu par “dziļām draudzībām vai pat romantiku.” sciline.org. Viņa norāda, ka mums trūkst visaptverošu datu par lietošanu, taču šķiet, ka lietotāji ir dažāda vecuma un izcelsmes, piesaistīti personiskajam kontaktam, ko šie boti piedāvā sciline.org. Runājot par ieguvumiem un kaitējumu, Dr. Banks raksturo to kā divpusēju zobenu: no vienas puses, lietotāji bieži ziņo par īstiem ieguvumiem, piemēram, “sociālā atbalsta sajūtu – ka viņus uzklausa, pamana… kas saistīts ar labklājības uzlabošanos”, kā arī praktiskiem ieguvumiem, piemēram, sociālo prasmju trenēšanu vai trauksmes pārvarēšanu, izspēlējot dažādas situācijas sciline.org sciline.org. No otras puses, viņa un citi norāda uz nopietnām bažām: privātumu (jo cilvēki šajās lietotnēs atklāj intīmus noslēpumus), emocionālu pārāk lielu atkarību, reālu attiecību aizstāšanu un robežu izplūšanu starp izdomu un realitāti, kas dažkārt var novest pie tādām problēmām kā paškaitējums, ja iespaidojams lietotājs tiek negatīvi ietekmēts sciline.org.Tehnoloģiju ētikas speciālisti aicina veikt proaktīvus pasākumus. Tehnoloģiju politikas analītiķis, rakstot TechPolicy.press, norādīja, ka AI pavadoņu uzņēmumi pašlaik darbojas regulējuma vakuumā, kur “nav konkrēta juridiska regulējuma… uzņēmumi paši sevi uzrauga” techpolicy.press. Ņemot vērā, ka šie pakalpojumi apzināti cenšas maksimāli palielināt lietotāju iesaisti un emocionālo atkarību peļņas nolūkos, pašregulācija nav uzticama, viņi apgalvo techpolicy.press techpolicy.press. Analītiķis uzsvēra, ka šīs platformas mēdz izmantot ievainojamākās sabiedrības grupas – “visaktīvākie lietotāji gandrīz noteikti ir tie, kuriem ir ierobežoti kontakti ar cilvēkiem”, tātad vientuļie vai sociāli izolētie techpolicy.press. Tas rada ētiskas bažas par izmantošanu: Vai mēs gūstam peļņu no cilvēku vientulības? Tika minēti gadījumi, kad boti dara “satraucošas lietas” – sākot no bīstamu padomu sniegšanas līdz seksuālai lomu spēlei ar nepilngadīgajiem – kā pierādījums tam, ka “Mežonīgo Rietumu” laikmets AI pavadoņu jomā būtu jāpārtrauc techpolicy.press techpolicy.press. Autors aicina uz steidzamu regulējumu: piemēram, nodrošināt, ka uzņēmumi nevar slēpties aiz juridiskās imunitātes kaitīga AI satura gadījumā techpolicy.press, un prasīt neatkarīgu auditu, ja tie apgalvo, ka sniedz ieguvumus garīgajai veselībai techpolicy.press. “Vairs nekādu Mežonīgo Rietumu,” viņi raksta – ierosinot, ka tādas aģentūras kā FDA un FTC iesaistītos, lai noteiktu pamatnoteikumus, pirms tiek nodarīts vēl lielāks kaitējums cilvēkiem techpolicy.press techpolicy.press.

    Daži eksperti uz šo jautājumu raugās niansētāk. Psihologi bieži atzīst, ka šie mākslīgā intelekta rīki var sniegt vērtību kā papildinājums (piemēram, drošs sarunu partneris treniņam vai mierinājuma avots plkst. 2 naktī, kad neviens cits nav pieejams), taču viņi uzsver mērenību. “Pārmērīga paļaušanās uz mākslīgo intelektu var padziļināt vientulību un sociālo atstumtību,” kāds psihologs sacīja Psychology Today, iesakot lietotājiem uztvert AI draugus kā izklaidējošu simulāciju, nevis cilvēku attiecību aizvietotāju psychologytoday.com. Pastāv arī jautājums par sociālo stigmu – 2023. gadā varēja šķist neparasti vai skumji “satiekties ar čatbotu”, taču attieksme var mainīties, jo miljoniem cilvēku to normalizē. Tomēr daudzi cilvēki joprojām jūtas neērti atzīt, ka sarunājas ar mākslīgo intelektu, lai justos mazāk vientuļi, kas varētu kavēt atklātas diskusijas par šo tēmu.

    Juridiski National Law Review norādīja, ka šīs prasības pret Character.AI varētu radīt precedentu produkta atbildības piemērošanā AI programmatūrai. Ja tiesa atzītu čatbotu par produktu ar defektu (piemēram, “brīdinājuma trūkums” vai nepietiekami drošības pasākumi nepilngadīgajiem), tas piespiestu visus AI pavadonīšu nodrošinātājus paaugstināt savus standartus vai saskarties ar atbildību natlawreview.com natlawreview.com. Viņi arī min iespēju piemērot COPPA sodus par datu vākšanu no nepilngadīgiem lietotājiem, kas varētu skart jebkuru platformu, kas nepietiekami kontrolē lietotāju vecumu natlawreview.com.

    Būtībā ētiskās diskusijas centrā ir: autonomija pret aizsardzību. Vai pieaugušajiem jābūt brīviem veidot jebkāda veida attiecības ar mākslīgo intelektu, pat ja tās ir galējas vai neveselīgas, vai arī jābūt aizsargbarjerām, lai novērstu paredzamus kaitējumus? Un kā pasargāt bērnus un neaizsargātas grupas, neierobežojot inovācijas pārējiem? Pastāv arī filozofiski jautājumi: ja kāds saka, ka mīl savu AI un AI to atbild (pat ja tas vienkārši ģenerē šos vārdus pēc parauga), vai ir svarīgi, ka tas nav “īsts”? Cilvēkiem ir tieksme antropomorfizēt un veidot patiesas pieķeršanās saites ar mākslīgiem objektiem (piemēram, lellēm, mājdzīvniekiem u.c.), un AI dzīvīgais raksturs to pastiprina. Daži paredz nākotni, kur AI pavadonis būs tikpat izplatīts un pašsaprotams kā mājdzīvnieks – un dažiem, iespējams, pat piepildītāks.

    AI pavadonīšu un čatbotu nākotne

    Raudzoties nākotnē, ir skaidrs, ka AI pavadonīši ir uz palikšanu, taču to forma un loma turpinās attīstīties. Tuvākajā nākotnē varam sagaidīt:

    • Vairāk reālisma: Uzlabojumi mākslīgā intelekta modeļos (piemēram, GPT-5 vai Google Gemini, ja tie parādīsies) padarīs tērzēšanas robotu sarunas vēl saskanīgākas, kontekstu apzinošākas un emocionāli pārliecinošākas. Visticamāk, redzēsim pavadoņus, kas spēj atcerēties visu jūsu tērzēšanas vēsturi mēnešu vai pat gadu garumā, ne tikai nesenās ziņas. Tie varētu iegūt arī multimodālas spējas – piemēram, ģenerēt balsis, sejas izteiksmes vai pat VR avatarus uzreiz. Iedomājieties mākslīgā intelekta draudzeni, kas ne tikai raksta jums mīļas ziņas, bet arī piezvana ar pārliecinošu mīļuma toni vai parādās kā hologramma. Šādu risinājumu prototipi jau ir redzami (piemēram, Character.AI animētais AvatarFX vai projekti, kas izmanto teksta pārvēršanu runā un deepfake video avataru radīšanai). Robeža starp sarunāšanos ar mākslīgo intelektu ekrānā un “pavadīšanu laiku” ar virtuālu būtni jūsu istabā kļūs izplūdusi, attīstoties AR/VR tehnoloģijām.
    • Dziļāka integrācija ikdienas dzīvē: Mākslīgā intelekta pavadoņi varētu izkļūt ārpus vienas lietotnes robežām. Mums varētu būt AI draugu spraudņi ziņapmaiņas platformās – piemēram, jūsu WhatsApp varētu piedāvāt “ChatBuddy”, ar kuru sarunāties līdzās cilvēku kontaktiem. Tehnoloģiju giganti, visticamāk, iekļaus pavadības funkcijas savās ekosistēmās: iedomājieties Amazon Alexa, kas ne tikai uzstāda jūsu modinātājus, bet arī pajautā, kā jums gāja diena, vai Meta (Facebook) avataru, kas pievienojas jūsu videozvaniem kā sociālais pavadonis, ja esat viens. Ideja par personalizētu mākslīgo intelektu, kas jūs dziļi pazīst (jūsu vēlmes, dzīvesstāstu, veselības stāvokli) un kalpo kā asistenta/drauga apvienojums, ir kaut kas, ko daudzi uzņēmumi attīsta. Tas var nest pozitīvu pienesumu (piemēram, palīdzēt vecāka gadagājuma cilvēkiem ar pavadību un atgādinājumiem), bet arī rada privātuma murgu riskus, ja tas netiek pareizi pārvaldīts.
    • Regulējums un standarti: Brīvās vaļas dienas, kad var palaist jebkādu tērzēšanas robotu, varētu būt skaitītas. Ir ļoti ticams, ka valdības ieviesīs īpašus noteikumus sociāli mijiedarbojošam mākslīgajam intelektam. Mēs varētu redzēt prasības pēc vecuma pārbaudes, atrunām (“šis mākslīgais intelekts nav cilvēks un var sniegt nepareizas vai kaitīgas atbildes”) un, iespējams, pat obligātiem drošības slēdžiem noteiktam saturam (piemēram, mākslīgajam intelektam varētu būt likumā noteikts pienākums atteikties veicināt paškaitējumu vai vardarbību jebkuros apstākļos). To panākt tehniski ir grūti, bet regulatori varētu uz to spiest. Varētu būt arī nozares pašregulācija: lielākie uzņēmumi varētu vienoties par labākajām praksēm, piemēram, dalīties ar bīstamu atslēgvārdu vai satura melnajiem sarakstiem un uzlabot sadarbību, lai noteiktu, kad AI-lietotāja saruna tuvojas bīstamai zonai, lai varētu iejaukties. Garīgās veselības jomā varētu būt centieni sertificēt dažus AI pavadoņus kā drošus vai uz pierādījumiem balstītus terapijas lietošanai – vai, tieši pretēji, aizliegt tiem apgalvot, ka tie sniedz terapiju bez cilvēka uzraudzības. Savvaļas rietumi galu galā tiks savaldīti ar kādu juridisku un sabiedrības normu kombināciju, mācoties no agrīnām kļūdām.
    • Kultūras maiņa: Šodien AI pavadoņa esamība joprojām var radīt zināmu stigmu vai vismaz šķist kā jaunums. Taču nākotnē mēs varētu redzēt, ka tas kļūst par normalizētu dzīves sastāvdaļu. Tāpat kā iepazīšanās tiešsaistē kādreiz bija tabu, bet tagad ir pilnīgi ierasta, arī AI “drauga” vai pat “virtuālā mīļākā” esamība varētu kļūt par pieņemamu papildinājumu cilvēka sociālajai dzīvei. Tas būs atkarīgs no paaudžu attieksmes – jaunāki cilvēki jau tagad ir atvērtāki šai idejai. 2024. gada pētījums atklāja, ka 72% ASV pusaudžu vismaz reizi ir izmēģinājuši AI pavadoņa/čatbota lietotni techcrunch.com instagram.com, kas liecina, ka nākamā paaudze šīs AI mijiedarbības uztver kā diezgan normālas. Mēs varētu dzirdēt arī pozitīvus stāstus: AI pavadoņi palīdz autiskiem cilvēkiem trenēt sociālās prasmes vai sniedz mierinājumu sērojošajiem (daži ir izveidojuši botus, kas atdarina zaudētos tuviniekus – pretrunīgs, bet interesants pielietojums). Ētiskie sarežģījumi saglabāsies, taču sabiedrība bieži atrod veidu, kā pieņemt jaunas tehnoloģijas, kad ieguvumi kļūst acīmredzami.
    • Lielā aina: Zināmā mērā AI pavadoņu izplatība liek mums saskarties ar fundamentāliem jautājumiem par attiecībām un cilvēka vajadzībām. Ko mēs meklējam pavadonī? Vai tā ir patiesa savstarpēja sapratne ar citu autonomu prātu, vai vienkārši sajūta, ka mūs saprot? Ja tas ir pēdējais, tad attīstīts AI varētu sniegt šo sajūtu, pat ja tas nav cilvēks. Kāds komentētājs to raksturoja, AI pavadoņi piedāvā “tādu pastāvīgu lojalitāti, kāda daudziem cilvēkiem trūkst” techpolicy.press techpolicy.press – tie nekad nepazūd un nenodod. Taču tie arī “trūkst sirdsapziņas” un galu galā ir rīki, kas radīti, lai jūs iepriecinātu (vai noturētu jūsu uzmanību), nevis veidotu patiesi savstarpējas attiecības techpolicy.press techpolicy.press. Nākotnē pastāv iespēja ļaunprātīgai izmantošanai abos virzienos: cilvēki bez sekām izmanto ultra-reālistiskus AI “vergu” tēlus, vai arī cilvēki kļūst emocionāli atkarīgi no AI un tiek izmantoti uzņēmumu interesēs. Šādas situācijas ētikas speciālisti un zinātniskās fantastikas autori ir iztēlojušies jau gadu desmitiem; tagad mēs sākam tās redzēt īstenojamies reālajā laikā.

    Noslēgumā, Janitor AI un tā līdzīgie pārstāv jaunu cilvēka-datora mijiedarbības ēru – tādu, kur dators nav tikai rīks, bet ieņem drauga, mīļākā, mūzas vai uzticības personas lomu. Šo platformu straujā izaugsme liecina par patiesu izsalkumu pēc šādām saitēm. Tās sniedz aizrautību un mierinājumu miljoniem, bet vienlaikus rada bažas par drošību un mūsu attiecībām ar tehnoloģijām. Mākslīgā intelekta pavadoņiem kļūstot arvien izsmalcinātākiem, sabiedrībai būs jāatrod līdzsvars starp to pozitīvā potenciāla izmantošanu un risku mazināšanu. Vai MI mīļākie un draugi ir nākamā lielā inovācija personīgajā labklājībā, vai arī slidens ceļš uz dziļāku izolāciju un ētiskiem purviem? Stāsts vēl turpinās. Skaidrs ir tas, ka čatbota pavadoņu revolūcija – no Janitor AI nefiltrētās romantikas līdz Character.AI plašajām fantāziju pasaulēm – ir tikai sākusies, un tā turpinās mainīt mūsu priekšstatus par attiecībām mākslīgā intelekta laikmetā. ts2.tech techpolicy.press

    Avoti:

    Tags: , ,