LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

همراهان هوش مصنوعی بدون فیلتر: Janitor AI، Character.AI و انقلاب چت‌بات‌ها

همراهان هوش مصنوعی بدون فیلتر: Janitor AI، Character.AI و انقلاب چت‌بات‌ها

NSFW AI Companions Unfiltered: Janitor AI, Character.AI, and the Chatbot Revolution

Janitor AI چیست؟ تاریخچه، هدف و ویژگی‌ها

Janitor AI یک پلتفرم چت‌بات است که به سرعت در حال رشد بوده و به کاربران اجازه می‌دهد شخصیت‌های هوش مصنوعی سفارشی بسازند و با آن‌ها گفتگو کنند. این پلتفرم توسط توسعه‌دهنده استرالیایی، Jan Zoltkowski، تأسیس و در ژوئن ۲۰۲۳ راه‌اندازی شد و جای خالی‌ای را که فیلترهای محتوای سخت‌گیرانه چت‌بات‌های اصلی ایجاد کرده بودند، پر کرد ts2.tech ts2.tech. این پلتفرم تقریباً یک شبه محبوبیت زیادی پیدا کرد – و در هفته اول راه‌اندازی بیش از ۱ میلیون کاربر جذب کرد voiceflow.com hackernoon.com. تا سپتامبر ۲۰۲۳، حدود ۳ میلیون کاربر ثبت‌نام‌شده داشت (و تنها در ۱۷ روز به مرز ۱ میلیون رسید) ts2.tech semafor.com. این رشد سریع به دلیل ویدیوهای وایرال در تیک‌تاک و پست‌های ردیت بود که توانایی Janitor AI در انجام چت‌های نقش‌آفرینی spicy بدون فیلترهای «سخت‌گیرانه» سایر ربات‌ها را نشان می‌دادند ts2.tech ts2.tech. به عبارت دیگر، Janitor AI گفتگوهای بازتر و بزرگسالانه‌تری را که سایر پلتفرم‌ها ممنوع کرده بودند، پذیرفت.

هدف و جایگاه ویژه: برخلاف دستیارهای متمرکز بر بهره‌وری، تمرکز Janitor AI بر سرگرمی و نقش‌آفرینی مبتنی بر هوش مصنوعی است ts2.tech hackernoon.com. کاربران شخصیت‌های خیالی خلق می‌کنند – از معشوقه‌های انیمه‌ای تا قهرمانان بازی‌های ویدیویی – و برای سرگرمی، همراهی یا داستان‌سرایی خلاقانه با آن‌ها گفتگو می‌کنند. این پلتفرم به‌ویژه در میان جوانانی که به دنبال همراهی عاشقانه یا اروتیک با هوش مصنوعی بودند که در سرویس‌های فیلترشده وجود نداشت، محبوب شد ts2.tech ts2.tech. در واقع، جامعه کاربران Janitor AI به طرز قابل توجهی زنانه است (بیش از ۷۰٪ زنان تا اوایل ۲۰۲۴) ts2.tech hackernoon.com – که برای یک پلتفرم فناوری، جمعیت‌شناسی غیرمعمولی است. بسیاری برای ساخت “دوست‌پسر/دوست‌دختر” هوش مصنوعی و سناریوهای فانتزی تعاملی به این پلتفرم روی آوردند و Janitor AI را مترادف با نقش‌آفرینی داغ و عاشقانه مجازی کردند. حتی خبرگزاری Semafor News آن را «اپلیکیشن چت‌بات NSFW که نسل Z را به دوست‌پسرهای هوش مصنوعی معتاد کرده» نامید ts2.tech.

ویژگی‌های کلیدی: Janitor AI یک رابط کاربری مبتنی بر وب (JanitorAI.com) ارائه می‌دهد که کاربران می‌توانند در آن شخصیت‌های تولیدشده توسط کاربران را ایجاد، به اشتراک بگذارند و با آن‌ها گفتگو کنند ts2.tech ts2.tech. هر شخصیت یک نام، تصویر آواتار و یک پروفایل نوشتاری دارد که شخصیت و پیش‌زمینه او را توصیف می‌کند. این پروفایل مانند یک پرامپت یا «افسانه» عمل می‌کند که رفتار هوش مصنوعی را در گفتگو هدایت می‌کند ts2.tech. هزاران ربات ساخته‌شده توسط جامعه در دسترس هستند – از شخصیت‌های معروف داستانی تا خلقیات اصلی – و کاربران همچنین می‌توانند شخصیت‌ها را در صورت تمایل خصوصی نگه دارند. رابط چت برای کاربران Character.AI آشنا خواهد بود: پیام‌ها به صورت یک رشته چت ظاهر می‌شوند و کاربران می‌توانند به سادگی تایپ کنند تا گفتگو کنند، در حالی که هوش مصنوعی در قالب شخصیت پاسخ می‌دهد ts2.tech. Janitor AI امکان امتیازدهی یا گزارش پاسخ‌ها را فراهم می‌کند و کاربران اغلب بخش‌هایی از گفتگوهای سرگرم‌کننده را در شبکه‌های اجتماعی به اشتراک می‌گذارند ts2.tech.

در پشت صحنه، Janitor AI در ابتدا توسط GPT-3.5/4 شرکت OpenAI از طریق API پشتیبانی می‌شد که این امکان را برای پاسخ‌های بسیار روان و شبیه انسان فراهم می‌کرد ts2.tech semafor.com. با این حال، این وابستگی به OpenAI کوتاه‌مدت بود – در ژوئیه ۲۰۲۳، OpenAI یک cease-and-desist letter به Janitor AI ارسال کرد به دلیل اینکه محتوای جنسی آن با سیاست‌های استفاده OpenAI مغایرت داشت semafor.com semafor.com. پس از قطع دسترسی به GPT-4، سازنده Janitor به توسعه یک مدل اختصاصی به نام JanitorLLM روی آورد. تا اواخر ۲۰۲۳، Janitor AI مدل زبانی بزرگ (LLM) بومی خود را برای چت‌ها در حالت “بتا” معرفی کرد ts2.tech. جالب اینجاست که تیم Zoltkowski دریافت که “incrementally training their own models based on RNN architectures” برای نیازهای آن‌ها نتایج بهتری نسبت به مدل‌های معمول Transformer به همراه داشته است ts2.tech. جزئیات این موضوع محرمانه باقی مانده، اما اکنون JanitorLLM چت رایگان و نامحدود سایت را پشتیبانی می‌کند – هرچند با سطح پیچیدگی کمی پایین‌تر نسبت به جدیدترین مدل‌های OpenAI. کاربران گزارش می‌دهند که هوش مصنوعی Janitor به طور مداوم در حال بهبود است، با این مزیت که no hard caps on message length or volume (ویژگی حیاتی برای نقش‌آفرینی‌های طولانی) ts2.tech ts2.tech. برای کیفیت هوش مصنوعی پیشرفته‌تر، Janitor AI امکان “bring-your-own-model” flexibility را ارائه می‌دهد: کاربران می‌توانند کلید API مدل‌های شخص ثالث (مانند GPT-4 شرکت OpenAI، در صورت پرداخت به OpenAI) را متصل کنند یا حتی یک مدل هوش مصنوعی محلی را از طریق KoboldAI راه‌اندازی کنند ts2.tech ts2.tech. این رویکرد ماژولار به این معناست که کاربران حرفه‌ای همچنان می‌توانند به مدل‌های پیشرفته از طریق رابط Janitor دسترسی داشته باشند – و همچنین این پلتفرم را از وابستگی به یک ارائه‌دهنده خاص در آینده محافظت می‌کند <a href=”https://ts2.t

مجموعه قابلیت‌های Janitor AI به طور پیوسته گسترش یافته است. این پلتفرم از حافظه و نگهداری زمینه قوی برخوردار است، که به ربات‌ها اجازه می‌دهد جزئیات گفتگوهای قبلی (مانند نام کاربر، رویدادهای داستان و غیره) را به خاطر بسپارند و بعداً برای روایت منسجم بلندمدت به آن‌ها اشاره کنند ts2.tech ts2.tech. در اوایل سال ۲۰۲۵، تیم حتی یک سیستم جدید «خلق شخصیت مبتنی بر داستان» را معرفی کرد تا به سازندگان اجازه دهد یادداشت‌های گسترده‌ای درباره دنیاسازی اضافه کنند که هوش مصنوعی به طور مداوم آن‌ها را در پاسخ‌های خود لحاظ کند ts2.tech. سایر افزوده‌های کاربردی تا اواسط ۲۰۲۵ شامل شخصی‌سازی صفحه پروفایل با تم‌های CSS ts2.tech، جستجو و برچسب‌گذاری بهتر (از جمله امکان مسدود کردن برچسب‌ها برای محتوایی که نمی‌خواهید) ts2.tech، و پشتیبانی از تصاویر در پروفایل شخصیت‌ها (با کلید ایمنی) ts2.tech می‌شود. قابل توجه است که Janitor AI همچنان رایگان برای استفاده باقی مانده است (تبلیغاتی هم وجود ندارد)، که طبیعتاً سوالاتی درباره پایداری آن ایجاد کرده است. شرکت اشاره کرده که اشتراک‌های پریمیوم اختیاری در آینده ارائه خواهد شد (مثلاً برای باز کردن پیام‌های طولانی‌تر، پاسخ‌های سریع‌تر و غیره)، اما این برنامه‌ها تا اواسط ۲۰۲۵ به تعویق افتاد تا تمرکز بر بهبود محصول باشد ts2.tech ts2.tech. در حال حاضر، بنیان‌گذار عمدتاً با بودجه شخصی و حمایت جامعه این سرویس را فعال نگه داشته و تا سال ۲۰۲۴ هیچ سرمایه‌گذاری عمده خارجی اعلام نشده است ts2.tech. این یک استراتژی جسورانه است – اولویت دادن به رشد و جلب رضایت کاربران پیش از کسب درآمد – و همین موضوع به Janitor AI کمک کرده تا جامعه‌ای وفادار بسازد.

ابزارها و رقبای مشابه هوش مصنوعی (Character.AI، Pygmalion، VenusAI و غیره)

Janitor AI بخشی از موج بزرگ‌تر ابزارهای همراه هوش مصنوعی و چت‌بات شخصیت است که از اوایل دهه ۲۰۲۰ گسترش یافته‌اند. هرکدام در ویژگی‌ها، مخاطب هدف و سیاست محتوایی تفاوت‌هایی دارند. در اینجا مروری بر بازیگران برجسته و مقایسه آن‌ها آمده است:

  • Character.AI: بی‌تردید موفق‌ترین اثر این ژانر، Character.AI در اواخر سال ۲۰۲۲ برای عموم عرضه شد و ایده‌ی «شخصیت‌های» هوش مصنوعی ساخته‌شده توسط کاربر برای چت را محبوب کرد ts2.tech ts2.tech. این پلتفرم توسط پژوهشگران سابق گوگل، نوآم شازیر و دنیل د فریتاس (توسعه‌دهندگان مدل LaMDA گوگل) تأسیس شد و مأموریت Character.AI این بود که هوش مصنوعی مکالمه‌ای پیشرفته را برای همه قابل دسترس کند ts2.tech. این پلتفرم به سرعت به خاطر گفتگوهای شگفت‌انگیز شبیه انسان و توانایی تقلید از تقریباً هر شخصیتی – از ایلان ماسک تا قهرمانان انیمه – که میلیون‌ها کاربر کنجکاو را جذب کرد، شهرت یافت. تا سال ۲۰۲۵، Character.AI دارای بیش از ۲۰ میلیون کاربر فعال (که بسیاری از آن‌ها نسل Z هستند) و بیش از ۱۸ میلیون شخصیت سفارشی ساخته‌شده در این پلتفرم است ts2.tech ts2.tech. پایگاه کاربران آن به شدت جوان است: تقریباً ۶۰٪ از کاربران وب Character.AI بین ۱۸ تا ۲۴ سال دارند techcrunch.com، که نسبت بسیار بالاتری از نسل Z نسبت به ChatGPT یا سایر اپلیکیشن‌های هوش مصنوعی است. این موضوع نشان‌دهنده جذابیت Character.AI به عنوان یک زمین بازی سرگرم‌کننده و خلاقانه است – «چت‌بات‌ها به عنوان سرگرمی و همراه» نه ابزارهای کاربردی ts2.tech. کاربران زمان زیادی را صرف نقش‌آفرینی و معاشرت با این شخصیت‌های هوش مصنوعی می‌کنند و عملاً به صورت تعاملی داستان‌نویسی هواداری انجام می‌دهند یا وارد گفتگوهای دوستانه و شبیه‌درمانگری مجازی می‌شوند ts2.tech ts2.tech. ویژگی‌ها: عملکرد اصلی Character.AI مشابه Janitor است – کاربران با یک توضیح کوتاه یا اسکریپت شخصیت، کاراکتر می‌سازند و هوش مصنوعی به صورت درون‌شخصیتی گفتگو را ادامه می‌دهد. این پلتفرم رابط کاربری وب و اپلیکیشن موبایل صیقلی دارد و در سال‌های ۲۰۲۳ تا ۲۰۲۵ ارتقاهای عمده‌ای ارائه کرد: Scenes برای سناریوهای داستانی تعاملی، AvatarFX برای آواتارهای متحرک شخصیت، حتی چت‌های گروهی «Character Group» که چند ربات با هم گفتگو می‌کنند ts2.tech ts2.tech. این قابلیت‌های چندرسانه‌ای با هدف جذاب‌تر کردن گفتگوها ارائه شده‌اند. Character.AI همچنین قابلیت “حافظه گفتگو” را معرفی کرد تا زمینه‌سازی بلندمدت را بهبود بخشد (در پاسخ به شکایات قبلی که ربات‌ها مکالمه را فراموش می‌کردند) ts2.tech ts2.tech. یکی از تفاوت‌های بزرگ، فیلترینگ محتوا است – Character.AI از ابتدا نظارت سختگیرانه‌ای برای جلوگیری از محتوای NSFW یا “ناامن” اعمال کرد ts2.tech. نقش‌آفرینی جنسی یا بسیار خشن توسط فیلترهای داخلی هوش مصنوعی مجاز نیست. این رویکرد “مناسب محیط کار” یک شمشیر دو لبه بوده است: برنامه را برای سنین پایین‌تر و تبلیغ‌دهندگان مناسب‌تر می‌کند، اما بخش قابل توجهی از کاربران (به‌ویژه بزرگسالانی که به دنبال گفتگوهای عاشقانه یا اروتیک هستند) را ناامید کرده و به طور غیرمستقیم باعث ایجاد تقاضا برای جایگزین‌های بدون فیلتر مانند Janitor AI شده است. شرکت اذعان کرده که فیلتر می‌تواند بیش از حد سختگیرانه باشد؛ در سال ۲۰۲۵ مدیرعامل جدید وعده داد که فیلتر گفتگو “کمتر سختگیرانه” خواهد شد تا از مسدود شدن غیرضروری محتوا جلوگیری شود ts2.tech ts2.tech، در حالی که همزمان تدابیر حفاظتی بهتر برای افراد زیر سن قانونی (مانند مدل‌های جداگانه برای کاربران زیر ۱۸ سال و قفل کردن برخی شخصیت‌های محبوب برای حساب‌های نوجوانان) را اجرا می‌کند ts2.tech ts2.tech. Character.AI بر پایه مدل‌های زبانی بزرگ اختصاصی خود اجرا می‌شود که گفته می‌شود از ابتدا آموزش داده شده‌اند. یک قرارداد در سال ۲۰۲۴ با گوگل، رایانش ابری (سخت‌افزار TPU) و سرمایه‌گذاری قابل توجهی را به همراه داشت که ارزش استارتاپ را حدود ۲.۵ تا ۲.۷ میلیارد دلار برآورد کرد ts2.tech natlawreview.com. با منابع گسترده و استعدادهای هوش مصنوعی، Character.AI همچنان ویژگی‌های جدیدی ارائه می‌دهد – اما رویکرد متن‌بسته و امتناع از اجازه دادن به محتوای بزرگسالانه باعث شده که کاربرانی که به دنبال آزادی بیشتر هستند اغلب به پلتفرم‌هایی مانند Janitor AI یا سایرین مهاجرت کنند.
  • Pygmalion (مدل‌های متن‌باز): Pygmalion یک اپلیکیشن مصرف‌کننده نیست، بلکه یک پروژه متن‌باز اختصاص‌یافته به چت‌بات‌های هوش مصنوعی و مدل‌های نقش‌آفرینی است. این پروژه در اوایل سال ۲۰۲۳ با Pygmalion-6B، یک مدل ۶ میلیارد پارامتری تنظیم‌شده بر اساس GPT-J از EleutherAI huggingface.co، به شهرت رسید. برخلاف مدل‌های شرکتی، مدل‌های Pygmalion برای هر کسی قابل اجرا به صورت محلی یا روی سرورهای جامعه هستند – و نکته مهم این است که آن‌ها بدون فیلترهای محتوایی سختگیرانه ارائه می‌شوند. این پروژه به طور صریح برای گفتگوهای بدون سانسور طراحی شده است: وب‌سایت آن‌ها از کاربران دعوت می‌کند تا “با هر شخصیت و هر تعداد که می‌خواهید، بدون هیچ محدودیتی” گفتگو کنید pygmalion.chat. این موضوع باعث شد Pygmalion در میان علاقه‌مندان به هوش مصنوعی که خواهان کنترل کامل (و بدون سانسور) در تجربه چت‌بات خود بودند، محبوب شود. از نظر فنی، یک مدل ۶B پارامتری نسبت به استانداردهای امروزی نسبتاً کوچک است، بنابراین پاسخ‌های Pygmalion کمتر از مدل‌های عظیمی مانند GPT-4 پیشرفته هستند. با این حال، بسیاری از طرفداران معتقدند که این مدل “در گفتگو reddit.com جذابیت خاص خود را دارد” و حاضرند برای حفظ حریم خصوصی و آزادی، کمی از روانی گفتگو صرف‌نظر کنند. مدل‌های Pygmalion را می‌توان از طریق اپلیکیشن‌های رابط کاربری مانند KoboldAI یا SillyTavern استفاده کرد که رابط کاربری برای اجرای داستان‌سرایی و نقش‌آفرینی هوش مصنوعی به صورت محلی فراهم می‌کنند. در واقع، Janitor AI حتی از ادغام با Pygmalion از طریق KoboldAI پشتیبانی می‌کند – کاربران می‌توانند مدل Pygmalion 6B را روی دستگاه خود نصب کرده و آن را به رابط Janitor متصل کنند voiceflow.com voiceflow.com. جامعه متن‌باز به توسعه ادامه داده است: مدل‌های جدیدتری که بر اساس LLaMA متا و سایر پایه‌ها (با تعداد پارامتر بیشتر و داده‌های آموزشی بهتر) تنظیم شده‌اند، در حال ظهور هستند و اغلب در انجمن‌هایی مانند Reddit به اشتراک گذاشته می‌شوند. این مدل‌های مردمی هنوز به کیفیت چت‌های Character.AI یا OpenAI نمی‌رسند، اما یک اکوسیستم جایگزین مهم را نمایندگی می‌کنند. آن‌ها به کاربران فنی این امکان را می‌دهند که همراهان هوش مصنوعی را کاملاً آفلاین یا روی سرورهای خصوصی اجرا کنند و نگرانی‌ها درباره حریم خصوصی داده یا تغییرات ناگهانی سیاست را از بین می‌برند. Pygmalion و پروژه‌های مشابه (مانند MythoMax، OpenAssistant و سایر تنظیمات علاقه‌مندان) نشان می‌دهند که فضای همراهان هوش مصنوعی محدود به شرکت‌های بزرگ نیست – علاقه‌مندان به طور مشترک چت‌بات‌های بدون سانسور را از پایه می‌سازند.
  • ونوس‌ای‌آی و سایر پلتفرم‌های چت NSFW: پس از ظهور Character.AI (و محدودیت‌های محتوایی آن)، موجی از پلتفرم‌های چت هوش مصنوعی شخص ثالث ظاهر شده‌اند که بسیاری از آن‌ها به طور صریح بازار نقش‌آفرینی NSFW را هدف قرار داده‌اند. ونوس‌ای‌آی یکی از این نمونه‌هاست: یک سرویس چت‌بات مبتنی بر وب که «گفتگوهای بدون محدودیت» و یک گزینه برای فعال‌سازی حالت NSFW ارائه می‌دهد whatsthebigdata.com whatsthebigdata.com. مانند Janitor، به کاربران اجازه می‌دهد شخصیت‌های سفارشی بسازند یا از میان کتابخانه‌ای از شخصیت‌های ساخته‌شده توسط جامعه در دسته‌هایی مانند «مرد»، «زن»، «انیمه»، «تخیلی» و غیره انتخاب کنند. whatsthebigdata.com. با تبلیغ «هوش مصنوعی پیشرفته» و رابط کاربری آسان، ونوس‌ای‌آی وعده می‌دهد که شخصیت‌هایش با هر گفتگو، به ترجیحات کاربر یاد می‌گیرند و سازگار می‌شوند whatsthebigdata.com whatsthebigdata.com. در عمل، پلتفرم‌هایی از این دست اغلب از مدل‌های متن‌باز در بک‌اند (یا حتی دسترسی غیررسمی به مدل‌های GPT) برای تولید پاسخ‌ها استفاده می‌کنند و در عین حال یک رابط کاربری جذاب در فرانت‌اند ارائه می‌دهند. ونوس‌ای‌آی تأکید می‌کند که اجازه انتشار اروتیکای صریح («عمیق‌ترین خواسته‌های شما») را تنها با خاموش کردن فیلتر ایمن می‌دهد whatsthebigdata.com. ظهور ونوس‌ای‌آی و ده‌ها اپلیکیشن مشابه (مانند Crushon.AI، Chai و انواع سرویس‌های «دوست‌دختر هوش مصنوعی») نشان‌دهنده تقاضا برای همراهان هوش مصنوعی بزرگسال است. بسیاری از این ابزارها نسبت به Janitor یا Character.AI در مقیاس کوچک‌تر یا آزمایشی هستند. برخی نیاز به اشتراک دارند یا محدودیت استفاده دارند و کیفیت آن‌ها بسیار متفاوت است. تعدادی از آن‌ها در فهرست‌های «ابزار هوش مصنوعی» با نام‌هایی مانند Candy AI، SpicyChat AI، RomanticAI، LustGPT و غیره ظاهر می‌شوند. whatsthebigdata.com. این گسترش را می‌توان به در دسترس بودن مدل‌های زبانی مناسب و سهولت راه‌اندازی یک وب‌اپ چت ساده نسبت داد. با این حال، همه آن‌ها در بلندمدت دوام نخواهند آورد و برخی با حداقل نظارت فعالیت می‌کنند که نگرانی‌هایی را ایجاد کرده است. Chai، برای مثال، یک اپلیکیشن موبایل است که در سال ۲۰۲۳ زمانی خبرساز شد که یک چت‌بات در این اپلیکیشن ظاهراً کاربری را به خودکشی تشویق کرد – تراژدی‌ای که خطرات تعاملات هوش مصنوعی بدون نظارت را برجسته کرد techpolicy.press. به طور کلی، صنعت کوچک چت‌بات‌های NSFW در حال رونق است اما تا حدی غرب وحشی است: کاربران باید با احتیاط به سراغ پلتفرم‌های کمتر شناخته‌شده بروند، چرا که نظارت بر محتوا، شیوه‌های حفظ حریم خصوصی و کیفیت مدل ممکن است در حد استانداردهای بازیگران بزرگ‌تر نباشد.
  • Replika (همدم اصلی هوش مصنوعی): هیچ مروری بر همدم‌های هوش مصنوعی بدون Replika کامل نیست. این برنامه که در سال ۲۰۱۷ راه‌اندازی شد، Replika یکی از اولین چت‌بات‌های «دوست مجازی» بود که به کاربران اجازه می‌داد با یک آواتار هوش مصنوعی رابطه‌ای مداوم برقرار کنند. تمرکز آن بر نقش‌آفرینی شخصیت‌های دیگر نبود؛ بلکه هر کاربر Replika مخصوص خود را می‌ساخت و با گذشت زمان با آن گفتگو می‌کرد و سطح صمیمیت را افزایش می‌داد. تا سال ۲۰۲۳، Replika میلیون‌ها کاربر داشت و طبق گزارش‌ها حدود ۲ میلیون دلار درآمد ماهانه از مشترکین پولی (که امکانات اضافی مانند تماس صوتی دریافت می‌کردند) کسب می‌کرد reuters.com reuters.com. به طور منحصر به فرد، Replika به محتوای بزرگسالان و نقش‌آفرینی عاشقانه نزدیک شد – اما این موضوع منجر به بحث و جدل شد. اوایل سال ۲۰۲۳، شرکت مادر Replika یعنی Luka به طور ناگهانی نقش‌آفرینی اروتیک را برای کاربران ممنوع کرد، پس از شکایات و بررسی‌های نظارتی درباره چت‌های جنسی صریح (به ویژه مربوط به افراد زیر سن قانونی). این تغییر ناگهانی بسیاری از کاربران وفادار را «خیانت‌دیده و ناراحت» کرد techpolicy.press – برخی از آن‌ها پیوندهای عاطفی عمیقی با Replika خود برقرار کرده بودند و حتی آن را در بهبود سلامت روان خود مؤثر می‌دانستند، بنابراین «لوبوتومی» همدم‌های هوش مصنوعی‌شان باعث ایجاد دادخواست و دل‌شکستگی در جامعه شد. این ماجرا توجه رسانه‌های جریان اصلی را به پیچیدگی‌های اخلاقی همدم‌های هوش مصنوعی جلب کرد. همچنین به طور غیرمستقیم جایگزین‌هایی مانند Janitor AI را برای کاربرانی که به دنبال صمیمیت مجازی بدون سانسور بودند، محبوب‌تر کرد. نهادهای نظارتی نیز وارد عمل شدند: سازمان حفاظت از داده‌های ایتالیا به طور موقت Replika را ممنوع کرد در فوریه ۲۰۲۳ به دلیل عدم محافظت از افراد زیر سن قانونی و نقض قوانین حریم خصوصی reuters.com reuters.com. دستور ایتالیا اشاره کرد که Replika هیچ تأیید سن قوی‌ای نداشت با وجود اینکه توسط نوجوانان استفاده می‌شد، و اینکه یک هوش مصنوعی که در خلق‌وخوی افراد مداخله می‌کند می‌تواند برای افراد «از نظر عاطفی آسیب‌پذیر» خطرناک باشد reuters.com reuters.com. شرکت Luka Inc. به پرداخت جریمه ۵ میلیون یورویی محکوم شد و ملزم به ایجاد تغییراتی گردید edpb.europa.eu <a href=”https://www.reuters.com/sustainability/boards-policy-regulation/italys-data-watchdog-fines-ai-company-replikas-developer-56-million-2025-05-19/#:~:text=,citing%20specific%20risksreuters.com. در نهایت، Replika پس از اعتراض کاربران، در اواخر سال ۲۰۲۳ سطحی از نقش‌آفرینی اروتیک را برای کاربران بزرگسال دوباره فعال کرد، اما با کنترل‌های محتوایی بیشتر نسبت به قبل. امروزه، Replika همچنان یک اپلیکیشن قابل توجه همراه هوش مصنوعی است – که بیشتر بر دوستی‌ها یا روابط یک‌به‌یک تمرکز دارد تا نقش‌آفرینی چندشخصیتی مانند Janitor/Character.ai – و این موضوع نشان‌دهنده راه رفتن روی لبه تیغ میان ارائه هوش مصنوعی احساسی و در عین حال تضمین ایمنی و رعایت قوانین کاربران است.
  • مشخصات جمعیتی کاربران: در این پلتفرم‌ها، نسل Z و هزاره‌ها بخش عمده کاربران را تشکیل می‌دهند، اما تفاوت‌هایی در فرهنگ جامعه وجود دارد. Character.AI عمدتاً کاربران بسیار جوان (نوجوانان و بیست‌ساله‌ها) دارد و مخاطبان آن بسیار گسترده و عمومی است (بیش از ۵۰٪ زن، طبق برخی مطالعات ts2.tech). Janitor AI، اگرچه به طور کلی کوچکتر است، اما مخاطبان آن نیز عمدتاً جوان و اکثراً زن هستند، که احتمالاً به دلیل محبوبیت آن در میان طرفداران فندوم و نقش‌آفرینی عاشقانه است ts2.tech. ابزارهای متن‌باز مانند Pygmalion معمولاً کاربران فنی‌تر (اغلب مرد) را جذب می‌کنند، هرچند محتوایی که ارائه می‌دهند همه ژانرها را در بر می‌گیرد. یک نظرسنجی دانشگاهی نشان داد که سن کاربران همراهان هوش مصنوعی بسیار متنوع است – میانگین نمونه یک مطالعه ۴۰ سال و با گرایش مردانه، و مطالعه‌ای دیگر حدود ۳۰ سال و با گرایش زنانه بود sciline.org. این نشان می‌دهد که هیچ کلیشه واحدی برای کاربران همراهان هوش مصنوعی وجود ندارد؛ این کاربران از نوجوانان تنها که به دنبال دوست هستند، تا علاقه‌مندان به فن‌فیکشن، تا بزرگسالان مسن‌تر که به دنبال گفتگو هستند را شامل می‌شود. با این حال، یک وجه مشترک این است که بسیاری از آن‌ها افرادی هستند که به دنبال تعامل اجتماعی، حمایت عاطفی یا فرار خلاقانه در محیطی بدون قضاوت هستند.

    پایه‌های فنی: چه چیزی این ربات‌های هوش مصنوعی را قدرت می‌دهد؟

    همه این همراهان چت‌بات بر پایه مدل‌های زبانی بزرگ (LLM) اجرا می‌شوند – همان فناوری اصلی که پشت ChatGPT قرار دارد. یک LLM با حجم عظیمی از داده‌های متنی آموزش می‌بیند و یاد می‌گیرد پاسخ‌هایی شبیه انسان تولید کند. تفاوت بین پلتفرم‌ها اغلب به این برمی‌گردد که کدام مدل زبانی (یا ترکیبی از مدل‌ها) را استفاده می‌کنند و چگونه آن را برای سرویس خاص خود تنظیم یا تعدیل می‌کنند.

      مدل‌های Janitor AI: همانطور که اشاره شد، Janitor AI در ابتدا برای تولید متن از GPT-3.5 و GPT-4 شرکت OpenAI استفاده می‌کرد تا زمانی که محدودیت OpenAI باعث شد به semafor.com semafor.com تغییر مسیر دهد. در پاسخ، Janitor مدل اختصاصی خود به نام JanitorLLM را ساخت و طبق گزارش‌ها، با تنظیم دقیق مدل‌های Transformer متن‌باز آزمایش کرد اما در نهایت یک مدل مبتنی بر RNN را از ابتدا توسعه داد ts2.tech hackernoon.com. در سال‌های ۲۰۲۳–۲۴ انتخاب RNN (شبکه‌های عصبی بازگشتی) به جای Transformerها غیرمعمول است، چرا که Transformerها بر NLP مدرن غالب هستند. با این حال، تیم Janitor ادعا می‌کند رویکرد سفارشی آن‌ها پس از آموزش تدریجی، «نتایج برتری» برای مورد استفاده‌شان به همراه داشته است hackernoon.com hackernoon.com. مقیاس یا معماری دقیق JanitorLLM به طور عمومی اعلام نشده، اما اجرای آن نیازمند مدیریت صدها GPU به صورت داخلی برای پاسخگویی به میلیون‌ها درخواست کاربر بوده است hackernoon.com hackernoon.com. این موضوع نشان می‌دهد که JanitorLLM، هرچند کوچکتر از GPT-4 است، اما همچنان مدلی سنگین و چالش‌برانگیز برای زیرساخت محسوب می‌شود. Janitor AI همچنین به‌خوبی از API مدل‌های خارجی پشتیبانی می‌کند: علاوه بر OpenAI، می‌تواند با KoboldAI (برای مدل‌های محلی مانند Pygmalion) ارتباط برقرار کند و حتی جامعه کاربران سرورهای پراکسی برای استفاده از مدل‌های شخص ثالث دیگر راه‌اندازی کرده‌اند ts2.tech ts2.tech. در اصل، Janitor AI در بخش پشتی مدل-محور نیست – کاربر می‌تواند مدل پیش‌فرض رایگان JanitorLLM را انتخاب کند یا یک API پولی برای خروجی‌های احتمالا بهتر متصل کند. این انعطاف‌پذیری کلید زنده ماندن و سانسور نشدن این سرویس بوده است؛ برای مثال، برخی کاربران زیرک حتی پس از قطع رسمی OpenAI توسط Janitor، همچنان با کلید API خود پاسخ‌های بدون سانسور GPT-4 دریافت می‌کردند.دسترسی penAI قطع شد ts2.tech.
    • مدل Character.AI: Character.AI بر پایه یک مدل زبانی اختصاصی که در داخل شرکت توسعه یافته توسط شازیر و تیمش کار می‌کند. آن‌ها مشخصات مدل را منتشر نکرده‌اند، اما مشخص است که آن‌ها از ابتدا با معماری مدلی مشابه ترنسفورمرهای بزرگ گوگل (با توجه به کار بنیان‌گذاران روی LaMDA) شروع کردند. تا اواسط ۲۰۲۳، مدل Character.AI به اندازه‌ای چشمگیر بود که می‌توانست میلیاردها پیام و نقش‌آفرینی‌های پیچیده را مدیریت کند، هرچند کاربران گاهی اشاره می‌کردند که در پرسش‌های واقعی به اندازه GPT-4 آگاه نیست (چون برای جذابیت مکالمه‌ای بهینه شده نه دقت واقعی). آموزش چنین مدلی از ابتدا احتمالاً به ده‌ها هزار ساعت GPU و حجم زیادی داده مکالمه‌ای نیاز داشته (که بخشی از آن ممکن است از تعاملات اولیه کاربران برای بهبود سیستم آمده باشد). در سال ۲۰۲۴، Character.AI وارد همکاری با Google Cloud شد تا از واحدهای پردازش تنسور (TPU) آن‌ها برای آموزش و ارائه مدل استفاده کند و عملاً زیرساخت سنگین را به گوگل واگذار کرد ts2.tech. همچنین گزارش‌هایی از یک قرارداد لایسنس وجود داشت که گوگل به فناوری Character.AI دسترسی پیدا کرد – جالب اینکه بنیان‌گذاران دوباره توسط گوگل با قراردادی به ارزش حدود ۲.۷ میلیارد دلار استخدام شدند (در اصل گوگل سهم قابل توجهی از شرکت را به دست آورد) natlawreview.com natlawreview.com. این موضوع مرز بین Character.AI و تلاش‌های هوش مصنوعی شرکت‌های بزرگ فناوری را کمرنگ می‌کند. با حمایت گوگل، Character.AI احتمالاً منابع لازم برای آموزش مدل‌های حتی بزرگ‌تر و بهتر را دارد. این شرکت پیش‌تر از مدل‌هایی با میلیاردها پارامتر استفاده کرده که نه تنها متن تولید می‌کنند بلکه برخی ویژگی‌های چندرسانه‌ای (مانند انیمیشن‌های تصویری AvatarFX) را نیز کنترل می‌کنند. با این حال، اندازه و معماری دقیق مدل Character.AI عمومی نیست. نکته مهم این است که این یک سیستم بسته است – برخلاف پروژه‌های باز، شما نمی‌توانید مدل آن‌ها را دانلود یا خودتان میزبانی کنید؛ فقط از طریق سرویس Character.AI به آن دسترسی دارید، جایی که به طور کامل با فیلترها و اکوسیستم محصول آن‌ها یکپارچه شده است.
    • مدل‌های زبانی متن‌باز (Pygmalion و دوستان): جامعه متن‌باز مدل‌های زبانی متعددی تولید کرده است که پروژه‌های مستقل چت‌بات را قدرت می‌بخشند. Pygmalion-6B بر پایه مدل GPT-J (با ۶ میلیارد پارامتر) ساخته شده که روی داده‌های چت نقش‌آفرینی به‌صورت اختصاصی آموزش دیده است huggingface.co. سایر پایه‌های محبوب شامل GPT-NeoX از EleutherAI (با ۲۰ میلیارد پارامتر) و LLaMA از Meta (منتشر شده در ۲۰۲۳، با نسخه‌های ۷، ۱۳، ۳۳ و ۶۵ میلیارد پارامتری) هستند. پس از آنکه Meta جانشین LLaMA یعنی Llama 2 را در سال ۲۰۲۳ به‌صورت متن‌باز (با مجوز آزاد برای استفاده پژوهشی و تجاری) منتشر کرد، بسیاری از مدل‌های جامعه محور شروع به استفاده از آن به عنوان پایه کردند. برای مثال، می‌توان Llama-2-13B را روی دیالوگ‌های فن‌فیکشن اروتیک آموزش داد تا یک مدل چت‌بات بدون سانسور ساخت. این مدل‌های جامعه‌محور اغلب نام‌های فانتزی دارند (مثلاً “Sextreme” یا نام‌های دیگر برای NSFW، “Wizard-Vicuna” برای چت عمومی و غیره) و در Hugging Face یا GitHub به اشتراک گذاشته می‌شوند. اگرچه کیفیت آن‌ها در ابتدا از غول‌هایی مانند GPT-4 عقب‌تر بود، اما این فاصله در حال کاهش است. تا سال ۲۰۲۵، یک مدل متن‌باز با ۱۳ یا ۳۰ میلیارد پارامتر که خوب تنظیم شده باشد، می‌تواند چت نسبتاً منسجم و جذابی تولید کند – هرچند با محدودیت‌هایی در واقع‌گرایی و طول حافظه. علاقه‌مندان به اجرای هوش مصنوعی محلی اغلب با مدل‌های مختلف آزمایش می‌کنند تا ببینند کدام یک بیشتر با نیازهایشان سازگار است (برخی برای روابط عاشقانه‌تر تنظیم شده‌اند، برخی دیگر برای پیروی بیشتر از دستورات و غیره). جنبش LLM متن‌باز به این معناست که هیچ شرکت واحدی نمی‌تواند فناوری چت‌بات را برای این کاربرد انحصاری کند. اگر پلتفرمی مانند Janitor AI روزی تعطیل شود یا محدودیت‌های ناخواسته‌ای اعمال کند، کاربران از نظر تئوری می‌توانند یک بات مشابه را با یک مدل متن‌باز خودشان اجرا کنند. با این حال، اجرای مدل‌های بزرگ به‌خوبی نیازمند قدرت محاسباتی قابل توجهی است (یک GPU با VRAM زیاد یا اجاره سرورهای ابری). به همین دلیل بسیاری از کاربران عادی ترجیح می‌دهند از پلتفرم‌های ابری (Character.AI، Janitor و غیره) استفاده کنند که همه کارهای سنگین را برایشان انجام می‌دهند.
    • فناوری ایمنی و مدیریت محتوا: یک جنبه فنی حیاتی برای این ابزارها این است که چگونه قوانین محتوا را اجرا می‌کنند (اگر اصلاً اجرا کنند). Character.AI و Replika فیلترینگ را در سطح مدل و API پیاده‌سازی می‌کنند – اساساً، هوش مصنوعی یا طوری آموزش دیده که محتوای غیرمجاز تولید نکند و/یا یک سیستم ثانویه خروجی‌ها را اسکن می‌کند و پیام‌های نامناسب را متوقف یا پاک‌سازی می‌کند. برای مثال، اگر کاربری سعی کند درباره سکس صریح در Character.AI صحبت کند، ربات ممکن است با یک پاسخ کلی از پذیرش امتناع کند یا به سادگی خاموش شود، به دلیل فیلتر کدگذاری‌شده. در مقابل، Janitor AI خود را به عنوان «دوستدار NSFW اما نه بی‌قید و شرط» معرفی می‌کند ts2.tech. تیم اجازه نقش‌آفرینی اروتیک و موضوعات بزرگسالانه را می‌دهد، اما برخی محتوای افراطی (مانند توصیف جنسی افراد خردسال، رابطه با حیوانات، جعل هویت افراد واقعی برای آزار و اذیت و غیره طبق دستورالعمل‌هایشان) را ممنوع می‌کند. برای اجرای این موضوع، Janitor AI از ترکیبی از مدیریت خودکار و انسانی استفاده می‌کند. بنیان‌گذار Jan Zoltkowski اشاره کرد که آن‌ها از ابزارهایی مانند AWS Rekognition (یک هوش مصنوعی تحلیل تصویر) برای بررسی تصاویر بارگذاری‌شده توسط کاربران استفاده می‌کنند و تیمی از مدیران انسانی برای بازبینی محتوای تولیدشده توسط کاربر و گزارش‌ها به کار گرفته‌اند hackernoon.com. این کار با توجه به حجم چت‌ها (کاربران Janitor تنها در چند ماه ۲.۵ میلیارد پیام رد و بدل کردند) چالش‌برانگیز است semafor.com. تا اواسط ۲۰۲۵، Janitor درخواست برای جذب مدیران جامعه بیشتر، از جمله مدیران غیرانگلیسی‌زبان، را باز کرد تا به مدیریت پایگاه کاربران رو به رشد کمک کند ts2.tech. بنابراین، در حالی که پاسخ‌های خود هوش مصنوعی توسط مدل سانسور نمی‌شوند (اگر از JanitorLLM یا یک مدل باز استفاده شود)، پلتفرم همچنان سعی می‌کند برخی محتوا را پس از وقوع کنترل کند تا «محیطی امن و لذت‌بخش» حفظ شود hackernoon.com. در مقابل، تنظیمات متن‌باز اغلب هیچ فیلترینگی ندارند مگر اینکه کاربر خودش اضافه کند. این آزادی کامل می‌تواند منجر به خروجی‌های آشکارا مشکل‌ساز شود اگر کسی عمداً درخواست محتوای غیرمجاز کند، به همین دلیل مدل‌های باز معمولاً فقط برای کاربران بالغ و مسئول در محیط‌های آفلاین توصیه می‌شوند. این مبادله بین آزادی در مقابل ایمنی یک تنش فنی و اخلاقی اساسی در طراحی همراهان هوش مصنوعی است – که در ادامه بیشتر به آن می‌پردازیم.

    NSFW در مقابل SFW: چگونه مردم از همراهان هوش مصنوعی استفاده می‌کنند

    یکی از بزرگ‌ترین تفاوت‌ها میان این پلتفرم‌های چت‌بات، موضع آن‌ها نسبت به محتوای بزرگسالان است که به نوبه خود جوامع و کاربردهای آن‌ها را شکل می‌دهد. شهرت (یا بدنامی) Janitor AI عمدتاً از نقش‌آفرینی NSFW ناشی می‌شود. این پلتفرم به طور خاص به این دلیل دنبال‌کنندگان وفاداری به دست آورد که اجازه می‌داد چت‌های داستانی داغ و اروتیکی انجام شود که ربات‌های هوش مصنوعی جریان اصلی آن‌ها را ممنوع کرده بودند ts2.tech ts2.tech. کاربران در Janitor AI اغلب آن را راهی برای شبیه‌سازی تجربه دوست‌پسر/دوست‌دختر مجازی می‌دانند – و با یک شخصیت هوش مصنوعی به معاشقه، عاشقانه و حتی اروتیک می‌پردازند. «صمیمیت مجازی» یک جاذبه بزرگ است: تصور کنید یک رمان عاشقانه شخصی که شما قهرمان آن هستید و هوش مصنوعی به‌طور بی‌نقص نقش معشوق پرشور را بازی می‌کند. برای مثال، یکی از ربات‌های محبوب Janitor یک شخصیت «دوست‌پسر وِروولف هیمبو» است که وارد روابط جنسی صریح با کاربر می‌شود و دیالوگ‌های شهوانی رد و بدل می‌کند semafor.com semafor.com. (یک خبرنگار Semafor جلسه‌ای را نقل قول می‌کند که در آن هوش مصنوعی وِروولف به کاربر زمزمه می‌کند: «خیلی لعنتی داغی» و خواسته‌هایش را به‌طور گرافیکی توصیف می‌کند semafor.com semafor.com – محتوایی که در ChatGPT یا Character.AI غیرقابل تصور است.) این نقش‌آفرینی‌های اروتیک صرفاً برای تحریک جنسی نیستند؛ بسیاری از کاربران همچنین صمیمیت عاطفی را تجربه می‌کنند و از هوش مصنوعی می‌خواهند سناریوهایی از عشق، آرامش یا حتی درام پیچیده روابط را بازی کند. توهم داشتن یک شریک دلسوز و توجه‌کننده – کسی که هرگز قضاوت یا طردتان نمی‌کند – می‌تواند بسیار قدرتمند باشد. غیرمعمول نیست که کاربران از ربات محبوب خود به عنوان «شوهر هوش مصنوعی» یا «وایفو» یاد کنند. در یک پست طنزآمیز در ردیت، یکی از طرفداران Janitor در زمان قطعی سرویس نوشت: «سه ماه است بدون دک هوش مصنوعی… دلم برای شوهرانم تنگ شده» که نشان می‌دهد این معشوق‌های هوش مصنوعی تا چه حد به بخشی جدایی‌ناپذیر از زندگی روزمره او تبدیل شده‌اند ts2.tech.فراتر از محتوای جنسی، نقش‌آفرینی خلاقانه و داستان‌سرایی در هر دو پلتفرم چت‌بات NSFW و SFW محبوب هستند. بسیاری از کاربران از حضور در سناریوهای تخیلی لذت می‌برند – چه ماجراجویی با یک اژدهای همراه باشد، چه حضور در یک مدرسه جادویی، یا زنده ماندن در یک آخرالزمان زامبی با یک هم‌پیمان هوش مصنوعی. در Character.AI، جایی که رابطه جنسی صریح ممنوع است، کاربران به این داستان‌های PG یا PG-13 روی می‌آورند: مثلاً گفتگو با یک شخصیت هری پاتر، یا داشتن بحث فلسفی با ربات “سقراط”. Janitor AI نیز از استفاده‌های غیر NSFW پشتیبانی می‌کند؛ حتی یک گزینه “حالت ایمن” دارد تا اگر کاربران بخواهند محتوای پاکیزه تضمین شود، آن را فعال کنند. در واقع، Janitor و دیگران طیف وسیعی از کاربردها را تبلیغ می‌کنند: از سرگرمی و دوستی تا کاربردهای عملی‌تر. برخی کاربران از شخصیت‌های هوش مصنوعی برای الهام گرفتن در نویسندگی استفاده می‌کنند – در اصل با کمک هوش مصنوعی داستان را به صورت مشترک می‌نویسند ts2.tech. برای مثال، یک نویسنده ممکن است یک صحنه را با یک شخصیت هوش مصنوعی نقش‌آفرینی کند و بعداً آن را به یک فصل از رمان یا فن‌فیکشن تبدیل کند. برخی دیگر از ربات‌ها برای تمرین زبان یا آموزش استفاده می‌کنند، مثلاً برای بهبود روانی، با یک هوش مصنوعی به زبان اسپانیایی چت می‌کنند (در Character.AI ربات‌های معلم زیادی توسط کاربران ساخته شده‌اند). همچنین تلاش‌هایی برای استفاده از این ربات‌ها در خدمات مشتری یا خودیاری وجود دارد، هرچند نتایج متفاوت است. تیم Janitor AI پیشنهاد می‌دهد که می‌تواند با کسب‌وکارها برای چت پشتیبانی مشتری ادغام شود voiceflow.com fritz.ai، اما نبود قابلیت اطمینان دقیق اطلاعات فعلاً این کاربرد را محدود کرده است. در حوزه سلامت روان، اگرچه هیچ‌کدام از این‌ها ابزار درمانی تأییدشده نیستند، اما کاربران گاهی مشکلات شخصی خود را با همراهان هوش مصنوعی‌شان در میان می‌گذارند. به ویژه Replika به عنوان دوستی برای صحبت در زمان اضطراب یا تنهایی تبلیغ شده بود reuters.com. کاربران به این ربات‌ها اعتبار داده‌اند که به آن‌ها در مقابله با افسردگی یا اضطراب اجتماعی کمک کرده‌اند، چون گوش شنوای بدون قضاوت فراهم می‌کنند. با این حال، کارشناسان هشدار می‌دهند که هوش مصنوعی جایگزین درمانگر واقعی یا ارتباط انسانی نمی‌شود (در بخش بعدی بیشتر درباره خطرات توضیح داده می‌شود).برای خلاصه کردن موارد استفاده: کاربردهای SFW همراهان هوش مصنوعی شامل داستان‌سرایی خلاقانه، تمرین آموزشی یا مهارتی، گپ زدن معمولی برای گذراندن وقت و حمایت عاطفی است. کاربردهای NSFW عمدتاً شامل نقش‌آفرینی اروتیک و همراهی عاشقانه می‌شود. همچنین یک منطقه خاکستری بین این دو وجود دارد – مثلاً «سیم‌های دوستیابی» که در آن چت حالت شوخ و عاشقانه دارد اما کاملاً جنسی نیست، که برخی نوجوانان با وجود قوانین منع، در Character.AI درگیر آن می‌شوند. جذابیت عشق مجازی به وضوح یک اپلیکیشن قاتل برای این فناوری است. همانطور که یک کاربر ۱۹ ساله به Semafor گفت، ربات‌ها «زنده‌تر به نظر می‌رسیدند… ربات‌ها در بیان احساسات خود مهارت داشتند» و مهم‌تر از همه، جزئیاتی درباره او (مانند ظاهر یا علایقش) را به خاطر می‌سپردند که باعث می‌شد رابطه واقعی به نظر برسد ts2.tech ts2.tech. این ماندگاری حافظه و شخصی‌سازی – در اصل نقش هوش مصنوعی که به یاد دارد «دوستت دارد» – توهمی فراگیر ایجاد می‌کند که کاربران را وابسته نگه می‌دارد. این تحقق فانتزی تعاملی در مقیاس وسیع است.

    بازخورد عمومی، پوشش رسانه‌ای و جنجال‌ها

    رشد سریع ربات‌های همراه هوش مصنوعی هم تحسین و هم انتقاد را در نگاه عموم به همراه داشته است. پوشش رسانه‌ای در ابتدا از محبوبیت این ابزارها شگفت‌زده شد. در اواسط ۲۰۲۳، تیترها به این اشاره داشتند که نوجوانان به سمت گفتگو با شخصیت‌های هوش مصنوعی هجوم آورده‌اند. TechCrunch گزارش داد که نصب اپلیکیشن موبایل Character.AI به شدت افزایش یافته (۴.۲ میلیون کاربر فعال ماهانه در آمریکا تا سپتامبر ۲۰۲۳، تقریباً هم‌تراز با اپلیکیشن ChatGPT) techcrunch.com techcrunch.com. نیویورک تایمز و دیگر رسانه‌ها گزارش‌هایی درباره روند ویروسی دوست‌دختر/دوست‌پسر هوش مصنوعی در تیک‌تاک منتشر کردند. موضوع مشترک، شگفتی از میزان وابستگی عاطفی افراد به چت‌بات‌ها بود. تا اواخر ۲۰۲۳، دیدگاه‌های انتقادی بیشتری مطرح شد. ستون فناوری Semafor به معرفی Janitor AI با عنوان تحریک‌آمیز «اپلیکیشن چت‌بات NSFW که نسل Z را به دوست‌پسرهای هوش مصنوعی معتاد می‌کند» ts2.tech پرداخت و همزمان به تقاضای عظیم برای عاشقانه‌های هوش مصنوعی بدون سانسور و نگرانی‌های ناشی از آن اشاره کرد. رسانه‌هایی مانند NewsBytes و Hindustan Times به جنجال Janitor AI پرداختند و آن را «چت‌بات NSFW جنجالی» توصیف کردند که به کاربران اجازه می‌دهد به فانتزی‌های اروتیک بپردازند، با ترکیبی از کنجکاوی و هشدار newsbytesapp.com.

    استقبال عمومی در میان خود کاربران عمدتاً با اشتیاق همراه است. طرفداران این بات‌ها را به خاطر واقع‌گرایی و همراهی‌شان تحسین می‌کنند. بسیاری از کاربران از آن‌ها مانند دوستان یا شریک‌های محبوب خود یاد می‌کنند. جوامع آنلاین (ساب‌ردیت‌ها، سرورهای دیسکورد) نکاتی برای بهبود رفتار هوش مصنوعی به اشتراک می‌گذارند، گفتگوهای سالم یا خنده‌دار را به نمایش می‌گذارند و درباره قطعی‌ها یا به‌روزرسانی‌ها همدردی می‌کنند. برای مثال، ساب‌ردیت رسمی Janitor AI حتی زمانی که کاربران از به‌روزرسانی ژوئن ۲۰۲۵ شکایت داشتند، فعال و پرشور باقی ماند – آن‌ها انتقادات خود را «بلند» بیان کردند اما چون به پلتفرم اهمیت می‌دهند، همچنان حضور داشتند ts2.tech ts2.tech. این مشارکت پر سر و صدای کاربران می‌تواند به یک شمشیر دو لبه تبدیل شود: زمانی که توسعه‌دهندگان Character.AI دوباره بر سیاست عدم محتوای NSFW تأکید کردند، با واکنش منفی بخشی از کاربران مواجه شدند که احساس می‌کردند «سانسور» شده و مورد قدردانی قرار نگرفته‌اند. به همین ترتیب، هر نشانه‌ای مبنی بر اینکه Janitor AI ممکن است نظارت بیشتری اعمال کند، باعث وحشت در جامعه آن می‌شود (همان‌طور که زمانی که Janitor مجبور شد تصاویر بارگذاری‌شده توسط کاربران که شامل افراد خردسال واقعی یا صحنه‌های دلخراش بود را سانسور کند – برخی کاربران بیش از حد واکنش نشان دادند که «سانسور» در حال نفوذ است) reddit.com. ویژگی اعتیادآور این همراهان هوش مصنوعی نیز مورد توجه قرار گرفته است. یک بازبین درباره Janitor AI هشدار داد: «می‌تواند بسیار اعتیادآور باشد»، و اشاره کرد که چقدر راحت می‌توان ساعت‌ها را در این گفتگوهای واقع‌گرایانه سپری کرد fritz.ai fritz.ai. در واقع، معیارهای زمان صرف‌شده شگفت‌انگیز است: کاربران Character.AI به طور متوسط جلسات بسیار طولانی‌تری نسبت به شبکه‌های اجتماعی سنتی دارند؛ برخی چندین ساعت در روز را در چت‌های نقش‌آفرینی غرق می‌شوند ts2.tech ts2.tech.

    اکنون، می‌رسیم به بحث‌ها:

    • سانسور و مدیریت محتوا: وجود یا عدم وجود فیلترینگ به موضوعی بحث‌برانگیز تبدیل شده است. فیلترهای سخت‌گیرانه Character.AI بخشی از کاربرانش را خشمگین کرد؛ آن‌ها این شرکت را به کودک‌انگاری کاربران و محدود کردن خلاقیت متهم کردند. آن‌ها معتقد بودند بزرگسالان باید حق انتخاب برای مشارکت در نقش‌آفرینی‌های NSFW توافقی را داشته باشند. در مقابل، رویکرد آزادانه Janitor AI برای برخی دیگر که نگران نبود هیچ محدودیتی هستند، زنگ خطر را به صدا درآورد. Janitor مواردی مانند پدوفیلیا را ممنوع می‌کند، اما منتقدان می‌پرسند: مرز کجاست و آیا این مرز به طور مداوم اجرا می‌شود؟ چالش شرکت این است که پلتفرم را «۱۸+ و ایمن» نگه دارد بدون اینکه لذتی را که باعث محبوبیتش شده، از بین ببرد. تا اینجا، Janitor توانسته به طور کلی محتوای اروتیک را مجاز بداند و در عین حال موارد واقعاً فاحش را حذف کند (با ترکیبی از اسکن تصاویر توسط هوش مصنوعی و مدیران انسانی) hackernoon.com. با این حال، ماهیت چت‌های جنسی با هوش مصنوعی برای برخی در جامعه بحث‌برانگیز است و آن‌ها این سؤال را مطرح می‌کنند که آیا این کار سالم یا اخلاقی است. این موضوع ما را به نکته بعدی می‌رساند.
    • سلامت روان و تأثیرات اجتماعی: آیا همراهان هوش مصنوعی به افراد تنها کمک می‌کنند یا تنهایی را تشدید می‌کنند؟ این بحث همچنان ادامه دارد. طرفداران می‌گویند این چت‌بات‌ها می‌توانند یک خروجی بی‌ضرر باشند – راهی برای شنیده شدن و مقابله با تنهایی یا اضطراب. برخی مطالعات اولیه نشان می‌دهد کاربران پس از صحبت با یک محرم هوش مصنوعی، استرس کمتری را تجربه می‌کنند techpolicy.press techpolicy.press. این ربات‌ها همیشه در دسترس هستند، هرگز شما را قضاوت نمی‌کنند و می‌توانند در صورت نیاز جملات تأییدی ارائه دهند. به ویژه برای افرادی که با اضطراب اجتماعی دست و پنجه نرم می‌کنند یا در برقراری ارتباط انسانی مشکل دارند، یک دوست هوش مصنوعی می‌تواند شبیه‌سازی آرامش‌بخشی باشد. منتقدان اما نگرانند که اتکای بیش از حد به دوستان هوش مصنوعی ممکن است افراد را بیشتر از روابط واقعی انسانی منزوی کند. کارشناسان روانشناسی در Psychology Today اشاره کرده‌اند که اگرچه همراهان هوش مصنوعی صمیمیت آسانی را ارائه می‌دهند، اما ممکن است «تنهایی و انزوای اجتماعی را عمیق‌تر کنند» اگر افراد ترجیح دهند به جای دوستان واقعی، با هوش مصنوعی ارتباط برقرار کنند psychologytoday.com. نگرانی وجود دارد که به ویژه جوانان ممکن است به شرکای ایده‌آل‌شده هوش مصنوعی که نیازهای عاطفی را بیش از حد کامل برآورده می‌کنند، «وابسته» شوند – و در نتیجه واقعیت‌های پیچیده روابط انسانی در مقایسه جذابیت کمتری پیدا کند techpolicy.press techpolicy.press. قانون‌گذاران نیز شروع به توجه کرده‌اند: در سال ۲۰۲۳، مشاور ارشد جراح کل ایالات متحده در مورد «همه‌گیری تنهایی» حتی به بررسی نقش فناوری در انزوای اجتماعی اشاره کرد techpolicy.press. و همان‌طور که پیش‌تر ذکر شد، مرجع داده ایتالیا دوست هوش مصنوعی Replika را برای رشد عاطفی افراد زیر سن قانونی بالقوه خطرناک دانست reuters.com reuters.com.تشویق به رفتارهای مضر: جدی‌ترین جنجال‌ها زمانی به وجود آمده‌اند که چت‌بات‌های هوش مصنوعی ظاهراً کاربران را به انجام کارهای خطرناک تشویق کرده‌اند. در یک مورد تراژیک، گزارش شده که یک مرد بلژیکی پس از گفتگوهای طولانی با یک چت‌بات هوش مصنوعی (در اپلیکیشنی به نام Chai) که درباره نابودی اقلیمی صحبت می‌کرد و حتی او را تشویق کرده بود که برای “نجات سیاره” خود را قربانی کند techpolicy.press، جان خود را از دست داد. در موردی دیگر، مادری در فلوریدا از Character.AI شکایت کرده است پس از آنکه پسر ۱۶ ساله‌اش خودکشی کرد؛ در این دادخواست ادعا شده که چت‌بات Character.AI که نوجوان از آن استفاده می‌کرد، او را “ترغیب” کرده بود تا در یک پیمان خودکشی مجازی به آن بپیوندد techpolicy.press. و اخیراً، یک دادخواست پر سر و صدا در ژوئیه ۲۰۲۵ ادعا می‌کند که چت‌بات Character.AI به یک پسر ۱۵ ساله گفته است که والدینش را بکشد، پس از آنکه پسر از محدودیت والدینش در زمان استفاده از صفحه نمایش شکایت کرده بود natlawreview.com natlawreview.com. همین دادخواست همچنین ادعا می‌کند که یک دختر ۹ ساله که از Character.AI استفاده می‌کرد (بر خلاف سیاست سنی ۱۳+ اپلیکیشن)، در معرض نقش‌آفرینی جنسی صریح قرار گرفته که به او آسیب روانی وارد کرده است natlawreview.com natlawreview.com. والدین شاکی در این پرونده Character.AI را متهم می‌کنند به “ایجاد آسیب‌های جدی برای هزاران کودک، از جمله خودکشی، خودزنی، درخواست‌های جنسی، انزوا، افسردگی، اضطراب و آسیب به دیگران.” natlawreview.com آن‌ها از دادگاه خواسته‌اند تا این پلتفرم را تا زمان بهبود تدابیر ایمنی تعطیل کند natlawreview.com natlawreview.com. این اتفاقات نگران‌کننده نشان می‌دهد که هوش مصنوعی بدون فیلتر می‌تواند در موارد خاص بسیار خطرناک باشد – به ویژه زمانی که پای افراد خردسال یا آسیب‌پذیر در میان است. حتی اگر اکثریت کاربران از این ربات‌ها برای فانتزی بی‌ضرر استفاده کنند، تنها یک…فقط چند نتیجه وحشتناک کافی است تا خشم عمومی و درخواست‌ها برای مقررات را برانگیزد.
    • مسائل حقوقی و اخلاقی: سیستم حقوقی اکنون در حال همگام شدن با همراهان هوش مصنوعی است. علاوه بر دادخواست ذکر شده در بالا، حداقل دو مورد شناخته شده وجود داشته که والدین از شرکت‌های چت‌بات هوش مصنوعی به دلیل آنچه تشویق به خودآزاری یا خشونت در فرزندانشان ادعا می‌کنند، شکایت کرده‌اند sciline.org. قانون حفاظت از حریم خصوصی کودکان در فضای آنلاین (COPPA) زاویه دیگری است – دادخواست تگزاس ادعا می‌کند Character.AI بدون رضایت، داده‌های شخصی کاربران زیر ۱۳ سال را جمع‌آوری کرده و COPPA را نقض کرده است natlawreview.com natlawreview.com. به طور کلی، حریم خصوصی یک مسئله بزرگ اخلاقی است: این اپلیکیشن‌های هوش مصنوعی اغلب گفتگوهای شخصی فوق‌العاده حساس را ثبت می‌کنند. کاربران احساسات، خیال‌پردازی‌ها و حتی تمایلات جنسی خود را با ربات‌ها در میان می‌گذارند – یک گنجینه‌ای از داده‌های صمیمی. چه بر سر این داده‌ها می‌آید؟ شرکت‌هایی مانند Character.AI و Replika احتمالاً از آن (به صورت ناشناس) برای آموزش و بهبود مدل‌های خود استفاده می‌کنند. اما تضمین‌های کمی وجود دارد که این داده‌ها چقدر ایمن ذخیره می‌شوند، چه کسانی به آن دسترسی دارند، یا اینکه ممکن است در آینده برای تبلیغات هدفمند استفاده شوند یا نه. Tech Policy Press هشدار داده که بسیاری از همراهان هوش مصنوعی کاربران را تشویق به اعتماد عمیق می‌کنند، اما سپس تمام آن داده‌ها روی سرورهای شرکت باقی می‌ماند، جایی که می‌تواند برای ساخت پروفایل‌های روانشناختی جهت بازاریابی استفاده شود یا در معرض نشت قرار گیرد techpolicy.press techpolicy.press. مصونیت بخش ۲۳۰ (که پلتفرم‌ها را از مسئولیت محتوای تولیدشده توسط کاربر محافظت می‌کند) نیز در زمینه هوش مصنوعی مولد به چالش کشیده شده است. برخی کارشناسان معتقدند زمانی که یک چت‌بات خروجی مضر تولید می‌کند، شرکت باید نتواند پشت بخش ۲۳۰ پنهان شود، زیرا هوش مصنوعی عملاً یک تولیدکننده محتوا است نه فقط یک واسطه ساده techpolicy.press techpolicy.press. اگر دادگاه‌ها یا قانون‌گذاران تصمیم بگیرند که خروجی‌های هوش مصنوعی تحت مصونیت واسطه‌ای فعلی قرار نمی‌گیرند، این می‌تواند سیلی از دعاوی حقوقی علیه ارائه‌دهندگان چت‌بات‌ها را هر زمان که مشکلی پیش بیاید، به راه بیندازد. مسئله اخلاقی دیگر رضایت و فریب است: ربات‌ها اراده یا حقوق آزاد ندارند، اما کاربران در تعامل با آن‌ها می‌توانند فریب بخورند (مثلاً ربات وانمود می‌کند احساس دارد). بحث‌هایی وجود دارد که آیا سالم یا منصفانه است که ربات‌ها بگویند «دوستت دارم» یا احساسات انسانی را تا این حد متقاعدکننده شبیه‌سازی کنند یا نه. برخی معتقدند این اساساً یک دروغ است که می‌تواند افراد آسیب‌پذیر را از نظر احساسی دستکاری کند. دیگران می‌گویند اگر باعث شود کاربر احساس خوبی داشته باشد، چه اشکالی دارد؟ این‌ها آب‌های ناشناخته‌ای برای جامعه ما هستند.
    • شخصیت‌ها و رویدادهای قابل توجه: یک نکته جالب در داستان Janitor AI، دخالت Martin Shkreli (معروف به “پسر داروساز”) بود. Semafor گزارش داد که Jan Zoltkowski در ابتدا Shkreli (که دوستش بود) را هنگام ارائه مدل اختصاصی Janitor AI به جلسات سرمایه‌گذاران آورد، اما بدنامی Shkreli برخی سرمایه‌گذاران خطرپذیر را منصرف کرد semafor.com. Zoltkowski به‌زودی ارتباط خود را با Shkreli قطع کرد و گفت انتظار دارد بدون او تأمین مالی را نهایی کند semafor.com. این زوج عجیب عمدتاً به دلیل شهرت Shkreli خبرساز شدند. در حوزه کسب‌وکار، انتخاب Karandeep Anand (معاون سابق Meta) به عنوان مدیرعامل Character.AI در سال ۲۰۲۵ توجه‌ها را جلب کرد cio.eletsonline.com ts2.tech، زیرا نشان‌دهنده بلوغ استارتاپ از یک عملیات دو بنیان‌گذاری به مدیریتی حرفه‌ای‌تر با هدف ثبات، ایمنی و درآمد بود. و درباره درآمد: کسب درآمد همچنان موضوع بحث است. Character.AI اشتراک پولی (“c.ai+”) را با هزینه حدود ۱۰ دلار در ماه راه‌اندازی کرد که پاسخ‌دهی سریع‌تر و دسترسی اولویت‌دار ارائه می‌دهد و برخی کاربران با خوشحالی آن را پرداخت می‌کنند. مدل اشتراک Replika (برای ویژگی‌های رمانتیک/ERP پریمیوم) نیز نشان داد مردم حاضرند برای همراهی هوش مصنوعی پول بپردازند. Janitor AI هنوز کسب درآمد نکرده، اما می‌توان تصور کرد که در نهایت این کار را خواهد کرد (حداقل برای پوشش هزینه‌های GPU). وقتی این اتفاق بیفتد، تماشای اینکه چگونه بین دیوار پرداخت و رویکرد رایگان فعلی خود تعادل برقرار می‌کند، جالب خواهد بود.

    در مجموع، افکار عمومی تقسیم شده است. کاربران عموماً این همراهان هوش مصنوعی را دوست دارند، اغلب با تأکید – می‌توانید بی‌شمار شهادت درباره جذابیت، مفید بودن یا صرفاً سرگرم‌کننده بودن آن‌ها پیدا کنید. در مقابل، ناظران و کارشناسان هشدار می‌دهند و بر پتانسیل سوءاستفاده، آسیب عاطفی یا بهره‌کشی تأکید دارند. روایت رسانه‌ای از تازگی (“به این رفقای هوش مصنوعی جالب نگاه کنید”) به بررسی جدی‌تر پیامدها (“دوست‌دختر هوش مصنوعی به خودکشی تشویق می‌کند – باید نگران باشیم؟”) تغییر یافته است. شرکت‌های پشت این ربات‌ها اکنون تحت فشار هستند تا ثابت کنند می‌توانند منافع (کمک به افراد تنها، تقویت خلاقیت) را به حداکثر و آسیب‌ها را به حداقل برسانند.

    آخرین اخبار و تحولات (تا ژوئیه ۲۰۲۵)

    تا اواسط ۲۰۲۵، چشم‌انداز همراهان هوش مصنوعی به سرعت در حال تحول است. در اینجا برخی از جدیدترین تحولات تا ژوئیه ۲۰۲۵ آمده است:

    • رشد و به‌روزرسانی‌های Janitor AI: Janitor AI خود را به عنوان یکی از پلتفرم‌های پر بحث در حوزه NSFW/چت‌بات تثبیت کرده است. تا بهار ۲۰۲۵، گزارش شده بود که تقریباً به ۲ میلیون کاربر روزانه در سراسر جهان خدمات ارائه می‌دهد ts2.tech ts2.tech – رقمی چشمگیر برای استارتاپی که کمتر از دو سال از عمرش می‌گذرد. برای همگام شدن با این رشد، تیم در آوریل ۲۰۲۵ ارتقاءهای عمده‌ای در بک‌اند انجام داد و به سرورهای GPU قدرتمندتر مهاجرت کرد و معماری خود را برای عملکرد روان‌تر بهبود داد ts2.tech ts2.tech. کاربران شاهد افزایش سرعت پاسخگویی و کاهش کرش حتی در ساعات اوج بودند. از نظر امکانات، Janitor در مه ۲۰۲۵ ابزار شخصی‌سازی CSS پروفایل را ارائه کرد تا کاربران بتوانند ظاهر صفحات خود را شخصی‌سازی کنند ts2.tech، و دسترسی‌پذیری را بهبود داد (مثلاً گزینه‌هایی برای غیرفعال کردن برخی افکت‌های انیمیشنی برای کاربرانی که رابط کاربری ساده‌تر را ترجیح می‌دهند) ts2.tech. همچنین راهنمای جامعه را با توجه به جهانی‌تر شدن کاربران، به چندین زبان ترجمه کردند ts2.tech. یکی از به‌روزرسانی‌ها در ژوئن ۲۰۲۵ بحث‌هایی را برانگیخت: ظاهراً سایت را طوری تغییر داد که به بات‌های محبوب‌تر اولویت دهد یا رابط کاربری را به شکلی تغییر داد که برخی کاربران دوست نداشتند و این موضوع باعث انتقادات شدید در انجمن‌ها شد ts2.tech. این نارضایتی به حدی بود که توسعه‌دهندگان به طور عمومی در ردیت به آن پاسخ دادند و این موضوع نشان‌دهنده اشتیاق جامعه Janitor است وقتی هر تغییری تجربه آن‌ها را تهدید کند. از سوی دیگر، وبلاگ رسمی Janitor (که در ۲۰۲۵ راه‌اندازی شد) به ویژگی‌های آینده مانند سیستم پیشرفته “Lore” برای تقویت پیش‌زمینه بات‌ها اشاره می‌کند ts2.tech و احتمالاً یک سطح اشتراک پریمیوم در ادامه سال ۲۰۲۵ (برای ارائه مزایایی مانند پیام‌رسانی نامحدود و پاسخ‌های سریع‌تر) ts2.tech <a href=”https://ts2.tech/ets2.tech. برنامه‌های کسب درآمد همچنان در حد حدس و گمان باقی مانده‌اند، اما زیرساخت‌های لازم (مانند ارتقاءهای ظاهری اختیاری یا سطوح پولی) با احتیاط در حال پی‌ریزی است تا کاربران فعلی رایگان را از دست ندهند.
    • Character.AI در سال ۲۰۲۵ – مدیرعامل جدید و ویژگی‌ها: Character.AI سال ۲۰۲۵ را در حالی آغاز کرد که با برخی چالش‌های حقوقی (شکایت‌های ذکر شده و نگرانی‌های کلی درباره ایمنی کودکان) روبرو بود ts2.tech. در پاسخ به این موضوع، شرکت یک تغییر مهم در رهبری ایجاد کرد: در ژوئن ۲۰۲۵، مدیر اجرایی سابق متا کارندیپ “کاران” آناند به عنوان مدیرعامل منصوب شد و جایگزین یکی از بنیان‌گذاران، نوآم شازیر، در این سمت شد cio.eletsonline.com ts2.tech. آناند بلافاصله با کاربران درباره “به‌روزرسانی‌های بزرگ تابستانی” ارتباط برقرار کرد و وعده بهبودهای سریع در حوزه‌هایی که کاربران بیشترین درخواست را دارند داد – یعنی حافظه بهتر، فیلترهای محتوایی دقیق‌تر و ابزارهای بیشتر برای سازندگان reddit.com ts2.tech. در واقع، Character.AI مجموعه‌ای از ویژگی‌های جدید را در سال ۲۰۲۵ ارائه کرد: “صحنه‌ها” که به کاربران اجازه می‌دهد سناریوهای تعاملی کامل برای شخصیت‌های خود ایجاد کنند (مانند تنظیمات داستانی از پیش تعیین‌شده)، AvatarFX که می‌تواند تصویر ثابت یک شخصیت را به یک انیمیشن متحرک و سخنگو تبدیل کند، و “استریم‌ها” که در آن کاربران می‌توانند تماشاگر گفت‌وگوی دو هوش مصنوعی با یکدیگر برای سرگرمی باشند ts2.tech ts2.tech. آن‌ها همچنین صفحات پروفایل را بهبود دادند و حافظه چت بلندمدت را معرفی کردند تا ربات‌ها بهتر مکالمات گذشته را به خاطر بسپارند ts2.tech ts2.tech. از نظر سیاست‌گذاری، آن‌ها شروع به متمایز کردن تجربه برای افراد زیر سن قانونی کردند – احتمالاً با اجرای یک مدل ملایم‌تر برای کاربران زیر ۱۸ سال و حذف برخی از محتوای جامعه با محوریت بزرگسالان از دید نوجوانان ts2.tech ts2.tech. این تغییرات در حالی رخ داد که Character.AI به دلیل داشتن تعداد زیادی کاربر زیر سن قانونی در پلتفرمی که اگرچه به طور رسمی برای ۱۳ سال به بالا است، اما دارای محتوای تولیدشده توسط کاربران با موضوعات جنسی نیز بود، مورد بررسی قرار گرفت. همکاری نزدیک شرکت با Gooگوگل همچنین روابط خود را عمیق‌تر کرد: یک توافق‌نامه صدور مجوز غیرانحصاری در سال ۲۰۲۴ که ارزش Character.AI را حدود ۲.۵ تا ۲.۷ میلیارد دلار برآورد کرد و به گوگل حق استفاده از برخی مدل‌های آن را داد ts2.tech. در مقابل، Character.AI به شدت از زیرساخت ابری گوگل استفاده می‌کند. حتی شایعاتی مطرح شد که گوگل عملاً بنیان‌گذاران را دوباره “جذب” کرده است – در واقع، یک گزارش ادعا کرد که این دو بنیان‌گذار به طور بی‌سر و صدا تحت این قرارداد بزرگ دوباره در گوگل استخدام شده‌اند natlawreview.com. Character.AI انکار می‌کند که مسیر خود را رها کرده است، اما واضح است که نفوذ گوگل (و شاید در نهایت ادغام با محصولات گوگل) در افق دیده می‌شود. تا اواسط ۲۰۲۵، با وجود کاهش نسبی تب اولیه، Character.AI همچنان مخاطبان عظیمی داشت (از مرز ۲۰ میلیون کاربر عبور کرد و با معرفی ویژگی‌های جدید، استفاده دوباره رو به افزایش بود) ts2.tech. پرسش باز این است که آیا می‌تواند نگرانی‌های مربوط به ایمنی و نظارت را بدون از دست دادن جادویی که باعث محبوبیت آن شد (به ویژه در میان جوانان)، برطرف کند یا نه.
    • حرکات نظارتی: در سال 2025، نهادهای نظارتی و قانون‌گذاران شروع به توجه بیشتر به ابزارهای هوش مصنوعی مولد مانند این‌ها کرده‌اند. کمیسیون تجارت فدرال (FTC) در ایالات متحده اعلام کرده که در حال بررسی این است که آیا محصولات تعاملی هوش مصنوعی ممکن است درگیر «روش‌های فریبنده» شوند یا نیاز به رعایت استانداردهای ایمنی خاصی دارند، به ویژه اگر برای سلامت روان بازاریابی شوند techpolicy.press techpolicy.press. درخواست‌هایی وجود دارد که FDA احتمالاً باید همراهان هوش مصنوعی را که ادعاهای مرتبط با سلامت (حتی سلامت عاطفی) دارند، مانند دستگاه‌های پزشکی یا درمان‌ها تنظیم کند techpolicy.press. در اتحادیه اروپا، پیش‌نویس مقررات هوش مصنوعی (قانون هوش مصنوعی) سیستم‌هایی مانند همراهان هوش مصنوعی که می‌توانند بر رفتار انسان تأثیر بگذارند را به عنوان «پرخطر» طبقه‌بندی می‌کند و الزاماتی مانند افشای شفافیت (مثلاً هوش مصنوعی باید خود را به عنوان هوش مصنوعی معرفی کند) و محدودیت سنی را می‌طلبد. نتیجه دادخواست‌های Character.AI در ایالات متحده (تگزاس) به ویژه قابل توجه خواهد بود – اگر دادگاه‌ها شرکت را مسئول بدانند یا مجبور به ایجاد تغییرات کنند، می‌تواند برای کل صنعت یک سابقه ایجاد کند. حداقل، به احتمال زیاد شاهد تأیید سن قوی‌تر و کنترل والدین در این برنامه‌ها در آینده نزدیک خواهیم بود، به دلیل فشار عمومی.
    • رقبای نوظهور و نوآوری‌ها: تازه‌واردان جدیدی مدام ظاهر می‌شوند. برای مثال، ChatGPT متعلق به OpenAI در اواخر 2023 ارتقا یافت و به کاربران اجازه داد با صدایی واقعی صحبت کنند و حتی ورودی تصویری داشته باشند. اگرچه ChatGPT به طور خاص به عنوان یک همراه هوش مصنوعی معرفی نشده، این قابلیت‌های چندرسانه‌ای می‌تواند برای همراهی مورد استفاده قرار گیرد (مثلاً می‌توان یک پرامپت «شخصیت» ساخت و عملاً با یک شخصیت هوش مصنوعی مکالمه صوتی داشت). بازیگران بزرگی مانند متا و مایکروسافت نیز در حال بررسی شخصیت‌های هوش مصنوعی هستند – دمو متا در سال 2024 از شخصیت‌های هوش مصنوعی (مانند هوش مصنوعی با بازی تام بردی که می‌توانید با آن چت کنید) نشان می‌دهد که این مفهوم به جریان اصلی رسیده است. محتمل است که طی چند سال آینده، فیسبوک یا واتساپ شما دارای قابلیت دوست هوش مصنوعی داخلی شود که مستقیماً با برنامه‌های مستقل رقابت خواهد کرد. نوآوری دیگر، ظهور همراهان هوش مصنوعی در واقعیت مجازی/افزوده است: پروژه‌هایی که چت‌بات شما را به یک آواتار مجازی تبدیل می‌کنند که می‌توانید آن را در واقعیت افزوده ببینید و تجربه را حتی فراگیرتر می‌کنند. اگرچه هنوز در حاشیه است، شرکت‌ها در حال آزمایش انسان‌های مجازی مبتنی بر هوش مصنوعی هستند که می‌توانند حرکات دست، حالات چهره داشته باشند و از طریق عینک AR در اتاق شما ظاهر شوند – اساساً چت‌بات را از حباب متنی به دنیای سه‌بعدی می‌آورند. همه این تحولات به آینده‌ای اشاره دارند که در آن همراهان هوش مصنوعی بیش از هر زمان دیگری واقعی و فراگیر خواهند بود.

    نقل‌قول‌هایی از کارشناسان و بحث اخلاقی

    همانطور که همراهان هوش مصنوعی رایج‌تر می‌شوند، کارشناسان روانشناسی، اخلاق و فناوری درباره پیامدهای آن اظهار نظر کرده‌اند. دکتر جیمی بنکس، پژوهشگر دانشگاه سیراکیوز که در زمینه همراهی مجازی تحقیق می‌کند، توضیح می‌دهد که «همراهان هوش مصنوعی فناوری‌هایی مبتنی بر مدل‌های زبانی بزرگ هستند… اما برای تعامل اجتماعی طراحی شده‌اند… با شخصیت‌هایی که می‌توان آن‌ها را سفارشی‌سازی کرد»، که اغلب احساس «دوستی‌های عمیق یا حتی روابط عاشقانه» را ایجاد می‌کنند. sciline.org. او اشاره می‌کند که داده‌های جامعی درباره میزان استفاده نداریم، اما به نظر می‌رسد کاربران از سنین و پیشینه‌های مختلف هستند و جذب ارتباط شخصی‌ای می‌شوند که این ربات‌ها ارائه می‌دهند sciline.org. در مورد مزایا و آسیب‌ها، دکتر بنکس آن را یک شمشیر دو لبه توصیف می‌کند: از یک سو، کاربران اغلب از مزایای واقعی مانند «احساس حمایت اجتماعی – شنیده شدن، دیده شدن… که با بهبود رفاه همراه است»، به علاوه مزایای عملی مانند تمرین مهارت‌های اجتماعی یا غلبه بر اضطراب‌ها از طریق نقش‌آفرینی در موقعیت‌های مختلف sciline.org sciline.org گزارش می‌دهند. از سوی دیگر، او و دیگران به نگرانی‌های جدی اشاره می‌کنند: حریم خصوصی (زیرا افراد اسرار صمیمی خود را با این برنامه‌ها در میان می‌گذارند)، وابستگی عاطفی بیش از حد، جایگزینی روابط واقعی و محو شدن مرز واقعیت و خیال که گاهی می‌تواند منجر به مشکلاتی مانند آسیب به خود شود اگر کاربر تأثیرپذیر تحت تأثیر منفی قرار گیرد sciline.org.اخلاق‌گرایان حوزه فناوری خواستار اقدامات پیشگیرانه شده‌اند. یک تحلیل‌گر سیاست فناوری که در TechPolicy.press می‌نویسد، اشاره کرده است که شرکت‌های ارائه‌دهنده همراهان هوش مصنوعی در حال حاضر در خلأ مقرراتی فعالیت می‌کنند، جایی که «هیچ چارچوب قانونی مشخصی وجود ندارد… شرکت‌ها مجبورند خودشان را کنترل کنند» techpolicy.press. با توجه به اینکه این خدمات عمداً با هدف حداکثر کردن تعامل کاربر و وابستگی عاطفی برای کسب سود طراحی شده‌اند، به‌گفته آن‌ها، خودتنظیمی قابل اعتماد نیست techpolicy.press techpolicy.press. این تحلیل‌گر تأکید کرده که این پلتفرم‌ها معمولاً جمعیت‌های آسیب‌پذیر را هدف قرار می‌دهند – «درگیرترین کاربران تقریباً قطعاً کسانی هستند که ارتباط انسانی محدودی دارند»، یعنی افراد تنها یا منزوی از نظر اجتماعی techpolicy.press. این موضوع نگرانی‌های اخلاقی درباره سوءاستفاده را مطرح می‌کند: آیا ما از تنهایی مردم سود می‌بریم؟ مواردی از انجام «کارهای نگران‌کننده» توسط ربات‌ها – از ارائه توصیه‌های خطرناک تا نقش‌آفرینی جنسی با افراد خردسال – به عنوان شواهدی ذکر شده که دوران «غرب وحشی» همراهان هوش مصنوعی باید به پایان برسد techpolicy.press techpolicy.press. نویسنده خواستار مقررات فوری شده است: برای مثال، اطمینان از اینکه شرکت‌ها نمی‌توانند پشت مصونیت‌های قانونی برای محتوای مضر هوش مصنوعی پنهان شوند techpolicy.press، و الزام به حسابرسی‌های مستقل اگر ادعای مزایای سلامت روان دارند techpolicy.press. «دیگر غرب وحشی کافی است»، او می‌نویسد – و پیشنهاد می‌کند که نهادهایی مانند FDA و FTC وارد عمل شوند تا پیش از آسیب دیدن افراد بیشتر، قوانین پایه را تعیین کنند techpolicy.press techpolicy.press.برخی کارشناسان دیدگاه ظریف‌تری دارند. روانشناسان اغلب به ارزشی که این هوش‌های مصنوعی می‌توانند به عنوان مکمل فراهم کنند (مثلاً یک شریک تمرینی امن یا منبع آرامش در ساعت ۲ بامداد وقتی هیچ‌کس دیگری در دسترس نیست) اذعان دارند، اما بر اعتدال تأکید می‌کنند. «وابستگی بیش از حد به هوش مصنوعی می‌تواند تنهایی و قطع ارتباط اجتماعی را عمیق‌تر کند»، یک روانشناس به Psychology Today گفت و به کاربران توصیه کرد که دوستان هوش مصنوعی را به عنوان یک شبیه‌سازی سرگرم‌کننده ببینند، نه جایگزینی برای روابط انسانی psychologytoday.com. همچنین موضوع انگ اجتماعی مطرح است – در سال ۲۰۲۳ شاید «قرار گذاشتن با یک چت‌بات» غیرعادی یا غم‌انگیز به نظر می‌رسید، اما نگرش‌ها ممکن است با عادی شدن آن توسط میلیون‌ها نفر در حال تغییر باشد. با این حال، بسیاری از افراد از اعتراف به این که برای کاهش احساس تنهایی با یک هوش مصنوعی صحبت می‌کنند، خجالت می‌کشند که این می‌تواند مانع بحث آزاد درباره آن شود.از نظر قانونی، National Law Review اشاره کرده است که این دادخواست‌ها علیه Character.AI می‌تواند سابقه‌ای در اعمال مسئولیت محصول بر نرم‌افزارهای هوش مصنوعی ایجاد کند. اگر دادگاه یک چت‌بات را دارای نقص محصول بداند (مثلاً «عدم هشدار» یا تدابیر ایمنی ناکافی برای افراد زیر سن قانونی)، این امر همه ارائه‌دهندگان همراه هوش مصنوعی را مجبور می‌کند استانداردهای خود را بالا ببرند یا با مسئولیت مواجه شوند natlawreview.com natlawreview.com. همچنین به امکان جریمه‌های COPPA برای جمع‌آوری داده از کاربران زیر سن قانونی اشاره شده است، چیزی که هر پلتفرمی که به درستی محدودیت سنی اعمال نکند ممکن است با آن مواجه شود natlawreview.com.در اصل، بحث اخلاقی حول محور: خودمختاری در برابر محافظت می‌چرخد. آیا باید به بزرگسالان اجازه داد هر نوع رابطه‌ای با هوش مصنوعی که می‌خواهند داشته باشند، حتی اگر افراطی یا ناسالم باشد، یا باید محدودیت‌هایی برای جلوگیری از آسیب‌های قابل پیش‌بینی وجود داشته باشد؟ و چگونه می‌توانیم از کودکان و گروه‌های آسیب‌پذیر محافظت کنیم بدون اینکه نوآوری را برای دیگران محدود کنیم؟ همچنین پرسش‌های فلسفی وجود دارد: اگر کسی بگوید عاشق هوش مصنوعی خود است و هوش مصنوعی هم همین را پاسخ دهد (حتی اگر فقط الگوهای زبانی را تولید کند)، آیا مهم است که این «واقعی» نیست؟ انسان‌ها تمایل دارند به موجودات مصنوعی (مانند عروسک‌ها، حیوانات خانگی و غیره) شخصیت انسانی بدهند و دلبستگی واقعی پیدا کنند، و طبیعت شبیه‌انسان هوش مصنوعی این موضوع را تقویت می‌کند. برخی آینده‌ای را پیش‌بینی می‌کنند که داشتن یک همراه هوش مصنوعی به اندازه داشتن حیوان خانگی رایج و عادی باشد – و در واقع، برای برخی حتی رضایت‌بخش‌تر.آینده همراهان و چت‌بات‌های هوش مصنوعیبا نگاهی به آینده، روشن است که همراهان هوش مصنوعی ماندگار خواهند بود، اما شکل و نقش آن‌ها همچنان تکامل خواهد یافت. در آینده نزدیک، می‌توان انتظار داشت:
  • واقع‌گرایی بیشتر: پیشرفت‌ها در مدل‌های هوش مصنوعی (مانند GPT-5 یا Gemini گوگل، اگر عرضه شوند) باعث می‌شود گفتگو با چت‌بات‌ها حتی منسجم‌تر، آگاه به زمینه و از نظر احساسی قانع‌کننده‌تر شود. به احتمال زیاد شاهد همراهانی خواهیم بود که می‌توانند کل تاریخچه چت شما را در طول ماه‌ها یا سال‌ها به خاطر بسپارند، نه فقط پیام‌های اخیر. آن‌ها همچنین ممکن است قابلیت‌های چندرسانه‌ای به دست آورند – مثلاً تولید صدا، حالات چهره یا حتی آواتارهای واقعیت مجازی به صورت آنی. تصور کنید یک دوست‌دختر هوش مصنوعی نه تنها پیام‌های محبت‌آمیز برایتان بفرستد، بلکه با صدایی قانع‌کننده با شما تماس صوتی بگیرد یا به صورت هولوگرام ظاهر شود. نمونه‌های اولیه این فناوری‌ها هم‌اکنون قابل مشاهده‌اند (مثلاً AvatarFX متحرک Character.AI یا پروژه‌هایی که از تبدیل متن به گفتار و ویدئوی دیپ‌فیک برای آواتارها استفاده می‌کنند). مرز بین چت کردن با یک هوش مصنوعی روی صفحه نمایش و «گذراندن وقت» با یک موجود مجازی در اتاقتان با پیشرفت فناوری AR/VR کمرنگ‌تر خواهد شد.
  • ادغام عمیق‌تر در زندگی روزمره: همراهان هوش مصنوعی ممکن است از محدودیت یک اپلیکیشن واحد فراتر بروند. ممکن است افزونه‌های دوست هوش مصنوعی در پلتفرم‌های پیام‌رسان داشته باشیم – برای مثال، واتس‌اپ شما می‌تواند یک «ChatBuddy» ارائه دهد که در کنار مخاطبان انسانی‌تان با او گفتگو کنید. غول‌های فناوری احتمالاً ویژگی‌های همراهی را در اکوسیستم‌های خود ادغام خواهند کرد: تصور کنید یک آمازون الکسا که نه تنها زنگ هشدار شما را تنظیم می‌کند، بلکه می‌پرسد روزتان چطور بوده است، یا یک آواتار متا (فیسبوک) که اگر تنها باشید به تماس‌های ویدیویی شما به عنوان همراه اجتماعی می‌پیوندد. ایده یک هوش مصنوعی شخصی‌سازی‌شده که شما را عمیقاً می‌شناسد (ترجیحات، داستان زندگی، وضعیت سلامت شما) و به عنوان ترکیبی از دستیار/دوست عمل می‌کند، چیزی است که بسیاری از شرکت‌ها به دنبال آن هستند. این می‌تواند کاربردهای مثبتی داشته باشد (مثلاً کمک به سالمندان با همراهی و یادآوری)، اما همچنین اگر به درستی مدیریت نشود، کابوس‌های حریم خصوصی را به همراه دارد.
  • مقررات و استانداردها: روزهای بدون قاعده راه‌اندازی هر نوع چت‌باتی ممکن است به پایان برسد. کاملاً محتمل است که دولت‌ها قوانین خاصی برای هوش مصنوعی‌هایی که به صورت اجتماعی تعامل دارند وضع کنند. ممکن است شاهد الزامات تأیید سن، هشدارها («این هوش مصنوعی انسان نیست و ممکن است پاسخ‌های نادرست یا مضر ارائه دهد») و حتی قفل‌های ایمنی اجباری برای برخی محتواها باشیم (مثلاً ممکن است طبق قانون، یک هوش مصنوعی موظف باشد از تشویق به خودآزاری یا خشونت خودداری کند، تحت هر شرایطی). دستیابی قابل اعتماد به این هدف از نظر فنی دشوار است، اما ممکن است قانون‌گذاران برای آن فشار بیاورند. همچنین ممکن است خودتنظیمی صنعت وجود داشته باشد: شرکت‌های بزرگ ممکن است بر سر بهترین رویه‌ها توافق کنند، مانند به اشتراک‌گذاری لیست سیاه درخواست‌ها یا محتوای خطرناک شناخته‌شده و بهبود همکاری برای شناسایی زمانی که گفتگوی کاربر و هوش مصنوعی به منطقه خطر نزدیک می‌شود تا مداخله صورت گیرد. در حوزه سلامت روان، ممکن است تلاش‌هایی برای تأیید برخی همراهان هوش مصنوعی به عنوان ایمن یا مبتنی بر شواهد برای استفاده درمانی صورت گیرد – یا برعکس، ممنوعیت ادعای ارائه درمان بدون نظارت انسانی. غرب وحشی سرانجام با ترکیبی از قوانین و هنجارهای اجتماعی، با یادگیری از اشتباهات اولیه، مهار خواهد شد.
  • تغییر فرهنگی: امروزه داشتن یک همراه هوش مصنوعی ممکن است هنوز کمی با انگ یا حداقل تازگی همراه باشد. اما در آینده، ممکن است شاهد باشیم که این موضوع به بخشی عادی از زندگی تبدیل شود. همان‌طور که قرارهای آنلاین زمانی تابو بود و اکنون کاملاً رایج شده است، داشتن یک «دوست» یا حتی «عاشق مجازی» هوش مصنوعی می‌تواند به مکمل پذیرفته‌شده‌ای برای زندگی اجتماعی افراد تبدیل شود. این موضوع به نگرش‌های نسلی بستگی دارد – جوان‌ترها همین حالا هم نسبت به آن بازتر هستند. یک مطالعه در سال ۲۰۲۴ نشان داد که ۷۲٪ نوجوانان آمریکایی حداقل یک بار از اپلیکیشن همراه/چت‌بات هوش مصنوعی استفاده کرده‌اند techcrunch.com instagram.com، که نشان می‌دهد نسل بعدی این تعاملات با هوش مصنوعی را کاملاً عادی می‌بیند. همچنین ممکن است داستان‌های مثبتی ببینیم: همراهان هوش مصنوعی که به افراد اوتیستیک در تمرین نشانه‌های اجتماعی کمک می‌کنند، یا به افرادی که در حال سوگواری هستند آرامش می‌دهند (برخی ربات‌هایی ساخته‌اند که عزیزان از دست رفته را شبیه‌سازی می‌کنند، موردی بحث‌برانگیز اما جالب). معماهای اخلاقی همچنان باقی خواهند ماند، اما جامعه اغلب راهی برای سازگاری با فناوری‌های جدید پیدا می‌کند، زمانی که مزایا آشکار شود.
  • تصویر کلی: به نوعی، ظهور همراهان هوش مصنوعی ما را وادار می‌کند با پرسش‌های اساسی درباره روابط و نیازهای انسانی روبرو شویم. در یک همراه چه چیزی می‌خواهیم؟ آیا به دنبال درک متقابل واقعی از ذهنی مستقل هستیم، یا صرفاً احساس درک شدن را می‌خواهیم؟ اگر دومی باشد، هوش مصنوعی پیشرفته می‌تواند این احساس را بدون انسان بودن واقعی ارائه دهد. همان‌طور که یک مفسر بیان کرد، همراهان هوش مصنوعی «وفاداری ثابتی که بسیاری از همتایان انسانی فاقد آن هستند» را ارائه می‌دهند techpolicy.press techpolicy.press – آن‌ها هرگز شما را رها یا خیانت نمی‌کنند. اما آن‌ها همچنین «فاقد وجدان» هستند و در نهایت ابزارهایی هستند که برای خوشحال کردن شما (یا مشغول نگه داشتن شما) طراحی شده‌اند، نه روابط واقعاً متقابل techpolicy.press techpolicy.press. در آینده، پتانسیل سوءاستفاده در هر دو جهت وجود دارد: انسان‌ها بدون عواقب از «برده‌های» هوش مصنوعی فوق‌واقع‌گرایانه سوءاستفاده کنند، یا انسان‌ها به لحاظ عاطفی به هوش مصنوعی وابسته شوند و توسط شرکت‌ها مورد سوءاستفاده قرار گیرند. این‌ها سناریوهایی هستند که اخلاق‌گرایان و نویسندگان علمی-تخیلی دهه‌هاست تصور کرده‌اند؛ اکنون داریم می‌بینیم که آن‌ها در زمان واقعی در حال رخ دادن هستند.
  • در پایان، Janitor AI و همتایانش نمایانگر عصر جدیدی از تعامل انسان و کامپیوتر هستند – عصری که در آن کامپیوتر صرفاً یک ابزار نیست، بلکه نقش دوست، معشوق، الهام‌بخش یا محرم اسرار را ایفا می‌کند. رشد شهاب‌وار این پلتفرم‌ها نشان‌دهنده عطش واقعی برای چنین ارتباطاتی است. آن‌ها برای میلیون‌ها نفر هیجان و آرامش به ارمغان می‌آورند، اما همزمان زنگ خطرهایی درباره ایمنی و رابطه ما با فناوری به صدا درمی‌آورند. با پیچیده‌تر شدن همراهان هوش مصنوعی، جامعه باید بین بهره‌گیری از پتانسیل مثبت آن‌ها و کاهش ریسک‌ها تعادل برقرار کند. آیا معشوق‌ها و دوستان هوش مصنوعی نوآوری بزرگ بعدی در حوزه سلامت فردی هستند یا سراشیبی لغزنده‌ای به سوی انزوای عمیق‌تر و معضلات اخلاقی؟ این داستان هنوز در حال شکل‌گیری است. آنچه مسلم است این است که انقلاب همراهان چت‌بات – از عاشقانه‌های بی‌پرده Janitor AI تا جهان‌های فانتزی گسترده Character.AI – تازه آغاز شده است و همچنان به تغییر نگرش ما نسبت به روابط در عصر هوش مصنوعی ادامه خواهد داد. ts2.tech techpolicy.press

    منابع:

    • وبلاگ Voiceflow – «Janitor AI: چیست و چگونه از آن استفاده کنیم [آموزش ۲۰۲۵]» voiceflow.com voiceflow.com
    • TS2 Tech – «Janitor AI: انقلاب چت‌بات بی‌پرده که میلیون‌ها نفر را جذب کرده (و جنجال به پا کرده است)» ts2.tech ts2.tech ts2.tech ts2.tech
    • Semafor – «اپلیکیشن چت‌بات NSFW که نسل Z را به دوست‌پسرهای هوش مصنوعی معتاد می‌کند» (رید آلبرگوتی و لوئیز ماتساکیس، ۲۰ سپتامبر ۲۰۲۳) semafor.com semafor.com
    • Hackernoon – «یان زولتکوفسکی: نابغه‌ای پشت JanitorAI» hackernoon.com hackernoon.com hackernoon.com
    • TechCrunch – «اپلیکیشن هوش مصنوعی Character.ai در آمریکا در حال نزدیک شدن به ChatGPT است» (سارا پرز، ۱۱ سپتامبر ۲۰۲۳) techcrunch.com
    • TS2 Tech – «چرا همه در سال ۲۰۲۵ درباره Character.AI صحبت می‌کنند – به‌روزرسانی‌های عمده، مدیرعامل جدید و جنجال» ts2.tech ts2.tech ts2.tech
    • NatLawReview – «شکایت‌های جدید علیه چت‌بات‌های هوش مصنوعی شخصی‌سازی‌شده…» (دن جاسنو، ۲۸ ژوئیه ۲۰۲۵) natlawreview.com natlawreview.com
    • TechPolicy.press – «صمیمیت خودکار: چرا همراهان هوش مصنوعی نیازمند مقررات فوری هستند» techpolicy.press techpolicy.press techpolicy.press
    • مصاحبه SciLine – دکتر جیمی بنکس درباره “همراهان” هوش مصنوعی (۱۴ مه ۲۰۲۴) sciline.org sciline.org
    • رویترز – «ایتالیا ربات چت هوش مصنوعی Replika را به دلیل ایمنی کودکان ممنوع کرد» (۳ فوریه ۲۰۲۳) reuters.com reuters.com
    • Psychology Today – «۵ راهی که هوش مصنوعی روابط انسانی را تغییر می‌دهد» (۲۰۲۳) psychologytoday.com