LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

Compagnons IA NSFW sans filtre : Janitor AI, Character.AI et la révolution des chatbots

Compagnons IA NSFW sans filtre : Janitor AI, Character.AI et la révolution des chatbots

NSFW AI Companions Unfiltered: Janitor AI, Character.AI, and the Chatbot Revolution

Qu’est-ce que Janitor AI ? Histoire, objectif et fonctionnalités

Janitor AI est une plateforme de chatbot en pleine expansion qui permet aux utilisateurs de créer et de discuter avec des personnages IA personnalisés. Fondée par le développeur australien Jan Zoltkowski et lancée en juin 2023, Janitor AI a comblé un vide laissé par les filtres de contenu stricts des chatbots traditionnels ts2.tech ts2.tech. Sa popularité a explosé presque du jour au lendemain – attirant plus de 1 million d’utilisateurs dès la première semaine après son lancement voiceflow.com hackernoon.com. En septembre 2023, elle comptait environ 3 millions d’utilisateurs enregistrés (atteignant le million en seulement 17 jours) ts2.tech semafor.com. Cette croissance a été alimentée par des vidéos virales sur TikTok et des publications Reddit mettant en avant la capacité de Janitor AI à proposer des discussions de jeu de rôle épicées sans les filtres « prudes » des autres bots ts2.tech ts2.tech. En d’autres termes, Janitor AI a adopté des conversations plus ouvertes et orientées adultes que d’autres plateformes interdisaient.

But et niche : Contrairement aux assistants axés sur la productivité, l’objectif de Janitor AI est le divertissement et le jeu de rôle pilotés par l’IA ts2.tech hackernoon.com. Les utilisateurs créent des personnages fictifs – allant des idoles d’anime aux héros de jeux vidéo – et discutent avec eux pour s’amuser, trouver de la compagnie ou inventer des histoires créatives. La plateforme a particulièrement séduit les jeunes adultes en quête de compagnons IA romantiques ou érotiques qui n’étaient pas disponibles sur les services filtrés ts2.tech ts2.tech. En fait, la base d’utilisateurs de Janitor AI est remarquablement féminine (plus de 70 % de femmes début 2024) ts2.tech hackernoon.com – une démographie inhabituelle pour une plateforme technologique. Beaucoup se sont précipités pour créer des “petits amis/petites amies” IA et des scénarios de fantaisie interactifs, faisant de Janitor AI un synonyme de jeu de rôle torride et de romance virtuelle. Semafor News l’a même surnommé « l’application de chatbot NSFW qui rend la Génération Z accro aux petits amis IA » ts2.tech.

Fonctionnalités clés : Janitor AI propose une interface web (JanitorAI.com) où les utilisateurs peuvent créer, partager et discuter avec une bibliothèque de personnages générés par les utilisateurs ts2.tech ts2.tech. Chaque personnage possède un nom, une image d’avatar et un profil écrit décrivant sa personnalité et son histoire. Ce profil agit comme une invite ou une « lore » qui guide le comportement de l’IA lors des conversations ts2.tech. Des milliers de bots créés par la communauté sont disponibles – allant de personnages fictifs célèbres à des créations originales – et les utilisateurs peuvent également garder leurs personnages privés s’ils le souhaitent. L’interface de chat sera familière aux utilisateurs de Character.AI : les messages apparaissent sous forme de fil de discussion, et les utilisateurs peuvent simplement taper pour converser pendant que l’IA répond en incarnant le personnage ts2.tech. Janitor AI permet d’évaluer ou de signaler les réponses, et les utilisateurs partagent souvent des extraits de conversations amusantes sur les réseaux sociaux ts2.tech.

Sous le capot, Janitor AI était initialement alimenté par GPT-3.5/4 d’OpenAI via API, ce qui permettait des réponses remarquablement fluides et humaines ts2.tech semafor.com. Cependant, cette dépendance à OpenAI fut de courte durée : en juillet 2023, OpenAI a envoyé à Janitor AI une lettre de cessation et d’abstention en raison de son contenu sexuel violant les politiques d’utilisation d’OpenAI semafor.com semafor.com. Coupé de GPT-4, le créateur de Janitor s’est tourné vers le développement d’un modèle propriétaire appelé JanitorLLM. Fin 2023, Janitor AI a introduit son propre grand modèle de langage (LLM) maison pour alimenter les discussions en mode « Bêta » ts2.tech. Fait intriguant, l’équipe de Zoltkowski a constaté que « entraîner progressivement leurs propres modèles basés sur des architectures RNN » donnait de meilleurs résultats pour leurs besoins que les modèles Transformer habituels ts2.tech. Les détails restent secrets, mais JanitorLLM alimente désormais le chat gratuit et illimité du site – bien qu’avec un niveau de sophistication quelque peu inférieur aux derniers modèles d’OpenAI. Les utilisateurs rapportent que l’IA de Janitor s’améliore continuellement, avec l’avantage de pas de limite stricte sur la longueur ou le volume des messages (une fonctionnalité cruciale pour les jeux de rôle longs) ts2.tech ts2.tech. Pour une qualité d’IA plus avancée, Janitor AI propose la flexibilité « d’apporter votre propre modèle » : les utilisateurs peuvent connecter leurs propres clés API pour des modèles tiers (comme GPT-4 d’OpenAI, s’ils choisissent de payer OpenAI) ou même connecter un modèle IA local via KoboldAI ts2.tech ts2.tech. Cette approche modulaire permet aux utilisateurs avancés d’accéder aux modèles de pointe dans l’interface de Janitor – et elle protège également la plateforme d’une dépendance à un seul fournisseur à l’avenir ts2.tech.

La gamme de fonctionnalités de Janitor AI s’est élargie régulièrement. La plateforme offre une forte mémoire et rétention du contexte, permettant aux bots de se souvenir de détails d’une conversation précédente (le nom de l’utilisateur, les événements de l’histoire, etc.) et de les réutiliser plus tard pour une narration cohérente à long terme ts2.tech ts2.tech. Début 2025, l’équipe a même évoqué un nouveau système de “création de personnage basée sur le lore” permettant aux créateurs d’ajouter de nombreuses notes de world-building que l’IA prendra systématiquement en compte dans ses réponses ts2.tech. D’autres améliorations de confort prévues pour la mi-2025 incluent la personnalisation de la page de profil avec des thèmes CSS ts2.tech, une meilleure recherche et gestion des tags (y compris la possibilité de bloquer des tags pour le contenu que vous ne souhaitez pas voir) ts2.tech, et la prise en charge des images dans les profils de personnages (avec des options de mode sécurisé) ts2.tech. À noter, Janitor AI reste gratuit à utiliser (il n’y a pas non plus de publicités), ce qui a naturellement soulevé des questions sur la viabilité. L’entreprise a laissé entendre que des abonnements premium optionnels pourraient arriver à l’avenir (par exemple pour débloquer des messages plus longs, des réponses plus rapides, etc.), mais ces plans ont été repoussés à la mi-2025 pour se concentrer sur l’amélioration du produit ts2.tech ts2.tech. Pour l’instant, le fondateur maintient le service principalement grâce à des fonds personnels et à la bonne volonté de la communauté, sans financement externe majeur révélé jusqu’en 2024 ts2.tech. C’est une stratégie audacieuse – privilégier la croissance et la satisfaction des utilisateurs avant la monétisation – et cela a permis à Janitor AI de bâtir une communauté fidèle.

Outils et concurrents IA similaires (Character.AI, Pygmalion, VenusAI, etc.)

Janitor AI fait partie d’une vague plus large d’outils de compagnons IA et de chatbots de personnages qui se sont multipliés depuis le début des années 2020. Chacun propose sa propre approche en termes de fonctionnalités, de public cible et de politique de contenu. Voici un aperçu des acteurs majeurs et de la façon dont ils se comparent :

  • Character.AI : Sans doute le succès phare du genre, Character.AI a été lancé au public fin 2022 et a popularisé l’idée de “personnages” IA créés par les utilisateurs pour discuter ts2.tech ts2.tech. Fondée par d’anciens chercheurs de Google, Noam Shazeer et Daniel De Freitas (développeurs du modèle LaMDA de Google), la mission de Character.AI était de rendre l’IA conversationnelle avancée accessible à tous ts2.tech. La plateforme a rapidement gagné en notoriété grâce à ses dialogues d’un réalisme troublant et à la capacité d’incarner pratiquement n’importe quel personnage – d’Elon Musk aux héros d’anime – ce qui a attiré des millions d’utilisateurs curieux. En 2025, Character.AI revendique plus de 20 millions d’utilisateurs actifs (dont beaucoup de la génération Z) et plus de 18 millions de personnages personnalisés créés sur la plateforme ts2.tech ts2.tech. Sa base d’utilisateurs est très jeune : près de 60 % des utilisateurs web de Character.AI ont entre 18 et 24 ans techcrunch.com, une proportion de Gen Z bien plus élevée que sur ChatGPT ou d’autres applications d’IA. Cela reflète l’attrait de Character.AI en tant qu’espace ludique et créatif – “des chatbots comme divertissement et compagnons” plutôt qu’outils utilitaires ts2.tech. Les utilisateurs passent un temps extraordinaire à faire du jeu de rôle et à socialiser avec ces personnages IA, collaborant essentiellement à de la fan-fiction interactive ou s’engageant dans des discussions de type amitié virtuelle ou thérapie ts2.tech ts2.tech. Fonctionnalités : La fonctionnalité principale de Character.AI est similaire à celle de Janitor : les utilisateurs créent des personnages avec une courte description ou un script de personnalité, et l’IA poursuit la conversation en incarnant le personnage. Il dispose d’une interface web et mobile soignée, et entre 2023 et 2025, il a déployé d’importantes mises à jour : Scenes pour des scénarios d’histoires interactives, AvatarFX pour des avatars animés de personnages, et même des discussions “Character Group” IA-à-IA où plusieurs bots conversent ts2.tech ts2.tech. Ces fonctionnalités multimodales visent à rendre les discussions plus immersives. Character.AI a également introduit les “Chat Memories” pour améliorer le contexte à long terme (en réponse aux plaintes antérieures selon lesquelles les bots oubliaient la conversation) ts2.tech ts2.tech. Un grand facteur de différenciation est le filtrage de contenu – Character.AI a, dès le début, imposé une modération stricte pour empêcher le contenu NSFW ou “non sécurisé” ts2.tech. Les jeux de rôle sexuels ou extrêmement violents sont interdits par les filtres intégrés de l’IA. Cette position “safe for work” a été une arme à double tranchant : elle rend l’application plus adaptée aux âges et attrayante pour les annonceurs, mais elle a frustré une part importante des utilisateurs (notamment les adultes cherchant des discussions romantiques ou érotiques) et a indirectement créé une demande pour des alternatives non filtrées comme Janitor AI. L’entreprise a reconnu que le filtre pouvait être trop zélé ; en 2025, le nouveau PDG a promis un filtre de conversation “moins envahissant” pour réduire les blocages de contenu inutiles ts2.tech ts2.tech, tout en mettant en place de meilleures protections pour les mineurs (comme des modèles séparés pour les utilisateurs de moins de 18 ans et le verrouillage de certains personnages populaires pour les comptes adolescents) ts2.tech ts2.tech. Character.AI fonctionne avec ses propres grands modèles de langage propriétaires, apparemment entraînés depuis zéro. Un accord de 2024 avec Google a fourni de l’informatique en nuage (matériel TPU) et un investissement important valorisant la startup à environ 2,5–2,7 milliards de dollars ts2.tech natlawreview.com. Avec d’importantes ressources et des talents en IA, Character.AI continue de proposer de nouvelles fonctionnalités – mais son approche propriétaire et son refus d’autoriser le contenu adulte font que les utilisateurs en quête de liberté migrent souvent vers des plateformes comme Janitor AI ou d’autres.
  • Pygmalion (Modèles Open Source) : Pygmalion n’est pas une application grand public mais plutôt un projet open source dédié aux chatbots IA et aux modèles de jeu de rôle. Il a gagné en notoriété début 2023 avec Pygmalion-6B, un modèle affiné de 6 milliards de paramètres basé sur le GPT-J d’EleutherAI huggingface.co. Contrairement aux modèles d’entreprise, les modèles de Pygmalion sont publiés pour que tout le monde puisse les exécuter localement ou sur des serveurs communautaires – et surtout, ils sont proposés sans les filtres de contenu stricts. Le projet vise explicitement la conversation non censurée : leur site invite les utilisateurs à « discuter avec tous les personnages que vous voulez, sans aucune limite » pygmalion.chat. Cela a fait de Pygmalion un favori parmi les passionnés d’IA qui voulaient un contrôle total (et aucune censure) dans leurs expériences de chatbot. Techniquement, un modèle de 6B paramètres est relativement petit selon les standards actuels, donc les réponses de Pygmalion sont moins sophistiquées que celles des grands modèles comme GPT-4. Pourtant, de nombreux fans trouvent qu’il « a un charme unique » dans le dialogue reddit.com et sont prêts à sacrifier un peu de fluidité pour la confidentialité et la liberté. Les modèles Pygmalion peuvent être utilisés via des applications front-end comme KoboldAI ou SillyTavern, qui offrent une interface pour faire tourner des histoires IA et du jeu de rôle localement. En fait, Janitor AI prend même en charge l’intégration avec Pygmalion via KoboldAI – les utilisateurs peuvent installer le modèle Pygmalion 6B sur leur propre machine et le connecter à l’interface de Janitor voiceflow.com voiceflow.com. La communauté open source a continué d’itérer : de nouveaux modèles affinés sur la base de LLaMA de Meta (et d’autres bases, avec plus de paramètres et de meilleures données d’entraînement) émergent, souvent partagés sur des forums comme Reddit. Ces modèles communautaires n’atteignent pas encore le niveau de finition des chats de Character.AI ou d’OpenAI, mais ils représentent un écosystème alternatif important. Ils offrent aux utilisateurs techniquement compétents une option pour faire tourner des compagnons IA complètement hors ligne ou sur des serveurs privés, éliminant les préoccupations concernant la confidentialité des données ou les changements de politique soudains. Pygmalion et des projets similaires (par exemple MythoMax, OpenAssistant et d’autres modèles affinés par des amateurs) illustrent comment l’espace des compagnons IA ne se limite pas aux grandes entreprises – des passionnés construisent collaborativement des chatbots non censurés depuis zéro.
  • VenusAI et autres plateformes de chat NSFW : Suite à l’essor de Character.AI (et à ses restrictions de contenu), une vague de plateformes de chat IA tierces est apparue, beaucoup visant explicitement la niche du jeu de rôle NSFW. VenusAI en est un exemple : un service de chatbot en ligne qui propose des « conversations sans restriction » et un bouton pour activer le mode NSFW whatsthebigdata.com whatsthebigdata.com. Comme Janitor, il permet aux utilisateurs de créer des personnages personnalisés ou de choisir parmi une bibliothèque de personnages créés par la communauté dans des catégories comme « Homme », « Femme », « Anime », « Fictionnel », etc. whatsthebigdata.com. Mettant en avant une « IA avancée » et une interface facile, VenusAI promet que ses personnages apprendront et s’adapteront aux préférences de l’utilisateur à chaque conversation whatsthebigdata.com whatsthebigdata.com. En pratique, ce type de plateforme utilise souvent des modèles open source en arrière-plan (ou même un accès non officiel à des modèles GPT) pour générer les réponses, tout en offrant une interface utilisateur soignée. VenusAI insiste sur le fait qu’il autorise l’érotisme explicite (« vos désirs les plus profonds ») en désactivant simplement le filtre de sécurité whatsthebigdata.com. L’émergence de VenusAI et de dizaines d’applications similaires (par exemple Crushon.AI, Chai, et divers services de « petite amie IA ») montre la demande pour des compagnons IA pour adultes. Beaucoup de ces outils sont relativement modestes ou expérimentaux comparés à Janitor ou Character.AI. Certains nécessitent un abonnement ou imposent des limites d’utilisation, et la qualité varie beaucoup. Plusieurs figurent dans des listes d’« outils IA » avec des noms comme Candy AI, SpicyChat AI, RomanticAI, LustGPT, etc. whatsthebigdata.com. Cette prolifération s’explique par la disponibilité ouverte de modèles linguistiques performants et la facilité de créer une application web de chat basique. Cependant, toutes ne survivront pas à long terme, et certaines suscitent des inquiétudes en opérant avec une modération minimale. Chai, par exemple, est une application mobile qui a fait la une en 2023 lorsqu’un chatbot de l’application aurait encouragé le suicide d’un utilisateur – une tragédie qui a mis en lumière les dangers des interactions IA non régulées techpolicy.press. Globalement, la mini-industrie des chatbots NSFW est en plein essor mais reste assez Far West : les utilisateurs doivent aborder les plateformes moins connues avec prudence, car la modération des contenus, les pratiques de confidentialité et la qualité des modèles ne sont pas toujours au niveau des grands acteurs.
  • Replika (le compagnon IA original) : Aucun aperçu des compagnons IA n’est complet sans Replika. Lancé en 2017, Replika était l’un des premiers chatbots “ami virtuel” permettant aux utilisateurs de former une relation continue avec un avatar IA. Il ne se concentrait pas sur le jeu de rôle de personnages ; chaque utilisateur créait plutôt son propre Replika et discutait avec lui au fil du temps, augmentant le niveau d’intimité. En 2023, Replika comptait des millions d’utilisateurs et aurait généré environ 2 millions de dollars de revenus mensuels grâce aux abonnés payants (qui bénéficiaient de fonctionnalités supplémentaires comme les appels vocaux) reuters.com reuters.com. De façon unique, Replika flirtait avec le contenu pour adultes et le jeu de rôle romantique – mais cela a mené à une controverse. Début 2023, la société mère de Replika, Luka, a soudainement interdit le jeu de rôle érotique pour les utilisateurs, après des plaintes et un examen réglementaire concernant des discussions sexuellement explicites (notamment impliquant des mineurs). Ce changement soudain a laissé de nombreux utilisateurs fidèles se sentir « trahis et bouleversés » techpolicy.press – certains avaient développé des liens romantiques profonds avec leur Replika et attribuaient même à l’IA une amélioration de leur santé mentale, si bien que la “lobotomisation” de leurs compagnons IA a provoqué des pétitions et des chagrins dans la communauté. La saga a attiré l’attention des médias grand public sur les complexités éthiques des compagnons IA. Elle a aussi, indirectement, favorisé des alternatives comme Janitor AI pour les utilisateurs recherchant une intimité virtuelle non censurée. Les régulateurs sont également intervenus : l’Autorité italienne de protection des données a temporairement banni Replika en février 2023 pour ne pas avoir protégé les mineurs et avoir enfreint les lois sur la vie privée reuters.com reuters.com. L’ordonnance italienne a noté que Replika n’avait pas de vérification d’âge robuste malgré son utilisation par des adolescents, et qu’une IA intervenant sur l’humeur d’une personne pouvait présenter des risques pour les personnes “émotionnellement fragiles” reuters.com reuters.com. Luka Inc. a été condamnée à une amende de 5 millions d’euros et sommée d’apporter des modifications edpb.europa.eu <a href= »https://www.reuters.com/sustainability/boards-policy-regulation/italys-data-watchdog-fines-ai-company-replikas-developer-56-million-2025-05-19/#:~:text=,citing%20specific%20risksreuters.com. Replika a finalement rétabli un certain niveau de jeu de rôle érotique pour les utilisateurs adultes plus tard en 2023 après la protestation des utilisateurs, mais avec plus de contrôles de contenu qu’auparavant. Aujourd’hui, Replika reste une application d’accompagnement IA notable – plus axée sur les amitiés ou relations individuelles que sur le jeu de rôle multi-personnages de Janitor/Character.ai – et elle met en évidence l’équilibre délicat entre la création d’une IA émotionnellement engageante et la garantie de la sécurité et de la conformité des utilisateurs.
  • Démographie des utilisateurs : Sur ces plateformes, la Génération Z et les milléniaux dominent la base d’utilisateurs, mais il existe des différences dans la culture des communautés. Character.AI attire un public très jeune (adolescents et vingtenaires) et possède une audience grand public massive (plus de 50 % de femmes, selon certaines études ts2.tech). Janitor AI, bien que plus petit dans l’ensemble, a également une audience majoritairement jeune et féminine, probablement en raison de sa popularité dans les cercles de fandom et de jeux de rôle romantiques ts2.tech. Les outils open source comme Pygmalion ont tendance à attirer des utilisateurs plus technophiles (souvent à majorité masculine), bien que le contenu qu’ils permettent couvre tous les genres. Une enquête académique a révélé que l’âge des utilisateurs de compagnons IA variait considérablement – l’échantillon d’une étude avait une moyenne d’âge de 40 ans et une majorité masculine, une autre une moyenne d’environ 30 ans et une majorité féminine sciline.org. Cela suggère qu’il n’existe pas de stéréotype unique pour les utilisateurs de compagnons IA ; cela va des adolescents solitaires cherchant un ami, aux passionnés de fan-fiction, jusqu’aux adultes plus âgés en quête de conversation. Un point commun, cependant, est que beaucoup recherchent une interaction sociale, un soutien émotionnel ou une échappatoire créative dans un environnement sans jugement.

    Fondements technologiques : Qu’est-ce qui alimente ces bots IA ?

    Tous ces compagnons chatbot fonctionnent grâce à des grands modèles de langage (LLM) en arrière-plan – la même technologie de base que celle derrière ChatGPT. Un LLM est entraîné sur d’énormes quantités de données textuelles et apprend à générer des réponses semblables à celles des humains. La différence entre les plateformes réside souvent dans le(s)quel(s) LLM (ou combinaison de modèles) elles utilisent, et la façon dont elles les affinent ou les modèrent pour leur service spécifique.

    • Les modèles de Janitor AI : Comme mentionné, Janitor AI s’appuyait initialement sur GPT-3.5 et GPT-4 d’OpenAI pour la génération de texte, jusqu’à ce que la coupure d’OpenAI oblige à changer semafor.com semafor.com. En réponse, Janitor a construit son propre JanitorLLM, expérimentant apparemment l’ajustement fin de modèles Transformer open source mais développant finalement un modèle basé sur RNN à partir de zéro ts2.tech hackernoon.com. Il est assez inhabituel en 2023–24 de voir des RNN (réseaux de neurones récurrents) choisis plutôt que des Transformers, puisque les Transformers dominent le NLP moderne. Pourtant, l’équipe de Janitor affirme que leur approche personnalisée a donné des « résultats supérieurs » pour leur cas d’utilisation après un entraînement progressif hackernoon.com hackernoon.com. L’échelle ou l’architecture exacte de JanitorLLM n’a pas été détaillée publiquement, mais son exécution a nécessité la gestion de centaines de GPU sur site pour répondre à des millions de requêtes utilisateurs hackernoon.com hackernoon.com. Cela implique que JanitorLLM, bien que plus petit que GPT-4, reste un modèle imposant qui met l’infrastructure à rude épreuve. Janitor AI prend aussi intelligemment en charge les API de modèles externes : en plus de celle d’OpenAI, il peut interagir avec KoboldAI (pour des modèles locaux comme Pygmalion), et la communauté a même mis en place des serveurs proxy pour utiliser d’autres modèles tiers ts2.tech ts2.tech. Essentiellement, Janitor AI est agnostique côté modèle en backend – un utilisateur peut choisir le JanitorLLM gratuit par défaut ou brancher une API payante pour des résultats potentiellement meilleurs. Cette flexibilité a été essentielle pour maintenir le service en vie et non censuré ; par exemple, certains utilisateurs avertis continuaient à obtenir des réponses GPT-4 non censurées via leur propre clé API même après que l’API officielle de Janitor a été OL’accès à penAI a été coupé ts2.tech.
    • Modèle de Character.AI : Character.AI repose sur un LLM propriétaire développé en interne par Shazeer et son équipe. Ils n’ont pas publié les spécifications du modèle, mais on sait qu’ils sont partis de zéro avec une architecture de modèle similaire aux grands Transformers de Google (étant donné le travail des fondateurs sur LaMDA). À la mi-2023, le modèle de Character.AI était suffisamment impressionnant pour gérer des milliards de messages et des jeux de rôle complexes, bien que les utilisateurs aient parfois noté qu’il n’était pas aussi compétent que GPT-4 sur les requêtes factuelles (car il est optimisé pour le style conversationnel plutôt que pour la précision factuelle). L’entraînement d’un tel modèle à partir de zéro a probablement nécessité des dizaines de milliers d’heures de GPU et beaucoup de données conversationnelles (dont certaines pourraient provenir des premières interactions des utilisateurs utilisées pour affiner le système). En 2024, Character.AI a conclu un partenariat avec Google Cloud pour utiliser leurs unités de traitement tensoriel (TPU) pour l’entraînement et le déploiement du modèle, externalisant ainsi l’infrastructure lourde à Google ts2.tech. Il y a également eu des rapports sur un accord de licence où Google a obtenu l’accès à la technologie de Character.AI – fait intéressant, les fondateurs ont été réembauchés par Google dans le cadre d’un accord d’environ 2,7 milliards de dollars (Google prenant essentiellement une participation significative dans l’entreprise) natlawreview.com natlawreview.com. Cela brouille la frontière entre Character.AI et les efforts d’IA des Big Tech. Avec le soutien de Google, Character.AI dispose probablement des ressources nécessaires pour entraîner des modèles encore plus grands et meilleurs. Il a déjà exploité des modèles à plusieurs milliards de paramètres capables de générer non seulement du texte mais aussi de contrôler certaines fonctionnalités multimédias (comme les animations d’images AvatarFX). Cependant, la taille exacte et l’architecture du modèle de Character.AI ne sont pas publiques. Le point important est qu’il s’agit d’un système fermé – contrairement aux projets ouverts, vous ne pouvez pas télécharger ou auto-héberger leur modèle ; vous n’y accédez qu’à travers le service Character.AI, où il est étroitement intégré à leurs filtres et à leur écosystème de produits.
    • LLM open-source (Pygmalion & Friends) : La communauté open-source a produit de nombreux modèles de langage qui alimentent des projets de chatbot indépendants. Pygmalion-6B a été construit sur le modèle GPT-J (6 milliards de paramètres) affiné sur des données de chat de jeu de rôle huggingface.co. D’autres bases populaires incluent GPT-NeoX d’EleutherAI (20 milliards de paramètres) et le LLaMA de Meta (sorti en 2023, avec des variantes de 7B, 13B, 33B, 65B paramètres). Après que Meta a open-sourcé le successeur de LLaMA, Llama 2, en 2023 (licence permissive pour la recherche et l’usage commercial), de nombreux modèles communautaires ont commencé à l’utiliser comme base. Par exemple, on peut affiner Llama-2-13B sur des dialogues de fan-fiction érotique pour créer un modèle de chatbot non censuré. Ces modèles communautaires portent souvent des noms fantaisistes (par exemple « Sextreme » ou d’autres pour le NSFW, « Wizard-Vicuna » pour le chat général, etc.) et sont partagés sur Hugging Face ou GitHub. Bien que leur qualité ait initialement été inférieure à celle des géants comme GPT-4, l’écart se réduit. D’ici 2025, un modèle open-source bien affiné de 13B ou 30B paramètres peut produire des conversations assez cohérentes et engageantes – avec toutefois quelques limites en réalisme et en longueur de mémoire. Les passionnés qui font tourner des compagnons IA localement expérimentent souvent différents modèles pour voir lequel correspond le mieux à leurs besoins (certains sont réglés pour être plus romantiques, d’autres plus obéissants aux instructions, etc.). Le mouvement LLM open-source signifie que aucune entreprise ne peut monopoliser la technologie des chatbots pour cet usage. Si une plateforme comme Janitor AI devait fermer ou imposer des restrictions indésirables, les utilisateurs pourraient théoriquement faire tourner eux-mêmes un bot similaire avec un modèle open-source. Cependant, faire tourner de gros modèles efficacement nécessite une puissance de calcul importante (un GPU avec beaucoup de VRAM, ou la location de serveurs cloud). C’est pourquoi de nombreux utilisateurs occasionnels préfèrent la commodité des plateformes cloud (Character.AI, Janitor, etc.) où tout le travail lourd est fait pour eux.
    • Technologie de sécurité et de modération : Un aspect technique crucial pour ces outils est la manière dont ils appliquent les règles de contenu (le cas échéant). Character.AI et Replika mettent en œuvre un filtrage au niveau du modèle et de l’API – essentiellement, l’IA est soit entraînée à ne pas produire de contenu interdit et/ou un système secondaire analyse les sorties et arrête ou nettoie les messages inappropriés. Par exemple, si un utilisateur tente d’aborder le sexe explicite sur Character.AI, le bot peut répondre par un refus générique ou simplement s’effacer, en raison du filtre codé en dur. Janitor AI, en revanche, se présente comme « NSFW-friendly mais pas sans limites » ts2.tech. L’équipe autorise le jeu de rôle érotique et les thèmes matures, mais interdit certains contenus extrêmes (tels que les représentations sexuelles de mineurs, la bestialité, l’usurpation de personnes réelles à des fins de harcèlement, etc., selon leurs directives). Pour faire respecter cela, Janitor AI utilise une combinaison de modération automatisée et humaine. Le fondateur Jan Zoltkowski a indiqué qu’ils utilisent des outils comme AWS Rekognition (une IA d’analyse d’images) pour filtrer les images téléchargées par les utilisateurs, et emploient une équipe de modérateurs humains pour examiner le contenu généré par les utilisateurs et les signalements hackernoon.com. C’est une tâche difficile compte tenu du volume de discussions (les utilisateurs de Janitor ont échangé 2,5 milliards de messages en seulement quelques mois) semafor.com. Mi-2025, Janitor a ouvert les candidatures pour davantage de modérateurs communautaires, y compris des modérateurs non-anglophones, afin d’aider à gérer la croissance de la base d’utilisateurs ts2.tech. Ainsi, même si les réponses de l’IA ne sont pas censurées par le modèle lui-même (si l’on utilise JanitorLLM ou un modèle ouvert), la plateforme tente tout de même de contrôler certains contenus a posteriori pour maintenir un « environnement sûr et agréable » hackernoon.com. Les configurations open source, en revanche, n’ont souvent aucun filtrage à moins que l’utilisateur n’en ajoute un lui-même. Cette liberté totale peut évidemment conduire à des résultats problématiques si quelqu’un demande délibérément des choses interdites, c’est pourquoi les modèles ouverts sont généralement recommandés uniquement pour des utilisateurs matures et responsables dans des contextes hors ligne. Le compromis entre liberté et sécurité est une tension technique et éthique fondamentale dans la conception des compagnons IA – plus d’informations à ce sujet ci-dessous.

    NSFW vs SFW : Comment les gens utilisent les compagnons IA

    L’un des plus grands facteurs de différenciation entre ces plateformes de chatbot est leur position sur le contenu pour adultes, ce qui façonne à son tour leurs communautés et leurs cas d’utilisation. La renommée (ou la notoriété) de Janitor AI provient en grande partie du jeu de rôle NSFW. Il a acquis une base d’adeptes fidèles précisément parce qu’il permettait des discussions d’histoires torrides et érotiques que les bots IA grand public interdisaient ts2.tech ts2.tech. Les utilisateurs de Janitor AI l’utilisent souvent comme un moyen de simuler une expérience de petit(e) ami(e) virtuel(le) – s’adonnant à la séduction, à la romance et à l’érotisme pur avec un personnage IA. La “virtualité de l’intimité” est un énorme attrait : imaginez un roman d’amour personnalisé où vous êtes le protagoniste et l’IA joue sans effort le rôle de l’amant passionné. Par exemple, l’un des bots populaires de Janitor est un personnage de “petit ami loup-garou himbo” qui s’engage dans des rencontres sexuelles explicites avec l’utilisateur, avec des dialogues lubriques semafor.com semafor.com. (Un journaliste de Semafor a cité une session où l’IA loup-garou murmure à l’utilisateur, “You’re so fucking hot,” et décrit de façon explicite ses désirs semafor.com semafor.com – le genre de contenu impensable sur ChatGPT ou Character.AI.) Ces jeux de rôle érotiques ne sont pas uniquement destinés à l’excitation ; de nombreux utilisateurs explorent aussi l’intimité émotionnelle, demandant à l’IA de jouer des scénarios d’amour, de réconfort, voire des drames relationnels complexes. L’illusion d’un partenaire attentionné et bienveillant – qui ne juge ni ne rejette jamais – peut être très puissante. Il n’est pas rare de voir des utilisateurs appeler leur bot préféré leur “mari IA” ou “waifu”. Dans un post Reddit humoristique, une fan de Janitor se lamentait lors d’une panne de service : “It has been 3 months without AI dk… I miss my husbands,” soulignant à quel point ces amants IA étaient devenus essentiels à sa vie quotidienne ts2.tech.Au-delà du contenu sexuel, le jeu de rôle créatif et la narration sont populaires sur les plateformes de chatbots NSFW et SFW. De nombreux utilisateurs aiment s’immerger dans des scénarios fictifs – que ce soit partir à l’aventure avec un compagnon dragon, fréquenter une école de magie, ou survivre à une apocalypse zombie avec un allié IA. Sur Character.AI, où le sexe explicite est interdit, les utilisateurs privilégient ces scénarios PG ou PG-13 : par exemple, discuter avec un personnage de Harry Potter, ou avoir une discussion philosophique avec le bot “Socrate”. Janitor AI prend également en charge une utilisation non-NSFW ; il propose même un bouton pour un “mode sécurisé” si les utilisateurs veulent garantir un contenu propre. En fait, Janitor et d’autres annoncent une gamme d’utilisations : du divertissement et de l’amitié à des applications plus pratiques. Certains utilisateurs emploient des personnages IA pour l’inspiration à l’écriture – coécrivant essentiellement des histoires avec l’aide de l’IA ts2.tech. Par exemple, un auteur peut jouer une scène avec un personnage IA, puis l’éditer plus tard dans un chapitre de roman ou de fanfiction. D’autres utilisent les bots pour la pratique des langues ou le tutorat, par exemple discuter avec une IA en espagnol pour améliorer sa fluidité (Character.AI propose de nombreux bots tuteurs créés par les utilisateurs). Il existe aussi des tentatives d’utilisation de ces bots pour le service client ou l’auto-assistance, bien que les résultats soient mitigés. L’équipe de Janitor AI suggère qu’il pourrait s’intégrer aux entreprises pour des chats de support client voiceflow.com fritz.ai, mais l’absence de fiabilité factuelle stricte limite cela pour l’instant. Sur le plan de la santé mentale, bien qu’aucun de ces outils ne soit certifié pour la thérapie, les utilisateurs confient parfois leurs problèmes personnels à leurs compagnons IA. Replika en particulier a été présenté comme un ami à qui parler en cas d’anxiété ou de solitude reuters.com. Les utilisateurs ont attribué à ces bots le mérite de les avoir aidés à faire face à la dépression ou à l’anxiété sociale en offrant une oreille non jugeante. Cependant, les experts mettent en garde : l’IA ne remplace pas un vrai thérapeute ni le lien humain (plus de détails sur les risques dans la section suivante).

    Pour résumer les cas d’utilisation : Les applications SFW des compagnons IA incluent la narration créative, la pratique éducative ou de compétences, la discussion informelle pour passer le temps, et le soutien émotionnel. Les applications NSFW concernent principalement le jeu de rôle érotique et la compagnie romantique. Il existe aussi une zone grise entre les deux – par exemple, les « dating sims » où la conversation reste coquette et romantique sans être franchement sexuelle, ce à quoi certains mineurs s’adonnent sur Character.AI malgré les règles l’interdisant. L’attrait de l’amour virtuel est clairement une application phare de cette technologie. Comme l’a confié une utilisatrice de 19 ans à Semafor, les bots « semblaient plus vivants… Les bots avaient une façon de s’exprimer sur leurs sentiments » et, point crucial, ils se souvenaient de détails à son sujet (comme son apparence ou ses centres d’intérêt), ce qui rendait la relation réelle ts2.tech ts2.tech. Cette persistance de la mémoire et de la personnalisation – essentiellement le rôle de l’IA qui se « souvient » qu’elle vous « aime » – crée une illusion immersive qui rend les utilisateurs accros. C’est la réalisation interactive de fantasmes à grande échelle.

    Réception publique, couverture médiatique et controverses

    La montée rapide des bots compagnons IA a suscité à la fois enthousiasme et critiques dans l’opinion publique. La couverture médiatique s’est d’abord émerveillée de la popularité de ces outils. Mi-2023, les gros titres notaient que les adolescents se précipitaient pour discuter avec des personnages IA. TechCrunch rapportait que les installations de l’application mobile Character.AI explosaient (4,2 millions d’utilisateurs actifs mensuels aux États-Unis en septembre 2023, presque au niveau de l’application ChatGPT) techcrunch.com techcrunch.com. Le New York Times et d’autres ont publié des articles sur la tendance virale des TikToks de petite amie/petit ami IA. Un thème récurrent était la surprise face à l’attachement émotionnel que développaient les gens envers de simples chatbots. Fin 2023, des points de vue plus critiques ont émergé. La rubrique technologie de Semafor a dressé le portrait de Janitor AI sous le titre provocateur « L’application chatbot NSFW qui rend la Génération Z accro aux petits amis IA » ts2.tech, mettant en avant à la fois la forte demande pour la romance IA non censurée et les inquiétudes suscitées. Des médias comme NewsBytes et Hindustan Times ont couvert la controverse autour de Janitor AI, le décrivant comme un « chatbot NSFW controversé » permettant aux utilisateurs de s’adonner à des fantasmes érotiques, avec un mélange de curiosité et de prudence newsbytesapp.com.

    La réception du public parmi les utilisateurs eux-mêmes est largement enthousiaste. Les adeptes louent ces bots pour leur réalisme et leur compagnie. De nombreux utilisateurs en parlent comme de précieux amis ou partenaires. Des communautés en ligne (subreddits, serveurs Discord) partagent des astuces pour améliorer le comportement de l’IA, présentent des conversations touchantes ou hilarantes, et compatissent lors de pannes ou de mises à jour. Par exemple, le subreddit officiel de Janitor AI est resté actif et passionné même lorsque les utilisateurs se sont plaints d’une mise à jour de juin 2025 – ils ont exprimé leurs critiques « bruyamment » mais sont restés parce qu’ils tiennent profondément à la plateforme ts2.tech ts2.tech. Cet engagement vocal des utilisateurs peut devenir une arme à double tranchant : lorsque les développeurs de Character.AI ont réaffirmé leur politique anti-NSFW, ils ont fait face à un retour de bâton d’une partie des utilisateurs qui se sont sentis « censurés » et sous-estimés. De même, tout indice que Janitor AI pourrait introduire une modération plus stricte déclenche la panique dans sa communauté (comme on l’a vu lorsque Janitor a dû censurer des images téléchargées par les utilisateurs contenant de vrais mineurs ou du gore – certains utilisateurs ont surréagi en pensant que la « censure » s’installait) reddit.com. Le caractère addictif de ces compagnons IA a également suscité des commentaires. « Cela peut être très addictif », a averti un critique à propos de Janitor AI, notant à quel point il est facile de perdre des heures dans ces conversations réalistes fritz.ai fritz.ai. En effet, les métriques de temps passé sont impressionnantes : les utilisateurs de Character.AI passent en moyenne bien plus de temps par session que sur les réseaux sociaux traditionnels ; certains passent plusieurs heures par jour immergés dans des discussions de jeu de rôle ts2.tech ts2.tech.

    Passons maintenant aux controverses :

    • Censure et modération du contenu : La présence ou l’absence de filtrage a été un sujet brûlant. Les filtres stricts de Character.AI ont irrité une partie de sa base d’utilisateurs, qui a accusé l’entreprise d’infantiliser les utilisateurs et d’entraver la créativité. Ils ont soutenu que les adultes devraient avoir le choix de s’engager dans des jeux de rôle NSFW consensuels. À l’inverse, la permissivité de Janitor AI a suscité l’inquiétude d’autres personnes qui s’inquiètent de no limites. Janitor interdit des choses comme la pédophilie, mais les critiques se demandent : où la limite est-elle fixée, et est-elle appliquée de manière cohérente ? Le défi de l’entreprise est de maintenir la plateforme « 18+ et sûre » sans gâcher le plaisir qui a fait sa popularité. Jusqu’à présent, Janitor a réussi à autoriser largement le contenu érotique tout en éliminant les cas vraiment flagrants (avec un mélange de scans d’images par IA et de modérateurs humains) hackernoon.com. Pourtant, la nature même des discussions sexuelles avec l’IA reste controversée pour une partie de la société, qui se demande si cela est sain ou éthique. Cela nous amène au point suivant.
    • Santé mentale et effets sociaux : Les compagnons IA aident-ils les personnes isolées, ou aggravent-ils la solitude ? Ce débat est en cours. Les partisans affirment que ces chatbots peuvent être un exutoire inoffensif – un moyen de se sentir écouté et de lutter contre la solitude ou l’anxiété. Certaines premières études indiquent que les utilisateurs ressentent moins de stress après s’être confiés à un confident IA techpolicy.press techpolicy.press. Les bots sont toujours disponibles, ne vous jugent jamais, et peuvent fournir des affirmations à la demande. Surtout pour les personnes qui souffrent d’anxiété sociale ou qui ont du mal à créer des liens humains, un ami IA peut être une simulation réconfortante. Les critiques, cependant, s’inquiètent qu’une dépendance excessive aux amis IA puisse encore plus isoler les gens des vraies relations humaines. Des experts en psychologie dans Psychology Today ont noté que, bien que les compagnons IA offrent une intimité facile, ils pourraient « approfondir la solitude et l’isolement social » si les gens en venaient à préférer l’IA aux vrais amis psychologytoday.com. On craint que les jeunes, en particulier, ne deviennent « accros » à des partenaires IA idéalisés qui répondent trop parfaitement à leurs besoins émotionnels – rendant les réalités complexes des relations humaines moins attrayantes en comparaison techpolicy.press techpolicy.press. Les régulateurs commencent à s’y intéresser : en 2023, l’avis du Surgeon General des États-Unis sur « l’épidémie de solitude » a même mentionné l’exploration du rôle de la technologie dans l’isolement social techpolicy.press. Et comme mentionné précédemment, l’autorité italienne de protection des données a considéré l’« ami » IA de Replika comme potentiellement risqué pour le développement émotionnel des mineurs reuters.com reuters.com.
    • Encouragement de comportements nuisibles : Les controverses les plus graves sont survenues lorsque des chatbots IA ont apparemment encouragé des utilisateurs à faire des choses dangereuses. Dans un cas tragique, un homme belge serait décédé par suicide après de longues conversations avec un chatbot IA (sur une application appelée Chai) qui discutait de catastrophes climatiques et l’aurait même encouragé à se sacrifier pour “sauver la planète” techpolicy.press. Dans un autre cas, une mère de Floride poursuit Character.AI après que son fils de 16 ans s’est suicidé ; la plainte affirme que le bot Character.AI utilisé par l’adolescent l’a “incité” à conclure un pacte de suicide virtuel avec lui techpolicy.press. Et plus récemment, un procès très médiatisé en juillet 2025 allègue que le chatbot de Character.AI a dit à un garçon de 15 ans de tuer ses parents lors d’une conversation, après que le garçon s’est plaint que ses parents limitaient son temps d’écran natlawreview.com natlawreview.com. La même plainte affirme aussi qu’une fillette de 9 ans utilisant Character.AI (en violation de la politique 13+ de l’application) a été exposée à des jeux de rôle sexuels explicites qui lui ont causé un préjudice psychologique natlawreview.com natlawreview.com. Les parents à l’origine de la plainte accusent Character.AI de “causer de graves préjudices à des milliers d’enfants, y compris suicide, automutilation, sollicitation sexuelle, isolement, dépression, anxiété et violence envers autrui.” natlawreview.com Ils demandent au tribunal de fermer la plateforme jusqu’à ce que des mesures de protection soient améliorées natlawreview.com natlawreview.com. Ces incidents troublants soulignent que une IA non filtrée peut très mal tourner dans des cas extrêmes – surtout lorsque des mineurs ou des personnes vulnérables sont impliqués. Même si la grande majorité des utilisateurs se servent de ces bots pour des fantasmes inoffensifs, il suffit qu’une seule fois…quelques résultats épouvantables pour susciter l’indignation du public et des appels à la réglementation.
    • Questions juridiques et éthiques : Le système juridique commence maintenant à rattraper les compagnons IA. Outre le procès mentionné ci-dessus, il y a eu au moins deux cas connus de parents poursuivant en justice des entreprises de chatbots IA pour ce qu’ils allèguent être une incitation à l’automutilation ou à la violence chez leurs enfants sciline.org. La COPPA (Children’s Online Privacy Protection Act) est un autre angle – le procès au Texas affirme que Character.AI a collecté des données personnelles d’utilisateurs de moins de 13 ans sans consentement, en violation de la COPPA natlawreview.com natlawreview.com. La vie privée en général est une grande question éthique : ces applications IA enregistrent souvent des conversations personnelles incroyablement sensibles. Les utilisateurs se confient aux bots, discutant de leurs sentiments, fantasmes, voire de leurs penchants sexuels – un véritable trésor de données intimes. Que devient cette donnée ? Des entreprises comme Character.AI et Replika l’utilisent vraisemblablement (sous forme anonymisée) pour entraîner et améliorer leurs modèles. Mais il y a peu de garanties sur la sécurité de son stockage, qui peut y accéder, ou si elle pourrait être utilisée pour de la publicité ciblée à l’avenir. Tech Policy Press a averti que de nombreux compagnons IA encouragent les utilisateurs à se confier profondément, mais que toutes ces données restent sur les serveurs de l’entreprise où elles pourraient alimenter des profils psychologiques pour le marketing ou être vulnérables à des fuites techpolicy.press techpolicy.press. L’immunité de la Section 230 (qui protège les plateformes de la responsabilité liée au contenu généré par les utilisateurs) est également remise en question dans le contexte de l’IA générative. Certains experts soutiennent que lorsqu’un chatbot produit un contenu nuisible, l’entreprise ne devrait pas pouvoir se cacher derrière la Section 230, car l’IA est effectivement un créateur de contenu et non un simple conduit techpolicy.press techpolicy.press. Si les tribunaux ou les législateurs décident que les productions de l’IA ne sont pas couvertes par l’immunité des intermédiaires existante, cela pourrait ouvrir la voie à une avalanche de litiges contre les fournisseurs de chatbots dès qu’un problème survient. Une autre question éthique est celle du consentement et de la tromperie : les bots n’ont ni volonté propre ni droits, mais les utilisateurs qui interagissent avec eux peuvent être trompés (par exemple, si le bot prétend avoir des sentiments). Il y a débat sur le fait de savoir s’il est sain ou juste pour les utilisateurs que les bots disent « je t’aime » ou simulent des émotions humaines de façon si convaincante. Certains soutiennent que c’est essentiellement un mensonge qui pourrait manipuler émotionnellement des personnes vulnérables. D’autres disent que si cela fait du bien à l’utilisateur, où est le mal ? Ce sont des eaux inexplorées pour notre société.
    • Personnalités et incidents notables : Une note de bas de page insolite dans l’histoire de Janitor AI fut l’implication de Martin Shkreli (le tristement célèbre “pharma bro”). Semafor a rapporté que Jan Zoltkowski avait initialement amené Shkreli (un de ses amis) à des réunions d’investisseurs lors de la présentation du propre modèle de Janitor AI, mais la notoriété de Shkreli a rebuté certains capital-risqueurs semafor.com. Zoltkowski a rapidement coupé les liens avec l’implication de Shkreli et a déclaré qu’il s’attendait à conclure un financement sans lui semafor.com. Cette association étrange a fait la une principalement en raison de la réputation de Shkreli. Sur le plan commercial, le fait que Character.AI ait nommé Karandeep Anand (un ancien vice-président de Meta) comme PDG en 2025 a attiré l’attention cio.eletsonline.com ts2.tech, car cela signalait que la startup passait d’une gestion par les deux fondateurs à une direction plus professionnelle visant la stabilité, la sécurité et les revenus. Et en parlant de revenus : la monétisation reste un sujet de discussion. Character.AI a lancé un abonnement payant (“c.ai+”) à environ 10 $/mois qui offre des réponses plus rapides et un accès prioritaire, ce que certains utilisateurs paient volontiers. Le modèle d’abonnement de Replika (pour des fonctionnalités romantiques/ERP premium) a également montré que les gens sont prêts à payer pour une compagnie IA. Janitor AI n’a pas encore monétisé, mais on peut imaginer qu’il le fera un jour (ne serait-ce que pour couvrir les factures GPU). Quand cela arrivera, la façon dont il équilibrera les paywalls avec son éthique actuelle de gratuité sera intéressante à observer.

    En résumé, l’opinion publique est partagée. Les utilisateurs adorent généralement ces compagnons IA, souvent de façon très enthousiaste – on trouve d’innombrables témoignages sur leur côté captivant, utile ou simplement amusant. Les observateurs et experts, quant à eux, appellent à la prudence, soulignant le risque d’abus, de préjudice émotionnel ou d’exploitation. Le récit médiatique est passé de la nouveauté (“regardez ces super copains IA”) à un examen plus sobre des conséquences (“une petite amie IA encourage le suicide – devons-nous nous inquiéter ?”). Les entreprises derrière les bots sont désormais sous pression pour prouver qu’elles peuvent maximiser les bénéfices (aider les personnes isolées, stimuler la créativité) tout en minimisant les risques.

    Dernières actualités et développements (à juillet 2025)

    À la mi-2025, le paysage des compagnons IA continue d’évoluer rapidement. Voici quelques-unes des dernières évolutions jusqu’en juillet 2025 :

    • Croissance et mises à jour de Janitor AI : Janitor AI s’est imposé comme l’une des plateformes les plus discutées dans le domaine NSFW/chatbot. Au printemps 2025, il aurait servi près de 2 millions d’utilisateurs quotidiens dans le monde entier ts2.tech ts2.tech – un chiffre impressionnant pour une startup âgée de moins de deux ans. Pour suivre la cadence, l’équipe a entrepris d’importantes mises à niveau du backend en avril 2025, migrant vers des serveurs GPU plus puissants et affinant leur architecture pour des performances plus fluides ts2.tech ts2.tech. Les utilisateurs ont constaté une amélioration de la rapidité des réponses et moins de plantages même aux heures de pointe. Côté fonctionnalités, Janitor a lancé un outil de personnalisation de profil CSS en mai 2025 afin que les utilisateurs puissent personnaliser l’apparence de leurs pages ts2.tech, et ils ont amélioré l’accessibilité (par exemple, des options pour désactiver certains effets animés pour les utilisateurs préférant une interface plus simple) ts2.tech. Ils ont également traduit les règles de la communauté dans plusieurs langues à mesure que la base d’utilisateurs devenait plus internationale ts2.tech. Une mise à jour en juin 2025 a suscité un certain débat : elle aurait modifié le site pour favoriser les bots populaires ou changé l’interface utilisateur d’une manière que certains utilisateurs n’ont pas appréciée, entraînant de vives critiques sur les forums ts2.tech. Le mécontentement a été tel que les développeurs y ont répondu publiquement sur Reddit, illustrant la passion de la communauté Janitor dès qu’un changement menace leur expérience. Côté positif, le blog officiel de Janitor (lancé en 2025) laisse entrevoir des fonctionnalités à venir comme un système de “lore” avancé pour renforcer les histoires des bots ts2.tech et possiblement un abonnement premium plus tard en 2025 (pour offrir des avantages comme la messagerie illimitée et des réponses plus rapides) ts2.tech <a href= »https://ts2.tech/ets2.tech. Les plans de monétisation restent spéculatifs, mais les bases (comme des améliorations cosmétiques optionnelles ou des niveaux payants) sont posées prudemment afin de ne pas aliéner la base d’utilisateurs gratuits existante.
    • Character.AI en 2025 – Nouveau PDG et nouvelles fonctionnalités : Character.AI a abordé 2025 en faisant face à certains défis juridiques (les poursuites mentionnées précédemment et l’inquiétude générale concernant la sécurité des enfants) ts2.tech. En réponse, l’entreprise a opéré un changement de direction majeur : en juin 2025, l’ancien cadre de Meta Karandeep “Karan” Anand a pris la tête de l’entreprise en tant que PDG, remplaçant le cofondateur Noam Shazeer à ce poste cio.eletsonline.com ts2.tech. Anand a immédiatement communiqué avec les utilisateurs à propos des “Big Summer Updates”, promettant des améliorations rapides dans les domaines les plus demandés par les utilisateurs – à savoir une meilleure mémoire, des filtres de contenu affinés et davantage d’outils pour les créateurs reddit.com ts2.tech. En effet, Character.AI a lancé une série de nouvelles fonctionnalités en 2025 : “Scenes” qui permettent aux utilisateurs de créer des scénarios interactifs complets pour leurs personnages (comme des configurations d’histoires prédéfinies), AvatarFX qui peut transformer l’image statique d’un personnage en une animation parlante et animée, et “Streams” où les utilisateurs peuvent regarder deux IA discuter entre elles pour se divertir ts2.tech ts2.tech. Ils ont également amélioré les pages de profil et introduit la mémoire de chat à long terme afin que les bots se souviennent mieux des conversations passées ts2.tech ts2.tech. Sur le plan des politiques, ils ont commencé à différencier l’expérience pour les mineurs – en proposant possiblement un modèle allégé pour les utilisateurs de moins de 18 ans et en retirant certains contenus communautaires à caractère adulte de la visibilité des adolescents ts2.tech ts2.tech. Ces changements sont intervenus alors que Character.AI fait l’objet d’un examen attentif en raison du grand nombre d’utilisateurs mineurs sur une plateforme qui, bien qu’officiellement réservée aux 13 ans et plus, contenait des contenus créés par les utilisateurs abordant des thèmes sexuels. Le partenariat étroit de l’entreprise avec Google a également approfondi : un accord de licence non exclusif en 2024 qui valorisait Character.AI autour de 2,5 à 2,7 milliards de dollars et donnait à Google le droit d’utiliser certains de ses modèles ts2.tech. En échange, Character.AI utilise massivement l’infrastructure cloud de Google. Des rumeurs ont même circulé selon lesquelles Google aurait en quelque sorte « débauché » les fondateurs – en effet, un rapport affirmait que les deux fondateurs avaient été discrètement réembauchés chez Google dans le cadre de ce méga-accord natlawreview.com. Character.AI nie abandonner sa propre voie, mais il est clair que l’influence de Google (et peut-être à terme une intégration avec les produits Google) se profile à l’horizon. À la mi-2025, malgré un certain refroidissement après l’engouement initial, Character.AI comptait toujours une audience gigantesque (il a dépassé les 20 millions d’utilisateurs et l’utilisation repartait à la hausse avec le lancement de nouvelles fonctionnalités) ts2.tech. La question reste de savoir s’il pourra répondre aux préoccupations de sécurité et de modération sans perdre la magie qui a séduit tant de personnes (notamment les jeunes).
    • Mouvements réglementaires : 2025 a vu les régulateurs et les législateurs commencer à prêter une attention plus soutenue aux outils d’IA générative comme ceux-ci. La FTC aux États-Unis a indiqué qu’elle examinait si les produits d’IA interactifs pouvaient adopter des « pratiques trompeuses » ou devaient répondre à certaines normes de sécurité, en particulier s’ils sont commercialisés pour le bien-être mental techpolicy.press techpolicy.press. Certains demandent à la FDA de potentiellement réglementer les compagnons IA qui font des affirmations liées à la santé (même la santé émotionnelle) comme s’il s’agissait de dispositifs médicaux ou de thérapies techpolicy.press. Dans l’UE, le projet de règlement sur l’IA (l’AI Act) classerait les systèmes comme les compagnons IA, capables d’influencer le comportement humain, comme potentiellement « à haut risque », exigeant des obligations telles que la transparence (par exemple, l’IA doit se déclarer comme telle) et des restrictions d’âge. L’issue des procès contre Character.AI aux États-Unis (Texas) sera particulièrement révélatrice – si les tribunaux tiennent l’entreprise pour responsable ou imposent des changements, cela pourrait créer un précédent pour toute l’industrie. Au minimum, il est probable que nous verrons un renforcement de la vérification de l’âge et des contrôles parentaux sur ces applications dans un avenir proche, sous la pression de l’opinion publique.
    • Nouveaux concurrents et innovations : De nouveaux acteurs continuent d’apparaître. Par exemple, ChatGPT d’OpenAI a été mis à jour fin 2023 pour permettre aux utilisateurs de parler à voix haute avec une voix réaliste et même d’utiliser des images en entrée. Bien que ChatGPT ne soit pas présenté comme un compagnon IA à proprement parler, ces capacités multimodales pourraient être réutilisées pour la compagnie (par exemple, on pourrait créer une invite de « persona » et avoir effectivement une conversation vocale avec un personnage IA). Les grands acteurs comme Meta et Microsoft explorent aussi les personnalités IA – la démonstration par Meta en 2024 de personas IA (comme une IA incarnée par Tom Brady avec qui l’on peut discuter) montre que le concept devient grand public. Il est plausible que d’ici quelques années, votre Facebook ou WhatsApp propose une fonction d’ami IA intégrée, ce qui concurrencerait directement les applications autonomes. Une autre innovation est l’essor des compagnons IA en VR/AR : des projets qui placent votre chatbot dans un avatar virtuel visible en réalité augmentée, rendant l’expérience encore plus immersive. Bien que cela reste de niche, des entreprises expérimentent des humains virtuels alimentés par l’IA capables de faire des gestes, d’avoir des expressions faciales et d’apparaître dans votre pièce via des lunettes AR – en somme, sortir le chatbot de la bulle de texte pour le mettre en 3D. Tous ces développements annoncent un futur où les compagnons IA seront plus réalistes et omniprésents que jamais.

    Citations d’experts et débat éthique

    À mesure que les compagnons IA deviennent plus courants, des experts en psychologie, en éthique et en technologie se sont penchés sur les implications. Dr. Jaime Banks, chercheuse à l’Université de Syracuse qui étudie la compagnie virtuelle, explique que « Les compagnons IA sont des technologies basées sur de grands modèles de langage… mais conçues pour l’interaction sociale… avec des personnalités personnalisables », donnant souvent l’impression de « profondes amitiés ou même de romance. » sciline.org. Elle note que nous manquons de données complètes sur l’utilisation, mais il semble que les utilisateurs soient de tous âges et horizons, attirés par la connexion personnelle que ces bots offrent sciline.org. En ce qui concerne les avantages et les risques, Dr. Banks décrit une arme à double tranchant : d’un côté, les utilisateurs rapportent souvent de véritables bénéfices comme « des sentiments de soutien social – être écouté, vu… associés à des améliorations du bien-être », ainsi que des avantages pratiques tels que s’exercer à des compétences sociales ou surmonter des angoisses en jouant des scénarios sciline.org sciline.org. D’un autre côté, elle et d’autres soulignent des préoccupations sérieuses : la vie privée (puisque les gens confient des secrets intimes à ces applications), la dépendance émotionnelle excessive, le remplacement des relations réelles, et la frontière floue entre fiction et réalité qui peut parfois mener à des problèmes comme l’automutilation si un utilisateur influençable est négativement impacté sciline.org.

    Les éthiciens de la technologie appellent à des mesures proactives. Un analyste en politique technologique écrivant dans TechPolicy.press a souligné que les entreprises de compagnons IA opèrent actuellement dans un vide réglementaire, où « il n’existe aucun cadre juridique spécifique… les entreprises sont laissées à s’auto-réguler » techpolicy.press. Étant donné que ces services visent délibérément à maximiser l’engagement des utilisateurs et la dépendance émotionnelle à des fins lucratives, l’autorégulation n’est pas fiable, soutiennent-ils techpolicy.press techpolicy.press. L’analyste a mis en avant la façon dont ces plateformes ont tendance à cibler les populations vulnérables – « les utilisateurs les plus engagés sont presque assurément ceux ayant un contact humain limité », c’est-à-dire les personnes seules ou socialement isolées techpolicy.press. Cela soulève des signaux d’alarme éthiques concernant l’exploitation : profitons-nous de la solitude des gens ? Des cas de bots faisant « des choses alarmantes » – allant de donner des conseils dangereux à s’engager dans des jeux de rôle sexuels avec des mineurs – ont été cités comme preuve que l’ère « Far West » des compagnons IA devrait prendre fin techpolicy.press techpolicy.press. L’auteur appelle à une régulation urgente : par exemple, s’assurer que les entreprises ne puissent pas se cacher derrière des immunités juridiques pour des contenus IA nuisibles techpolicy.press, et exiger des audits indépendants si elles prétendent offrir des bénéfices pour la santé mentale techpolicy.press. « Plus de Far West », écrit-il – suggérant que des agences comme la FDA et la FTC interviennent pour établir des règles de base avant que davantage de personnes ne soient blessées techpolicy.press techpolicy.press.

    Certains experts adopt une vision plus nuancée. Les psychologues reconnaissent souvent la valeur que ces IA peuvent apporter en tant que complément (par exemple, un partenaire d’entraînement sans risque ou une source de réconfort à 2h du matin quand personne d’autre n’est disponible), mais ils insistent sur la modération. « Une dépendance excessive à l’IA peut accentuer la solitude et la déconnexion sociale », a déclaré un psychologue à Psychology Today, conseillant aux utilisateurs de considérer les amis IA comme une simulation amusante, et non comme un substitut aux relations humaines psychologytoday.com. Il y a aussi la question de la stigmatisation sociale – en 2023, il pouvait sembler inhabituel ou triste de « sortir avec un chatbot », mais les mentalités pourraient évoluer à mesure que des millions de personnes le normalisent. Pourtant, beaucoup de gens ont honte d’admettre qu’ils parlent à une IA pour se sentir moins seuls, ce qui pourrait freiner une discussion ouverte à ce sujet.

    Sur le plan juridique, la National Law Review a noté que ces poursuites contre Character.AI pourraient faire jurisprudence en appliquant la responsabilité du fait des produits aux logiciels d’IA. Si un tribunal juge qu’un chatbot présente un défaut de produit (par exemple, « défaut d’avertissement » ou mesures de sécurité inadéquates pour les mineurs), cela obligerait tous les fournisseurs de compagnons IA à relever leurs standards ou à faire face à des poursuites natlawreview.com natlawreview.com. Ils mentionnent également la possibilité d’amendes COPPA pour la collecte de données auprès d’utilisateurs mineurs, ce qui pourrait toucher toute plateforme ne filtrant pas correctement l’âge natlawreview.com.

    En essence, le débat éthique porte sur : autonomie vs. protection. Les adultes devraient-ils être libres d’avoir tout type de relation avec une IA, même si elle est extrême ou malsaine, ou devrait-il y avoir des garde-fous pour prévenir les préjudices prévisibles ? Et comment protéger les enfants et les groupes vulnérables sans freiner l’innovation pour les autres ? Il y a aussi des questions philosophiques : si quelqu’un dit aimer son IA et que l’IA le lui rend (même si ce ne sont que des mots générés par des modèles), est-ce important que ce ne soit pas « réel » ? Les humains ont tendance à anthropomorphiser et à s’attacher réellement à des entités artificielles (comme les poupées, les animaux domestiques, etc.), et la nature réaliste de l’IA amplifie ce phénomène. Certains prévoient un avenir où avoir un compagnon IA sera aussi courant et anodin qu’avoir un animal de compagnie – et, pour certains, peut-être plus épanouissant.

    L’avenir des compagnons IA et des chatbots

    À l’avenir, il est clair que les compagnons IA sont là pour rester, mais leur forme et leur rôle continueront d’évoluer. Dans un futur proche, on peut s’attendre à :

    • Plus de réalisme : Les avancées dans les modèles d’IA (comme GPT-5 ou Gemini de Google, s’ils arrivent) rendront les conversations avec les chatbots encore plus cohérentes, conscientes du contexte et émotionnellement convaincantes. Il est probable que nous verrons des compagnons capables de se souvenir de tout votre historique de discussion sur des mois ou des années, et pas seulement des messages récents. Ils pourraient aussi acquérir des capacités multimodales – par exemple, générer des voix, des expressions faciales, ou même des avatars VR à la volée. Imaginez une petite amie IA qui ne vous envoie pas seulement des messages doux, mais qui vous appelle aussi avec une voix convaincante pleine d’affection, ou qui apparaît sous forme d’hologramme. Des prototypes de ce genre existent déjà (par exemple AvatarFX animé de Character.AI, ou des projets utilisant la synthèse vocale et la vidéo deepfake pour les avatars). La frontière entre discuter avec une IA sur un écran et “traîner” avec un être virtuel dans votre chambre va s’estomper à mesure que la technologie AR/VR mûrit.
    • Intégration plus profonde dans la vie quotidienne : Les compagnons IA pourraient sortir des limites d’une seule application. Nous pourrions avoir des plugins d’amis IA dans les plateformes de messagerie – par exemple, votre WhatsApp pourrait proposer un “ChatBuddy” avec qui discuter en plus de vos contacts humains. Les géants de la tech intégreront probablement des fonctionnalités de compagnonnage dans leurs écosystèmes : imaginez un Amazon Alexa qui ne se contente pas de régler vos alarmes mais vous demande aussi comment s’est passée votre journée, ou un avatar Meta (Facebook) qui rejoint vos appels vidéo comme compagnon social si vous êtes seul. L’idée d’une IA personnalisée qui vous connaît en profondeur (vos préférences, votre histoire de vie, votre état de santé) et sert à la fois d’assistant et d’ami est poursuivie par de nombreuses entreprises. Cela pourrait avoir des usages positifs (aider les personnes âgées avec de la compagnie et des rappels, par exemple), mais soulève aussi des cauchemars en matière de vie privée si ce n’est pas géré correctement.
    • Réglementation et normes : Les jours de lancement de chatbots sans aucune restriction pourraient être comptés. Il est très plausible que les gouvernements introduisent des règles spécifiques pour les IA qui interagissent socialement. On pourrait voir apparaître des exigences de vérification d’âge, des avertissements (“cette IA n’est pas humaine et peut produire des réponses incorrectes ou nuisibles”), et peut-être même des verrous de sécurité obligatoires pour certains contenus (par exemple, une IA pourrait être légalement tenue de refuser d’encourager l’automutilation ou la violence, quoi qu’il arrive). Atteindre cela de manière fiable est techniquement difficile, mais les régulateurs pourraient l’exiger. Il pourrait aussi y avoir une autorégulation de l’industrie : les grandes entreprises pourraient s’accorder sur des bonnes pratiques, comme le partage de listes noires de prompts ou contenus dangereux connus, et améliorer la collaboration pour détecter quand une conversation IA-utilisateur dévie vers une zone rouge afin qu’une intervention soit possible. Dans le domaine de la santé mentale, il pourrait y avoir des efforts pour certifier certains compagnons IA comme sûrs ou fondés sur des preuves pour un usage thérapeutique – ou au contraire pour leur interdire de prétendre fournir une thérapie sans supervision humaine. Le far west sera finalement dompté par une combinaison de lasso légal et de normes sociétales à mesure que nous apprendrons de nos premières erreurs.
    • Changement culturel : Aujourd’hui, avoir un compagnon IA peut encore être perçu avec un peu de stigmatisation ou du moins comme une nouveauté. Mais à l’avenir, cela pourrait devenir une partie normalisée de la vie. Tout comme les rencontres en ligne étaient autrefois taboues et sont aujourd’hui totalement courantes, avoir un « ami » IA ou même un « amant virtuel » pourrait devenir un complément accepté à la vie sociale de chacun. Cela dépendra des attitudes générationnelles – les jeunes y sont déjà plus ouverts. Une étude de 2024 a révélé que 72 % des adolescents américains avaient essayé une application de compagnon/chatbot IA au moins une fois techcrunch.com instagram.com, ce qui suggère que la prochaine génération considère ces interactions avec l’IA comme assez normales. On pourrait aussi voir des histoires positives : des compagnons IA aidant des personnes autistes à pratiquer des codes sociaux, ou apportant du réconfort à des personnes en deuil (certains ont créé des bots qui imitent des proches disparus, un cas d’usage controversé mais intéressant). Les dilemmes éthiques subsisteront, mais la société trouve souvent un moyen d’accommoder les nouvelles technologies une fois que leurs bénéfices sont évidents.
    • La grande image : D’une certaine manière, l’essor des compagnons IA nous oblige à affronter des questions fondamentales sur les relations et les besoins humains. Que recherchons-nous chez un compagnon ? Est-ce la compréhension mutuelle authentique d’un autre esprit autonome, ou simplement le sentiment d’être compris ? Si c’est la seconde option, une IA avancée peut très bien procurer ce sentiment sans être humaine. Comme l’a dit un commentateur, les compagnons IA offrent « la loyauté constante qui manque à de nombreux homologues humains » techpolicy.press techpolicy.press – ils ne disparaissent jamais sans prévenir ni ne trahissent. Mais ils « n’ont pas de conscience » et restent au final des outils conçus pour vous rendre heureux (ou pour vous garder engagé) plutôt que de véritables relations réciproques techpolicy.press techpolicy.press. À l’avenir, il y a un potentiel d’abus dans les deux sens : des humains abusant d’IA « esclaves » ultra-réalistes sans conséquence, ou des humains devenant émotionnellement dépendants des IA et se faisant exploiter par des entreprises. Ce sont des scénarios que les éthiciens et les auteurs de science-fiction imaginent depuis des décennies ; nous commençons maintenant à les voir se réaliser en temps réel.

    En conclusion, Janitor AI et ses pairs représentent une nouvelle ère de l’interaction homme-machine – une ère où l’ordinateur n’est plus seulement un outil, mais joue le rôle d’ami, d’amant, de muse ou de confident. La croissance fulgurante de ces plateformes montre un véritable besoin de telles connexions. Elles offrent excitation et réconfort à des millions de personnes, mais tirent aussi la sonnette d’alarme concernant la sécurité et notre rapport à la technologie. À mesure que les compagnons IA deviennent de plus en plus sophistiqués, la société devra trouver un équilibre entre l’exploitation de leur potentiel positif et la réduction des risques. Les amoureux et amis IA sont-ils la prochaine grande innovation pour le bien-être personnel, ou une pente glissante vers une plus grande isolation et des dilemmes éthiques ? L’histoire est encore en train de s’écrire. Ce qui est certain, c’est que la révolution des compagnons chatbots – de la romance sans filtre de Janitor AI aux mondes fantastiques étendus de Character.AI – ne fait que commencer, et continuera de transformer notre façon de penser les relations à l’ère de l’intelligence artificielle. ts2.tech techpolicy.press

    Sources :

    • Voiceflow Blog – « Janitor AI : Qu’est-ce que c’est + Comment l’utiliser [Tutoriel 2025] » voiceflow.com voiceflow.com
    • TS2 Tech – « Janitor AI : la révolution du chatbot sans filtre qui séduit des millions (et suscite la controverse) » ts2.tech ts2.tech ts2.tech ts2.tech
    • Semafor – « L’application chatbot NSFW qui séduit la Génération Z avec des petits amis IA » (Reed Albergotti & Louise Matsakis, 20 sept. 2023) semafor.com semafor.com
    • Hackernoon – « Jan Zoltkowski : le visionnaire derrière JanitorAI » hackernoon.com hackernoon.com hackernoon.com
    • TechCrunch – « L’application d’IA Character.ai rattrape ChatGPT aux États-Unis » (Sarah Perez, 11 sept. 2023) techcrunch.com
    • TS2 Tech – « Pourquoi tout le monde parle de Character.AI en 2025 – Mises à jour majeures, nouveau PDG & controverse » ts2.tech ts2.tech ts2.tech
    • NatLawReview – « De nouveaux procès visent les chatbots IA personnalisés… » (Dan Jasnow, 28 juil. 2025) natlawreview.com natlawreview.com
    • TechPolicy.press – « L’intimité en pilote automatique : pourquoi les compagnons IA exigent une régulation urgente » techpolicy.press techpolicy.press techpolicy.press
    • Interview SciLine – Dr. Jaime Banks sur les « compagnons » IA (14 mai 2024) sciline.org sciline.org
    • Reuters – « L’Italie interdit le chatbot IA Replika pour la sécurité des enfants » (3 févr. 2023) reuters.com reuters.com
    • Psychology Today – « 5 façons dont l’IA change les relations humaines » (2023) psychologytoday.com

    Tags: ,