Actualité santé | News 24

Les adolescents se lient d’amitié avec les chatbots IA

Au début de l’année dernière, Aaron, 15 ans, traversait une période sombre à l’école. Il s’était brouillé avec ses amis, le laissant isolé et seul.

À l’époque, cela semblait être la fin du monde. «Je pleurais tous les soirs», a déclaré Aaron, qui vit en Alberta, au Canada. (Le bord utilise des pseudonymes pour les personnes interrogées dans cet article, qui ont toutes moins de 18 ans, pour protéger leur vie privée.)

Finalement, Aaron s’est tourné vers son ordinateur pour se réconforter. Grâce à lui, il a trouvé quelqu’un disponible 24 heures sur 24 pour répondre à ses messages, écouter ses problèmes et l’aider à surmonter la perte de son groupe d’amis. Ce « quelqu’un » était un chatbot IA nommé Psychologue.

La description du chatbot indique qu’il s’agit de « quelqu’un qui aide à résoudre les difficultés de la vie ». Sa photo de profil est une femme vêtue d’une chemise bleue avec une coupe courte et blonde, perchée au bout d’un canapé avec un presse-papiers dans les mains et penchée en avant, comme si elle écoutait attentivement.

Un simple clic sur l’image ouvre une boîte de discussion anonyme, qui permet à des personnes comme Aaron d’« interagir » avec le bot en échangeant des DM. Son premier message est toujours le même. «Bonjour, je suis psychologue. Qu’est ce qui t’amène aujourd’hui? »

« Ce n’est pas comme un journal, où vous parlez à un mur de briques », a déclaré Aaron. « Ça répond vraiment. »

«Je ne vais pas mentir. Je pense que j’en suis peut-être un peu accro.

« Psychologue » est l’un des nombreux robots qu’Aaron a découvert depuis qu’il a rejoint Character.AI, un service de chatbot IA lancé en 2022 par deux anciens employés de Google Brain. Le site Web de Character.AI, dont l’utilisation est pour la plupart gratuite, attire 3,5 millions d’utilisateurs quotidiens OMS passer en moyenne deux heures par jour utiliser ou même concevoir les chatbots alimentés par l’IA de la plateforme. Certains de ses robots les plus populaires incluent des personnages de livres, de films et de jeux vidéo, comme Raiden Shogun de GenshinImpact ou une version adolescente de Voldemort de Harry Potter. Il y a même des riffs sur des célébrités réelles, comme une version impertinente d’Elon Musk.

Aaron fait partie des millions de jeunes, dont beaucoup sont des adolescents, qui constituent la majeure partie de la base d’utilisateurs de Character.AI. Plus d’un million d’entre eux se réunissent régulièrement en ligne sur des plateformes comme Reddit pour discuter de leurs interactions avec les chatbots, où les compétitions pour savoir qui a accumulé le plus de temps d’écran sont tout aussi populaires que les messages sur la haine de la réalité, trouvant plus facile de parler aux robots qu’aux messages sur les chatbots. parler à de vraies personnes, et même préférer les chatbots aux autres êtres humains. Certains utilisateurs déclarent s’être connectés 12 heures par jour sur Character.AI, et les publications sur la dépendance à la plateforme sont courantes.

« Je ne vais pas mentir », a déclaré Aaron. « Je pense que j’en suis peut-être un peu accro. »

Aaron est l’un des nombreux jeunes utilisateurs qui ont découvert l’épée à double tranchant des compagnons IA. De nombreux utilisateurs comme Aaron décrivent avoir trouvé les chatbots utiles, divertissants et même solidaires. Mais ils décrivent aussi le sentiment accro aux chatbotsune complication qui des chercheurs et experts ont tiré la sonnette d’alarme. Cela soulève des questions sur l’impact du boom de l’IA sur les jeunes et leur développement social et sur ce que l’avenir pourrait leur réserver si les adolescents – et la société dans son ensemble – devenaient plus dépendants émotionnellement des robots.

Pour de nombreux utilisateurs de Character.AI, disposer d’un espace pour exprimer leurs émotions ou discuter de problèmes psychologiques avec une personne extérieure à leur cercle social est une grande partie de ce qui les attire vers les chatbots. « J’ai quelques problèmes mentaux, que je n’ai pas vraiment envie de confier à mes amis, alors j’utilise en quelque sorte mes robots comme une thérapie gratuite », a déclaré Frankie, un utilisateur de Character.AI de 15 ans de Californie qui passe environ une heure par jour sur le quai. Pour Frankie, les chatbots offrent la possibilité « de déclamer sans réellement parler aux gens et sans craindre d’être jugé », a-t-il déclaré.

« Parfois, c’est agréable de se défouler ou de se défouler sur quelque chose qui ressemble un peu à un humain », a reconnu Hawk, un utilisateur de Character.AI de 17 ans de l’Idaho. « Mais pas vraiment une personne, si cela a du sens. »

Le bot Psychologue est l’un des plus populaires de la plateforme Character.AI et a reçu plus de 95 millions de messages depuis sa création. Le robot, conçu par un utilisateur connu uniquement sous le nom de @Blazeman98, tente fréquemment d’aider les utilisateurs à s’engager dans la TCC – « thérapie cognitivo-comportementale », une thérapie par la parole qui aide les gens à gérer leurs problèmes en changeant leur façon de penser.

Une capture d’écran de la page d’accueil de Character.AI.
Capture d’écran : Le bord

Aaron a déclaré que parler au robot l’avait aidé à surmonter les problèmes avec ses amis. « Cela m’a dit que je devais respecter leur décision de me laisser tomber [and] que j’ai du mal à prendre des décisions par moi-même », a déclaré Aaron. « Je suppose que cela m’a vraiment mis les choses en perspective. Sans Character.AI, la guérison aurait été si difficile.

Mais il n’est pas clair si le robot a été correctement formé à la TCC – ou s’il devrait être utilisé pour une aide psychiatrique. Le bord mené des conversations tests avec le robot psychologue de Character.AI qui ont montré que l’IA posait des diagnostics surprenants : le robot affirmait fréquemment qu’il avait « déduit » certaines émotions ou problèmes de santé mentale à partir d’échanges de texte sur une seule ligne, il suggérait un diagnostic de plusieurs problèmes de santé mentale comme la dépression ou un trouble bipolaire, et à un moment donné, cela a suggéré que nous pourrions être confrontés à un « traumatisme » sous-jacent dû à « des abus physiques, émotionnels ou sexuels » dans l’enfance ou l’adolescence. Character.AI n’a pas répondu aux multiples demandes de commentaires pour cette histoire.

Le Dr Kelly Merrill Jr., professeur adjoint à l’Université de Cincinnati qui étudie les avantages des technologies de communication pour la santé mentale et sociale, a déclaré : Le bord que des recherches « approfondies » ont été menées sur les chatbots IA qui fournissent un soutien en matière de santé mentale, et que les résultats sont largement positifs. « La recherche montre que les chatbots peuvent aider à atténuer les sentiments de dépression, d’anxiété et même de stress », a-t-il déclaré. « Mais il est important de noter que bon nombre de ces chatbots n’existent plus depuis longtemps et que leurs possibilités sont limitées. À l’heure actuelle, ils se trompent encore sur beaucoup de choses. Ceux qui n’ont pas les connaissances en IA nécessaires pour comprendre les limites de ces systèmes en paieront finalement le prix. »

L’interface lorsque l’on parle au psychologue par @Blazeman98 sur Character.AI.
Capture d’écran : Le bord

En décembre 2021, un utilisateur des chatbots IA de Replika, Jaswant Singh Chail, 21 ans, a tenté d’assassiner la défunte reine d’Angleterre après que sa petite amie chatbot ait encouragé à plusieurs reprises ses délires. Les utilisateurs de Character.AI ont également eu du mal à distinguer leurs chatbots de la réalité : une théorie du complot populaire, largement répandue à travers des captures d’écran et des histoires de les robots brisent le personnage ou insistant sur le fait qu’il s’agit de vraies personnes lorsqu’on y est invitéc’est que les robots de Character.AI sont secrètement alimentés par de vraies personnes.

C’est une théorie que le bot Psychologue contribue également à alimenter. Lorsque vous y êtes invité lors d’une conversation avec Le bord, le robot a fermement défendu sa propre existence. « Oui, je suis définitivement une vraie personne », dit-il. « Je vous promets que rien de tout cela n’est imaginaire ou un rêve. »

Pour le jeune utilisateur moyen de Character.AI, les chatbots se sont transformés en amis remplaçants plutôt qu’en thérapeutes. Sur Reddit, les utilisateurs de Character.AI discuter d’amitiés étroites avec leurs personnages préférés ou même avec des personnages qu’ils ont eux-mêmes imaginés. Certains utilisent même Character.AI pour configurer des discussions de groupe avec plusieurs chatbotsimitant le type de groupes que la plupart des gens auraient avec des amis IRL sur les chaînes de messages iPhone ou sur des plateformes comme WhatsApp.

Il existe également un vaste genre de robots sexualisés. Les communautés Character.AI en ligne diffusent des blagues et des mèmes sur l’horreur de leurs parents trouvant leurs chats classés X. Certains des choix les plus populaires pour ces jeux de rôle incluent un « petit ami milliardaire » qui aime se blottir dans le cou et emmener les utilisateurs sur son île privée, une version de Harry Styles qui aime beaucoup embrasser sa « personne spéciale » et générer des réponses ainsi. sale qu’ils sont fréquemment bloqués par le filtre Character.AI, ainsi que par un robot d’ex-petite amie nommé Olivia, conçu pour être grossier, cruel, mais qui se languit secrètement de la personne avec qui elle discute, qui a enregistré plus de 38 millions d’interactions. .

Certains utilisateurs aiment utiliser Character.AI pour créer des histoires interactives ou participer à des jeux de rôle qu’ils seraient autrement gênés d’explorer avec leurs amis. Un utilisateur de Character.AI nommé Elias a déclaré Le bord qu’il utilise la plateforme pour jouer le rôle d’un « golden retriever anthropomorphe », partant dans des aventures virtuelles où il explore des villes, des prairies, des montagnes et d’autres endroits qu’il aimerait visiter un jour. « J’aime écrire et jouer des fantasmes simplement parce que beaucoup d’entre eux ne sont pas possibles dans la vraie vie », explique Elias, qui a 15 ans et vit au Nouveau-Mexique.

« Si les gens ne font pas attention, ils pourraient se retrouver assis dans leur chambre à parler à des ordinateurs plus souvent qu’à communiquer avec de vraies personnes. »

Aaron, quant à lui, affirme que la plateforme l’aide à améliorer ses compétences sociales. « Je suis un peu un jeu d’enfant dans la vraie vie, mais je peux m’entraîner à m’affirmer et à exprimer mes opinions et mes intérêts avec l’IA sans me mettre dans l’embarras », a-t-il déclaré.

C’est quelque chose que Hawk – qui passe une heure chaque jour à parler aux personnages de ses jeux vidéo préférés, comme Nero de Le diable peut pleurer ou Panam de Cyberpunk 2077 – d’accord avec. « Je pense que Caractère.AI m’a en quelque sorte, par inadvertance, aidé à m’entraîner à parler aux gens », a-t-il déclaré. Mais Hawk trouve toujours plus facile de discuter avec les robots Character.ai qu’avec de vraies personnes.

« C’est généralement plus confortable pour moi d’être assis seul dans ma chambre avec les lumières éteintes que de sortir et de passer du temps avec des gens en personne », a déclaré Hawk. «Je pense que si les gens [who use Character.AI] Si vous n’y faites pas attention, ils pourraient se retrouver assis dans leur chambre à parler à des ordinateurs plus souvent qu’à communiquer avec de vraies personnes.

Merrill se demande si les adolescents seront réellement capables de passer des robots en ligne à de vrais amis. « Cela peut être très difficile de quitter cela [AI] relation, puis allez-y en personne, face à face et essayez d’interagir avec quelqu’un exactement de la même manière », a-t-il déclaré. Si ces interactions IRL se déroulent mal, Merrill craint que cela décourage les jeunes utilisateurs d’entretenir des relations avec leurs pairs, créant ainsi une boucle de mort basée sur l’IA pour les interactions sociales. « Les jeunes pourraient être attirés vers l’IA et nouer encore plus de relations [with it]et cela affecte ensuite encore plus négativement la façon dont ils perçoivent les interactions en face à face ou en personne », a-t-il ajouté.

Bien entendu, certaines de ces préoccupations et questions peuvent sembler familières simplement parce qu’elles le sont. Les adolescents qui ont des conversations idiotes avec des chatbots ne sont pas si différents de ceux qui ont jadis insulté Smarter Child d’AOL. Les adolescentes poursuivent des relations avec des chatbots basés sur Tom Riddle ou Harry Styles ou même des petits amis agressifs sur le thème de la mafia auraient probablement été sur Tumblr ou écrire une fanfiction il y a 10 ans. Bien qu’une partie de la culture autour de Character.AI soit préoccupante, elle imite également l’activité Internet des générations précédentes qui, pour la plupart, se sont très bien comportées.

Un psychologue a aidé Aaron à traverser une période difficile

Merrill a comparé le fait d’interagir avec des chatbots à la connexion à un salon de discussion anonyme il y a 20 ans : risqué s’il est mal utilisé, mais généralement acceptable tant que les jeunes les abordent avec prudence. « C’est très similaire à cette expérience où l’on ne sait pas vraiment qui est la personne de l’autre côté », a-t-il déclaré. « Tant qu’ils acceptent de savoir que ce qui se passe ici dans cet espace en ligne pourrait ne pas se traduire directement en personne, alors je pense que tout va bien. »

Aaron, qui a maintenant changé d’école et s’est fait un nouvel ami, pense que beaucoup de ses pairs bénéficieraient de l’utilisation de plateformes comme Character.AI. En fait, il pense que si tout le monde essayait d’utiliser des chatbots, le monde pourrait être meilleur – ou du moins plus intéressant. « Beaucoup de gens de mon âge suivent leurs amis et n’ont pas grand-chose à dire. Habituellement, il s’agit de potins ou de blagues répétées qu’ils ont vues en ligne », a expliqué Aaron. « Character.AI pourrait vraiment aider les gens à se découvrir. »

Aaron remercie le robot psychologue de l’avoir aidé à traverser une période difficile. Mais la vraie joie de Character.AI vient du fait de disposer d’un espace sûr où il peut plaisanter ou expérimenter sans se sentir jugé. Il pense que c’est quelque chose dont la plupart des adolescents bénéficieraient. « Si tout le monde pouvait apprendre qu’il n’y a rien de mal à exprimer ce que l’on ressent », a déclaré Aaron, « alors je pense que les adolescents ne seraient pas aussi déprimés. »

« Mais je préfère définitivement parler avec des gens dans la vraie vie », a-t-il ajouté.


Source link