À mesure que l’intelligence artificielle s’intègre de plus en plus à la vie quotidienne, les chercheurs explorent son potentiel pour soutenir la santé mentale. Une étude publiée dans Psychologie appliquée : santé et bien-être ont découvert que s’exprimer sur un chatbot IA réduit les émotions négatives de haute intensité comme la colère et la frustration. Cependant, cela ne favorise pas un sentiment de soutien social ni ne réduit la solitude, soulignant à la fois les promesses et les limites de cette technologie.
Les chatbots IA sont des logiciels avancés conçus pour engager des conversations naturelles et semblables à celles des humains. Alimentés par des modèles linguistiques sophistiqués, ces systèmes analysent les entrées des utilisateurs, comprennent le contexte et génèrent des réponses significatives. Au fil des années, les progrès technologiques ont amélioré la capacité des chatbots à imiter l’interaction humaine.
La nouvelle étude avait pour objectif d’explorer l’efficacité avec laquelle les chatbots IA pouvaient reproduire les avantages psychologiques des méthodes de ventilation traditionnelles, comme la tenue d’un journal ou la conversation avec un confident. Bien qu’il ait été démontré que l’évacuation aide les individus à gérer leurs émotions, son efficacité dépend souvent de la réception d’une validation ou d’un retour constructif – des éléments que les interactions humaines fournissent généralement.
« J’ai toujours trouvé très réconfortant de parler de vos frustrations avec quelqu’un qui écoute et valide vos sentiments. Cependant, avec la prévalence croissante de la solitude dans tous les groupes d’âge, de nombreuses personnes peuvent ne pas avoir accès à une personne de confiance et sans jugement à qui parler », a déclaré l’auteur de l’étude Meilan Hu, doctorant en psychologie à la Singapore Management University.
« Simultanément, les chatbots IA sont devenus plus avancés, au point qu’ils sont capables de fournir des réponses semblables à celles des humains. Cela m’a amené à me demander s’ils pouvaient constituer une option alternative permettant aux individus de les aider à gérer leurs émotions. Après tout, disposer d’un « système d’assistance » supplémentaire, disponible à tout moment et en tout lieu, pourrait s’avérer utile. Par conséquent, cette étude a été l’occasion d’explorer si les chatbots IA pourraient être un moyen pratique et efficace de réduire les effets négatifs et d’améliorer le bien-être émotionnel.
Pour comparer l’efficacité de la ventilation assistée par l’IA et de la journalisation traditionnelle, les chercheurs ont recruté 150 étudiants universitaires à Singapour. L’étude a utilisé une conception intra-sujet, ce qui signifie que tous les participants ont été confrontés aux deux conditions. Les participants ont été assignés au hasard à la ventilation assistée par IA ou à la journalisation traditionnelle au cours de la première séance, les conditions étant inversées lors de la deuxième séance après un intervalle d’une semaine pour éviter les effets de report.
Dans les conditions de ventilation traditionnelles, les participants ont été invités à écrire sur une irritation ou un inconvénient important récent dans un document Word pendant 10 minutes. Dans la condition de ventilation assistée par l’IA, les participants ont décrit leurs expériences négatives à un chatbot IA, conçu pour simuler une conversation dynamique et empathique. Les participants ont été invités à interagir avec le chatbot comme s’ils envoyaient un SMS à un ami, en engageant un dialogue aller-retour.
Après avoir terminé l’activité d’évacuation de chaque séance, les participants ont rempli des sondages évaluant les émotions négatives, le stress perçu, les sentiments de solitude et le soutien social perçu. Des contrôles d’attention ont été intégrés aux enquêtes pour garantir la fiabilité des réponses.
L’étude a révélé que l’utilisation du chatbot IA réduisait les émotions négatives d’excitation élevée et moyenne par rapport à la journalisation traditionnelle. Les participants ont déclaré ressentir moins de colère et de frustration après avoir interagi avec le chatbot. Les chercheurs ont attribué cela à la capacité du chatbot à fournir des réponses personnalisées en temps réel, ce qui aurait pu aider les participants à se sentir validés et encouragé l’expression ouverte de leurs émotions.
« Si jamais vous avez besoin d’une oreille attentive, les chatbots IA peuvent constituer une option viable », a déclaré Hu à PsyPost. « Même s’ils ne sont peut-être pas en mesure de remplacer la profondeur de la connexion que vous ressentez lors des interactions humaines, nos résultats montrent néanmoins que le recours à des chatbots IA peut efficacement atténuer des sentiments comme la colère ou la peur. Cela fait des chatbots IA un outil précieux pour fournir un soulagement émotionnel temporaire, en particulier dans les moments où vous avez juste besoin de parler à quelqu’un (ou à quelque chose).
Cependant, l’étude n’a révélé aucune différence significative entre la ventilation assistée par l’IA et la tenue d’un journal traditionnel en termes de réduction des émotions négatives de faible excitation, telles que la tristesse. Cela pourrait être dû au fait que les participants avaient tendance à se souvenir d’expériences émotionnelles de haute intensité au cours du processus d’évacuation, laissant ainsi les émotions de faible excitation moins impactées.
Bien que l’évacuation assistée par l’IA ait été efficace pour gérer les émotions négatives, elle n’a pas conduit à une amélioration du soutien social perçu ni à une réduction de la solitude. Les participants ont probablement reconnu que le chatbot IA, malgré ses capacités conversationnelles, n’était pas une vraie personne. Cette prise de conscience a peut-être diminué le sentiment de connexion généralement associé au soutien social résultant de l’interaction humaine.
« J’ai été plutôt surpris de constater que les chatbots IA n’augmentaient pas de manière significative le soutien social perçu par les utilisateurs ni ne diminuaient leur sentiment de solitude », a déclaré Hu. « Cela pourrait être dû au fait que les utilisateurs étaient finalement conscients qu’ils interagissaient avec une entité inanimée, ce qui aurait pu limiter leur sentiment de connexion émotionnelle. Cela met en évidence un domaine potentiel de recherche future, visant à rechercher des moyens de rendre ces interactions plus authentiques et plus significatives.
L’étude met en évidence le rôle prometteur de la ventilation assistée par l’IA dans la réduction de certains types d’émotions négatives. Cependant, Hu a noté que « les avantages à long terme de la ventilation assistée par l’IA restent inexplorés en raison du court laps de temps de l’étude. Les recherches futures devraient déterminer si les avantages de la ventilation assistée par l’IA perdureront dans le temps. Cela dit, nos résultats constituent toujours une première étape significative dans la compréhension de la manière dont les chatbots IA peuvent constituer un outil précieux permettant aux individus d’améliorer leur bien-être émotionnel global.
Les recherches futures pourraient remédier à ces limites en intégrant des échantillons plus diversifiés, des périodes d’interaction plus longues et des comparaisons entre l’IA et le support humain. Explorer comment les chatbots IA peuvent s’engager dans d’autres processus émotionnels, tels que favoriser la gratitude ou promouvoir l’auto-compassion, pourrait également permettre une compréhension plus complète de leurs avantages potentiels.
« J’aimerais explorer comment les chatbots IA peuvent aider les gens dans d’autres aspects de leur vie, comme favoriser la gratitude ou encourager l’auto-compassion », a déclaré Hu. « De plus, les chatbots IA étant utilisés pour des interactions plus personnelles – par exemple un compagnon virtuel ou même un partenaire romantique – j’aimerais comprendre les implications plus larges de telles relations. »
« Alors que l’IA s’intègre de plus en plus dans notre vie quotidienne, je pense qu’il est crucial de comprendre comment ces outils peuvent être utilisés et conçus de manière responsable afin de maximiser leurs avantages tout en minimisant leurs impacts négatifs potentiels. »
« À mesure que l’IA devient plus avancée et plus répandue, je pense qu’il est crucial de donner la priorité à la recherche qui explore ses implications », a expliqué M. Hu. « Cela pourrait nous aider à mieux comprendre comment utiliser l’IA de manière responsable et à la concevoir de manière à ce qu’elle profite aux utilisateurs. Ce faisant, nous pouvons être mieux préparés pour un avenir où l’IA pourrait continuer à jouer un rôle encore plus important dans nos vies.
L’étude, « L’IA comme alliée : les effets de l’évacuation assistée par l’IA sur l’affect négatif et le soutien social perçu», a été rédigé par Meilan Hu, Xavier Cheng Wee Chua, Shu Fen Diong, KTA Sandeeshwara Kasturiratna, Nadyanna M. Majeed et Andree Hartanto.