L’IA dans la recherche en sciences sociales pourrait remplacer les humains : article

Une équipe de chercheurs de quatre universités canadiennes et américaines affirme que l’intelligence artificielle pourrait remplacer les humains lorsqu’il s’agit de recueillir des données pour la recherche en sciences sociales.

Des chercheurs de l’Université de Waterloo, de l’Université de Toronto, de l’Université de Yale et de l’Université de Pennsylvanie ont publié un article dans la revue Science le 15 juin sur la façon dont l’IA, en particulier les grands modèles de langage (LLM), pourrait affecter leur travail.

« Les modèles d’IA peuvent représenter un vaste éventail d’expériences et de perspectives humaines, leur donnant éventuellement un degré de liberté plus élevé pour générer des réponses diverses que les méthodes conventionnelles de participation humaine, ce qui peut aider à réduire les problèmes de généralisabilité dans la recherche », Igor Grossmann, professeur de psychologie à Waterloo et un co-auteur de l’article, a déclaré dans un communiqué de presse.

Philip Tetlock, professeur de psychologie à UPenn et co-auteur de l’article, va jusqu’à dire que les LLM vont « révolutionner les prévisions basées sur l’homme » en seulement trois ans.

Dans leur article, les auteurs posent la question : « Comment adapter, voire réinventer, les pratiques de recherche en sciences sociales pour exploiter la puissance de l’IA fondamentale ? Et comment cela peut-il être fait tout en garantissant une recherche transparente et reproductible ? »

Les auteurs disent que les sciences sociales se sont traditionnellement appuyées sur des méthodes telles que les questionnaires et les études d’observation.

Mais avec la capacité des LLM à parcourir de grandes quantités de données textuelles et à générer des réponses de type humain, les auteurs disent que cela présente une « nouvelle » opportunité pour les chercheurs de tester des théories sur le comportement humain à un rythme plus rapide et à une échelle beaucoup plus grande.

Selon l’article, les scientifiques pourraient utiliser les LLM pour tester des théories dans un environnement simulé avant de les appliquer dans le monde réel, ou recueillir des perspectives différentes sur une question politique complexe et générer des solutions potentielles.

« Cela n’aurait aucun sens pour des humains sans l’aide d’IA de se risquer à des jugements probabilistes dans des débats politiques sérieux. Je mets 90% de chances là-dessus », a déclaré Tetlock. « Bien sûr, la façon dont les humains réagissent à tout cela est une autre affaire. »

Un problème que les auteurs ont identifié, cependant, est que les LLM apprennent souvent à exclure les préjugés socioculturels, ce qui soulève la question de savoir si les modèles reflètent correctement les populations qu’ils étudient.

Dawn Parker, professeure à l’Université de Waterloo et co-auteure de l’article, suggère que les LLM soient open source afin que leurs algorithmes, et même leurs données, puissent être vérifiés, testés ou modifiés.

« Ce n’est qu’en maintenant la transparence et la reproductibilité que nous pouvons garantir que la recherche en sciences sociales assistée par l’IA contribue réellement à notre compréhension de l’expérience humaine », a déclaré Parker.