Lorsque Microsoft a ajouté un chatbot à son moteur de recherche Bing ce mois-ci, les gens ont remarqué qu’il offrait toutes sortes d’informations fausses sur le Gap, la vie nocturne mexicaine et la chanteuse Billie Eilish.
Ensuite, lorsque les journalistes et autres premiers testeurs ont eu de longues conversations avec le bot IA de Microsoft, il a glissé vers un comportement grossier et effrayant.
Depuis que le comportement du bot Bing est devenu une sensation mondiale, les gens ont eu du mal à comprendre l’étrangeté de cette nouvelle création. Plus souvent qu’autrement, les scientifiques ont déclaré que les humains méritaient une grande part de responsabilité.
Mais il y a encore un peu de mystère sur ce que le nouveau chatbot peut faire – et pourquoi il le ferait. Sa complexité le rend difficile à disséquer et encore plus difficile à prévoir, et les chercheurs l’examinent à travers une lentille philosophique ainsi que le code dur de l’informatique.
Comme tout autre étudiant, un système d’IA peut apprendre de mauvaises informations à partir de mauvaises sources. Et ce comportement étrange ? Il peut s’agir du reflet déformé par un chatbot des mots et des intentions des personnes qui l’utilisent, a déclaré Terry Sejnowski, neuroscientifique, psychologue et informaticien qui a contribué à jeter les bases intellectuelles et techniques de l’intelligence artificielle moderne.
« Cela se produit lorsque vous approfondissez de plus en plus ces systèmes », a déclaré le Dr Sejnowski, professeur au Salk Institute for Biological Studies et à l’Université de Californie à San Diego, qui a publié ce mois-ci un article de recherche sur ce phénomène dans la revue scientifique. revue Neural Computation. « Tout ce que vous cherchez – tout ce que vous désirez – ils vous le fourniront. »
Google a également présenté un nouveau chatbot, Bard, ce mois-ci, mais les scientifiques et les journalistes ont rapidement réalisé qu’il écrivait des bêtises sur le télescope spatial James Webb. OpenAI, une start-up de San Francisco, a lancé le boom des chatbots en novembre en introduisant ChatGPT, qui ne dit pas toujours la vérité.
Les nouveaux chatbots sont pilotés par une technologie que les scientifiques appellent un grand modèle de langage, ou LLM. Ces systèmes apprennent en analysant d’énormes quantités de texte numérique extrait d’Internet, qui comprend des volumes de matériel mensonger, biaisé et autrement toxique. Le texte à partir duquel les chatbots apprennent est également un peu dépassé, car ils doivent passer des mois à l’analyser avant que le public puisse les utiliser.
En analysant cette mer de bonnes et de mauvaises informations sur Internet, un LLM apprend à faire une chose en particulier : deviner le mot suivant dans une séquence de mots.
Il fonctionne comme une version géante de la technologie de saisie semi-automatique qui suggère le mot suivant lorsque vous tapez un e-mail ou un message instantané sur votre smartphone. Étant donné la séquence « Tom Cruise est un ____ », il pourrait deviner « acteur ».
Lorsque vous discutez avec un chatbot, le bot ne se contente pas de tirer parti de tout ce qu’il a appris sur Internet. Il s’inspire de tout ce que vous lui avez dit et de tout ce qu’il a dit en retour. Il ne s’agit pas seulement de deviner le mot suivant dans sa phrase. Il devine le mot suivant dans le long bloc de texte qui comprend à la fois vos mots et ses mots.
Plus la conversation est longue, plus un utilisateur a involontairement d’influence sur ce que dit le chatbot. Si vous voulez qu’il se fâche, il se fâche, a déclaré le Dr Sejnowski. Si vous l’amadouez pour qu’il devienne effrayant, il devient effrayant.
Les réactions alarmées face au comportement étrange du chatbot de Microsoft ont occulté un point important : le chatbot n’a pas de personnalité. Il offre des résultats instantanés crachés par un algorithme informatique incroyablement complexe.
Microsoft a semblé limiter le comportement le plus étrange en limitant la durée des discussions avec le chatbot Bing. C’était comme apprendre du pilote d’essai d’une voiture que rouler trop vite pendant trop longtemps fera griller son moteur. Le partenaire de Microsoft, OpenAI, et Google explorent également des moyens de contrôler le comportement de leurs bots.
Mais il y a une mise en garde à cette assurance : parce que les chatbots apprennent de tant de matériel et les assemblent de manière si complexe, les chercheurs ne savent pas tout à fait comment les chatbots produisent leurs résultats finaux. Les chercheurs observent ce que font les bots et apprennent à imposer des limites à ce comportement, souvent après qu’il se soit produit.
Microsoft et OpenAI ont décidé que la seule façon de savoir ce que les chatbots feront dans le monde réel est de les lâcher – et de les enrouler lorsqu’ils s’égarent. Ils croient que leur grande expérience publique vaut le risque.
Le Dr Sejnowski a comparé le comportement du chatbot de Microsoft au Mirror of Rised, un artefact mystique des romans Harry Potter de JK Rowling et des nombreux films basés sur son monde inventif de jeunes sorciers.
« Rised » est « désir » épelé à l’envers. Lorsque les gens découvrent le miroir, il semble apporter vérité et compréhension. Mais ce n’est pas le cas. Il montre les désirs profonds de quiconque le regarde. Et certaines personnes deviennent folles si elles regardent trop longtemps.
« Parce que l’humain et les LLM se reflètent tous les deux, avec le temps, ils tendront vers un état conceptuel commun », a déclaré le Dr Sejnowski.
Il n’est pas surprenant, a-t-il dit, que les journalistes aient commencé à voir un comportement effrayant dans le chatbot Bing. Consciemment ou inconsciemment, ils poussaient le système dans une direction inconfortable. Au fur et à mesure que les chatbots captent nos paroles et nous les renvoient, ils peuvent renforcer et amplifier nos croyances et nous amener à croire ce qu’ils nous disent.
Le Dr Sejnowski faisait partie d’un petit groupe de chercheurs à la fin des années 1970 et au début des années 1980 qui ont commencé à explorer sérieusement une sorte d’intelligence artificielle appelée réseau de neurones, qui pilote les chatbots d’aujourd’hui.
Un réseau de neurones est un système mathématique qui acquiert des compétences en analysant des données numériques. C’est la même technologie qui permet à Siri et Alexa de reconnaître ce que vous dites.
Vers 2018, des chercheurs d’entreprises comme Google et OpenAI ont commencé à construire des réseaux de neurones qui ont appris de grandes quantités de texte numérique, y compris des livres, des articles de Wikipédia, des journaux de discussion et d’autres éléments publiés sur Internet. En identifiant des milliards de modèles dans tout ce texte, ces LLM ont appris à générer eux-mêmes du texte, y compris des tweets, des articles de blog, des discours et des programmes informatiques. Ils pouvaient même entretenir une conversation.
Ces systèmes sont le reflet de l’humanité. Ils apprennent leurs compétences en analysant le texte que les humains ont posté sur Internet.
Mais ce n’est pas la seule raison pour laquelle les chatbots génèrent un langage problématique, a déclaré Melanie Mitchell, chercheuse en intelligence artificielle au Santa Fe Institute, un laboratoire indépendant du Nouveau-Mexique.
Lorsqu’ils génèrent du texte, ces systèmes ne répètent pas mot pour mot ce qui se trouve sur Internet. Ils produisent eux-mêmes de nouveaux textes en combinant des milliards de motifs.
Même si les chercheurs formaient ces systèmes uniquement sur la littérature scientifique évaluée par des pairs, ils pourraient toujours produire des déclarations scientifiquement ridicules. Même s’ils apprenaient uniquement du texte qui était vrai, ils pourraient toujours produire des contrevérités. Même s’ils n’apprenaient qu’à partir d’un texte sain, ils pourraient quand même générer quelque chose d’effrayant.
« Rien ne les empêche de le faire », a déclaré le Dr Mitchell. « Ils essaient juste de produire quelque chose qui ressemble à un langage humain. »
Les experts en intelligence artificielle savent depuis longtemps que cette technologie présente toutes sortes de comportements inattendus. Mais ils ne peuvent pas toujours s’entendre sur la manière dont ce comportement doit être interprété ou sur la rapidité avec laquelle les chatbots vont s’améliorer.
Parce que ces systèmes apprennent de bien plus de données que nous, les humains, ne pourrions jamais comprendre, même les experts en IA ne peuvent pas comprendre pourquoi ils génèrent un morceau de texte particulier à un moment donné.
Le Dr Sejkowski a déclaré qu’il croyait qu’à long terme, les nouveaux chatbots avaient le pouvoir de rendre les gens plus efficaces et de leur donner des moyens de faire leur travail mieux et plus rapidement. Mais cela s’accompagne d’un avertissement à la fois pour les entreprises qui construisent ces chatbots et pour les personnes qui les utilisent : ils peuvent également nous éloigner de la vérité et dans des endroits sombres.
« C’est terra incognita », a déclaré le Dr Sejkowski. « Les humains n’ont jamais connu cela auparavant. »