Faites confiance aux grands modèles de langage à vos risques et périls

Selon Meta, Galactica peut “résumer des articles académiques, résoudre des problèmes mathématiques, générer des articles Wiki, écrire du code scientifique, annoter des molécules et des protéines, et plus encore”. Mais peu de temps après son lancement, il était assez facile pour les étrangers de rapide le modèle pour fournir une «recherche scientifique» sur les avantages de l’homophobie, de l’antisémitisme, du suicide, de manger du verre, d’être blanc ou d’être un homme. Pendant ce temps, les journaux sur le sida ou le racisme étaient bloqués. Charmant!

Comme mon collègue Will Douglas Heaven l’écrit dans son histoire sur la débâcle : “Le faux pas de Meta – et son orgueil – montre une fois de plus que Big Tech a un angle mort sur les limites sévères des grands modèles de langage.”

Non seulement le lancement de Galactica était prématuré, mais cela montre à quel point les efforts des chercheurs en intelligence artificielle pour rendre les grands modèles de langage plus sûrs ont été insuffisants.

Meta aurait pu être convaincu que Galactica surpassait ses concurrents en générant un contenu à consonance scientifique. Mais ses propres tests du modèle de partialité et de véracité auraient dû dissuader l’entreprise de le relâcher dans la nature.

Un moyen courant pour les chercheurs de rendre les grands modèles de langage moins susceptibles de cracher du contenu toxique consiste à filtrer certains mots-clés. Mais il est difficile de créer un filtre capable de capturer toutes les manières nuancées dont les humains peuvent être désagréables. La société se serait épargnée un monde d’ennuis si elle avait mené plus de tests contradictoires sur Galactica, dans lesquels les chercheurs auraient essayé de lui faire régurgiter autant de résultats biaisés différents que possible.

Les chercheurs de Meta mesuré le modèle pour les biais et la véracité, et bien qu’il ait légèrement mieux performé que des concurrents tels que GPT-3 et le propre modèle OPT de Meta, il a fourni de nombreuses réponses biaisées ou incorrectes. Et il y a aussi plusieurs autres limitations. Le modèle est formé sur des ressources scientifiques en libre accès, mais de nombreux articles et manuels scientifiques sont limités derrière des murs payants. Cela conduit inévitablement Galactica à utiliser des sources secondaires plus sommaires.

Galactica semble également être un exemple de quelque chose pour lequel nous n’avons pas vraiment besoin de l’IA. Il ne semble même pas que cela atteindrait l’objectif déclaré de Meta d’aider les scientifiques à travailler plus rapidement. En fait, cela les obligerait à déployer beaucoup d’efforts supplémentaires pour vérifier si les informations du modèle étaient exactes ou non.

C’est vraiment décevant (mais totalement surprenant) de voir de grands laboratoires d’IA, qui devraient savoir mieux, faire du battage médiatique avec des technologies aussi défectueuses. Nous savons que les modèles linguistiques ont tendance à reproduire les préjugés et à affirmer les faussetés comme des faits. Nous savons qu’ils peuvent “halluciner” ou inventer du contenu, comme des articles wiki sur l’histoire des ours dans l’espace. Mais la débâcle a été utile pour une chose, au moins. Cela nous a rappelé que la seule chose que les grands modèles linguistiques “savent” avec certitude est la façon dont les mots et les phrases sont formés. Tout le reste est une supposition.