Les méthodes d’apprentissage profond perdent leur capacité à apprendre avec le temps
Des chercheurs de l’Université de l’Alberta ont confirmé que les systèmes d’apprentissage profond perdent leur capacité d’apprendre avec le temps et ont proposé une solution pour exploiter pleinement la puissance de cette forme d’intelligence artificielle.
« C’est un phénomène peu étudié observé dans les réseaux neuronaux artificiels : lorsque vous les entraînez pendant très longtemps, ils commencent à perdre leur capacité à apprendre », explique J. Fernando Hernández-Garciadoctorant au Département d’informatique et co-auteur du étude récente publiée dans Nature.
« Nous avons été les premiers à démontrer ce phénomène et à expliquer pourquoi il s’agit d’un problème majeur pour nos systèmes actuels. »
Shibhansh Doharepremier auteur de l’article et doctorant en informatique, explique que la plasticité – la capacité de ces systèmes à apprendre de nouvelles choses – dépend des vastes ensembles de neurones utilisés pour les entraîner. Pour maintenir la plasticité de l’apprentissage profond, il faut un algorithme qui introduit constamment de nouveaux neurones diversifiés.
Enseigner de nouvelles astuces à d’anciens algorithmes
C’est précisément ce que l’équipe de l’Université de l’Alberta a créé avec la rétropropagation continue, un nouvel algorithme qui améliore la rétropropagation, l’algorithme qui est utilisé depuis des décennies pour entraîner ces types de systèmes.
« Notre algorithme semble très efficace pour prévenir le problème de la perte de plasticité », explique Hernandez-Garcia.
La rétropropagation continue fonctionne en parcourant les neurones artificiels du réseau et en les évaluant en fonction de leur utilité. Il réinitialise ensuite les neurones qu’il a classés comme les moins utiles, réinitialisant essentiellement les diverses connexions de ces neurones au réseau neuronal plus large et ramenant le niveau de plasticité d’origine.
« L’idée de base est qu’au début, lorsqu’il s’agissait d’apprendre une ou deux tâches, le réseau avait de la plasticité. Mais ensuite, cela se perd avec le temps. Cela signifie que le modèle initial de connexions était utile, il permettait la plasticité. La réinitialisation le ramène », explique Dohare.
« Une idée similaire – la neurogenèse – est déjà observée en neurosciences, dans le cerveau humain et d’autres cerveaux animaux, mais c’est un mécanisme qui n’était pas utilisé dans l’apprentissage profond », ajoute Rupam Mahmoudprofesseur adjoint au Département d’informatique et Chaire IA Canada-CIFAR à Amii.
Les connexions entre les neurones sont représentées par ce qu’on appelle des poids de connexion, qui fonctionnent comme le font les synapses dans les réseaux neuronaux biologiques. Différents poids de connexion signalent différentes forces de connexion.
« Les algorithmes modifient la force de ces connexions, et c’est ainsi que l’apprentissage se produit dans ces réseaux », explique Dohare.
Combler une fuite dans la capacité d’apprentissage
Il est difficile d’obtenir des preuves complètes de la perte de plasticité car, comme l’explique Dohare, « il faut mener ces expériences pendant très, très longtemps et cela nécessite beaucoup de puissance de calcul ». Avec cette étude, les chercheurs ont montré que les performances du système sur les tâches ultérieures étaient nettement moins bonnes que sur les tâches antérieures, confirmant la perte de plasticité lors de l’utilisation de la rétropropagation.
« On attend naturellement des systèmes automatisés qu’ils soient capables d’apprendre en continu », explique Mahmood. « Il est très important que le monde sache que la méthode prédominante utilisée dans l’apprentissage profond, la rétropropagation, est incapable de faire cela. Nous devrions nous en inquiéter.
Un exemple familier d’apprentissage en profondeur est ChatGPT, qui est formé sur des ensembles de données particuliers et acquiert de nombreuses connaissances sur ces sujets. Mais si vous lui posez des questions sur quelque chose qui s’est produit après cette séance de formation, comme un événement d’actualité, il ne sera pas en mesure de fournir des informations précises. « C’est parce qu’il n’est pas continuellement formé aux nouvelles données qui arrivent », explique Hernandez-Garcia.
« Les méthodes actuelles d’apprentissage en profondeur n’apprennent pas réellement lorsque nous interagissons avec le système : elles sont figées dans le temps », explique Mahmood.
Sans la capacité d’apprendre en permanence, les systèmes d’apprentissage profond devraient être recyclés chaque fois qu’une quantité importante de nouvelles données apparaît. Cela nécessite une immense puissance de calcul et a un coût astronomique. C’est pourquoi la solution réside dans de nouveaux algorithmes qui permettent de garantir que le réseau conserve sa capacité d’apprentissage au fil du temps, explique Mahmood.
« Notre travail est en quelque sorte un terrain d’essai pour ce que nous attendons à l’avenir, à savoir des systèmes d’apprentissage profond utilisés dans le monde réel et un apprentissage continu. »