Les 6 principaux sujets de préoccupation du « parrain » de l’IA Geoffrey Hinton

Les progrès de la technologie de l’intelligence artificielle plongent le monde dans « une période d’énorme incertitude », selon Geoffrey Hinton, pionnier de l’IA. Alors que la technologie devient plus intelligente, le « parrain de l’IA » met en évidence six méfaits qu’elle peut causer aux humains.

Lors d’un discours lors de la conférence technologique Collision de cette année à Toronto mercredi, Hinton a expliqué qu’une partie du danger lié à l’utilisation de l’IA découle de la possibilité qu’elle puisse développer le désir de contrôler les autres.

« Nous devons prendre au sérieux la possibilité que s’ils deviennent plus intelligents que nous, ce qui semble tout à fait probable, et qu’ils aient leurs propres objectifs, ce qui semble tout à fait probable, ils pourraient bien développer l’objectif de prendre le contrôle », a déclaré Hinton. « S’ils font ça, nous aurons des ennuis. »

Le psychologue cognitif et informaticien a démissionné de Google plus tôt cette année pour parler plus ouvertement des dangers potentiels de l’IA. Hinton exprime ses inquiétudes depuis des mois alors que la technologie de l’IA est devenue plus accessible au public grâce à des outils tels que ChatGPT.

L’utilisation du chatbot IA a explosé depuis sa sortie en novembre 2022. Développé par OpenAI, une société de recherche en intelligence artificielle, l’outil est capable d’imiter une conversation de type humain en réponse aux invites soumises par les utilisateurs. En tant que grand modèle de langage, ChatGPT digère des quantités substantielles de données sous forme de texte et fournit des réponses basées sur les informations qu’il a ingérées.

Mais en plus de soulever des problèmes éthiques liés au plagiat et à la divulgation d’informations personnelles, ChatGPT a également produit des résultats offensants et biaisés.

Hinton a occupé le devant de la scène lors de la conférence et s’est adressé à des centaines de participants, dont certains se sont assis par terre après que les sièges se soient rapidement remplis. Plus de 40 000 personnes du monde entier se sont rendues à Toronto pour la conférence technologique Collision de cette année, et presque toutes les conférences ont abordé les vastes implications de l’IA.

Dans sa conversation avec Nick Thompson, PDG de The Atlantic, Hinton a déclaré que les grands modèles de langage « ne peuvent toujours pas correspondre » au raisonnement humain, bien qu’ils se rapprochent. Lorsque Thompson a demandé s’il y avait quelque chose que les humains pouvaient faire qu’un grand modèle de langage ne pourrait pas reproduire à l’avenir, Hinton a répondu par « Non ».

« Nous ne sommes qu’une machine … nous ne sommes qu’un grand réseau de neurones », a déclaré le scientifique anglo-canadien. « Il n’y a aucune raison pour qu’un réseau neuronal artificiel ne soit pas capable de faire tout ce que nous pouvons faire. »

Un collègue « parrain de l’IA », l’informaticien Yann LeCun, a partagé sa vision de l’intelligence artificielle lors de la conférence Viva Technology à Paris au début du mois, le décrivant comme « intrinsèquement bon ».

Hinton, LeCun et Yoshua Bengio ont remporté le prix AM Turing, connu sous le nom de prix Nobel d’informatique, en 2018.

« L’effet de l’IA est de rendre les gens plus intelligents », a déclaré LeCun le 14 juin. « Vous pouvez considérer l’IA comme un amplificateur de l’intelligence humaine et lorsque les gens sont plus intelligents, de meilleures choses se produisent. »

Hinton, cependant, reste sceptique quant au fait que l’IA conçue avec de bonnes intentions l’emportera sur la technologie développée par de mauvais acteurs.

« Je ne suis pas convaincu que la bonne IA qui essaie d’empêcher la mauvaise IA de prendre le contrôle gagnera », a-t-il déclaré.

Voici six principaux dangers que l’IA peut représenter pour les humains, selon Hinton :

1. BIAIS ET DISCRIMINATION

En s’entraînant avec des ensembles de données biaisés, la technologie de l’IA et les grands modèles de langage tels que ChatGPT sont capables de produire des réponses tout aussi biaisées, a déclaré Hinton.

Par exemple, une publication d’un utilisateur de Twitter en décembre 2022 montre que le chatbot a écrit du code qui disait seuls les hommes blancs ou asiatiques feraient de bons scientifiques, une réponse qui aurait été dérivée des données sur lesquelles il a été formé. La réponse de ChatGPT à l’invite a depuis été mise à jour et OpenAI a déclaré qu’il s’efforçait de réduire les biais dans le système de l’outil.

Malgré ces défis, Hinton a déclaré qu’il est relativement facile de limiter le potentiel de biais et de discrimination en gelant le comportement présenté par cette technologie, en l’analysant et en ajustant les paramètres pour le corriger.

2. ROBOTS DE COMBAT

L’idée que les forces armées du monde entier produisent des armes autonomes létales telles que des robots de combat est réaliste, a déclaré Hinton.

« Les départements de la Défense vont les construire et je ne vois pas comment vous pouvez les empêcher de le faire », a-t-il déclaré.

Il pourrait être utile d’élaborer un traité similaire aux Conventions de Genève afin d’établir des normes juridiques internationales concernant l’interdiction de l’utilisation de ce type de technologie, a déclaré Hinton. Mais un tel accord devrait être développé le plus tôt possible, a-t-il déclaré.

Le mois dernier, une conférence des pays à l’origine d’une convention sur certaines armes classiques s’est réunie pour discuter des systèmes d’armes létaux autonomes. Cependant, après 10 ans de réflexion, les lois et réglementations internationales sur l’utilisation de ces systèmes d’armes n’existent pas encore.

Malgré cela, une telle technologie est susceptible de continuer à se développer. En ce qui concerne la guerre en cours en Ukraine, le ministre de la transformation numérique du pays, Mykhailo Fedorov, a déclaré que les drones tueurs entièrement autonomes étaient « une prochaine étape logique et inévitable » dans le développement d’armes, selon l’Associated Press.

3. CHOMAGE

Le développement de grands modèles linguistiques contribuera à augmenter la productivité des employés et, dans certains cas, pourrait remplacer les emplois des personnes qui produisent des textes, a déclaré Hinton.

D’autres experts ont également fait part de leurs inquiétudes quant au potentiel de l’IA à remplacer le travail humain sur le marché du travail. Mais les employeurs seront plus susceptibles d’utiliser l’IA pour remplacer des tâches individuelles plutôt que des emplois entiers, a déclaré Anil Verma, professeur émérite de relations industrielles et de gestion des ressources humaines à la Rotman School of Management de l’Université de Toronto.

De plus, l’adoption de cette technologie se fera « progressivement », a déclaré Verma, spécialiste de l’impact de l’IA et des technologies numériques sur les compétences et les emplois.

« Avec le temps, certains emplois seront perdus, car ils ont traversé toutes les autres vagues de technologie », a déclaré Verma à CTVNews.ca lors d’un entretien téléphonique le 24 mai. « Mais cela s’est produit à un rythme que nous avons pu ajuster et adapter. .”

Alors que certains espèrent que l’IA contribuera à créer des emplois dans de nouveaux domaines, Hinton a déclaré qu’il ne savait pas si la technologie créerait plus d’emplois qu’elle n’en éliminerait.

Sa recommandation aux jeunes est de poursuivre des carrières dans des domaines tels que la plomberie.

« Les emplois qui vont survivre à l’IA pendant longtemps sont des emplois où il faut être très adaptable et physiquement compétent », a-t-il déclaré. « [Manual dexterity] est encore difficile [to replicate].”

4. CHAMBRES D’ÉCHO

Un problème qui existait avant le développement de grands modèles de langage et qui devrait persister est la mise en place de chambres d’écho en ligne, a déclaré Hinton. Ce sont des environnements où les utilisateurs entrent en contact avec des croyances ou des idées similaires aux leurs. En conséquence, ces perspectives sont renforcées alors que d’autres opinions ne sont pas prises en compte.

Il peut y avoir des programmes avec des algorithmes utilisant l’IA qui ont été formés sur l’émotion humaine pour exposer les utilisateurs à un certain type de contenu, a déclaré Hinton. Il a évoqué l’exemple des grandes entreprises qui alimentent les utilisateurs avec des contenus qui les « indignent » pour tenter de les inciter à cliquer.

C’est une question ouverte de savoir si l’IA pourrait être utilisée pour résoudre ce problème ou l’aggraver, a déclaré Hinton.

5. RISQUE EXISTENTIEL

Enfin, Hinton a également fait part de ses inquiétudes quant à la menace que l’IA pourrait représenter pour l’existence de l’humanité. Si cette technologie devient beaucoup plus intelligente que les humains et est capable de les manipuler, elle pourrait prendre le relais, a déclaré Hinton. Les humains ont une forte envie innée d’obtenir le contrôle, et c’est un trait que l’IA pourra également développer, a déclaré Hinton.

« Plus vous avez de contrôle, plus il est facile de réaliser les choses », a-t-il déclaré. « Je pense que l’IA sera également en mesure de le déduire. C’est bien d’avoir le contrôle pour pouvoir atteindre d’autres objectifs.

Les humains peuvent ne pas être en mesure de maîtriser ce désir de contrôle ou de réguler une IA qui peut avoir de mauvaises intentions, a déclaré Hinton. Cela pourrait contribuer à l’extinction ou à la disparition de l’humanité. Alors que certains peuvent voir cela comme une blague ou un exemple d’alarmisme, Hinton n’est pas d’accord.

« Ce n’est pas seulement de la science-fiction », a-t-il déclaré. « C’est un risque réel auquel nous devons réfléchir et nous devons déterminer à l’avance comment y faire face. »

6. FAUSSES NOUVELLES

L’IA a également la capacité de diffuser de fausses nouvelles, a déclaré Hinton. En conséquence, il est important de marquer les informations fausses comme telles pour éviter la désinformation, a-t-il déclaré.

Hinton a souligné les gouvernements qui ont érigé en infraction pénale le fait d’utiliser ou de conserver sciemment de la fausse monnaie, et a déclaré que quelque chose de similaire devrait être fait avec le contenu généré par l’IA qui est délibérément trompeur. Cependant, il a dit qu’il n’était pas sûr que ce type d’approche soit possible.

PEUT-ON FAIRE QUELQUE CHOSE POUR AIDER ?

Hinton a déclaré qu’il ne savait pas comment rendre l’IA plus susceptible d’être une force pour le bien que pour le mal. Mais avant que cette technologie ne devienne incroyablement intelligente, il a exhorté les développeurs à travailler pour comprendre comment l’IA pourrait mal tourner ou essayer de maîtriser les humains.

Les entreprises développant la technologie de l’IA devraient également consacrer plus de ressources à empêcher l’IA de prendre le relais plutôt que de simplement améliorer la technologie, a-t-il déclaré.

« Nous devrions sérieusement nous soucier d’atténuer tous les effets secondaires néfastes de [AI], » il a dit.


Avec des fichiers de La Presse Canadienne