Skip to content

Université d'Oxford

Oli Scarff / Getty Images

Oxford et Cambridge, les plus anciennes universités de Grande-Bretagne et deux des plus anciennes du monde, gardent un œil vigilant sur le champ dynamique de l'intelligence artificielle (IA), qui a été saluée comme une technologie qui entraînera une nouvelle révolution industrielle et changer le monde tel que nous le connaissons.

Au cours des dernières années, chacune des institutions centenaires a injecté des millions de livres dans la recherche des risques possibles associés aux machines du futur.

Des algorithmes intelligents peuvent déjà surpasser les humains dans certaines tâches. Par exemple, ils peuvent battre les meilleurs joueurs humains du monde lors de jeux incroyablement complexes comme les échecs et le go, et ils sont capables de repérer les tumeurs cancéreuses dans une mammographie beaucoup plus rapidement qu'un clinicien humain. Les machines peuvent également faire la différence entre un chat et un chien, ou déterminer l'identité d'une personne aléatoire simplement en regardant une photo de son visage. Ils peuvent également traduire des langues, conduire des voitures et garder votre maison à la bonne température. Mais d'une manière générale, ils sont loin d'être aussi intelligents que le garçon moyen de 7 ans.

Le principal problème est que l'IA ne peut pas effectuer plusieurs tâches. Par exemple, une IA jouant ne peut pas encore peindre une image. En d'autres termes, l'IA est aujourd'hui très "étroite" dans son intelligence. Cependant, des informaticiens comme Google et Facebook visent à rendre l'IA plus "générale" dans les années à venir, ce qui inquiète vivement les grands penseurs.

Rencontrez le professeur Bostrom

Nick Bostrom, un philosophe et polymathe né en Suède de 47 ans, a fondé le Future of Humanity Institute (FHI) à l'Université d'Oxford en 2005 pour évaluer la dangerosité de l'IA et d'autres menaces potentielles pour l'espèce humaine.

Dans le foyer principal de l'institut, des équations complexes au-delà de la compréhension de la plupart des gens sont gribouillées sur des tableaux blancs à côté de mots comme «sécurité de l'IA» et «gouvernance de l'IA». Des étudiants pensifs d'autres départements font leur entrée et leur sortie au fur et à mesure de leurs activités quotidiennes.

Il est rare d'obtenir une entrevue avec Bostrom, un transhumaniste qui croit que nous pouvons et devons augmenter notre corps avec la technologie pour aider à éliminer le vieillissement comme cause de décès.

"Je suis assez protecteur vis-à-vis de la recherche et du temps de réflexion, donc je suis un peu semi-allergique à la programmation d'un trop grand nombre de réunions", dit-il.

Grand, maigre et rasé de près, Bostrom a agacé certains chercheurs en IA avec son ouverture pour nourrir l'idée qu'un jour dans un avenir pas si lointain, les machines seront le meilleur chien sur Terre. Il ne va pas jusqu'à dire quand ce jour sera, mais il pense que c'est potentiellement assez proche pour que nous nous en inquiétions.

Le philosophe suédois Nick Bostrom est un polymathe et l'auteur de "Superintelligence".

Institut de l'avenir de l'humanité

Si et quand les machines possèdent une intelligence générale artificielle de niveau humain, Bostrom pense qu'elles pourraient rapidement continuer à se rendre encore plus intelligentes et devenir super intelligentes. À ce stade, personne ne sait ce qui se passera ensuite.

L'optimiste dit que les machines superintelligentes libéreront les humains du travail et leur permettront de vivre dans une sorte d'utopie où il y a une abondance de tout ce qu'ils pourraient désirer. Le pessimiste dit qu'ils décideront que les humains ne sont plus nécessaires et les effaceront tous. Billionare Elon Musk, qui a une relation complexe avec des chercheurs en IA, a recommandé le livre de Bostrom "Superintelligence" sur Twitter.

L'institut de Bostrom a été soutenu avec environ 20 millions de dollars depuis sa création. Environ 14 millions de dollars proviennent du Open Philanthropy Project, une fondation de recherche et d'octroi de subventions basée à San Francisco. Le reste de l'argent est venu des goûts de Musk et du Conseil européen de la recherche.

Situé dans un bâtiment modeste sur une route sinueuse au large de la principale rue commerçante d'Oxford, l'institut regorge de mathématiciens, d'informaticiens, de médecins, de neuroscientifiques, de philosophes, d'ingénieurs et de politologues.

Des penseurs excentriques du monde entier viennent ici pour discuter autour de tasses de thé de ce qui pourrait arriver. "Beaucoup de gens ont une sorte de polymathe et sont souvent intéressés par plus d'un domaine", explique Bostrom.

L'équipe FHI est passée de quatre personnes à environ 60 personnes au fil des ans. "Dans un an, ou un an et demi, nous approcherons 100 (personnes)", explique Bostrom. La culture de l'institut est un mélange d'universités, de start-up et d'ONG, selon Bostrom, qui dit qu'il en résulte un "espace créatif de possibilités intéressant" où il y a "un sens de la mission et de l'urgence".

Les dangers de A.I.

Si l'IA est devenue en quelque sorte beaucoup plus puissante, il existe trois principaux moyens par lesquels elle pourrait finir par nuire, selon Bostrom. Elles sont:

  1. L'IA pourrait faire du mal aux humains.
  2. Les humains pourraient se faire du mal en utilisant l'IA.
  3. Les humains pourraient faire de mauvaises choses à l'IA (dans ce scénario, l'IA aurait une sorte de statut moral).

"Chacune de ces catégories est un endroit plausible où les choses pourraient mal tourner", explique Bostrom.

En ce qui concerne les machines se retournant contre les humains, Bostrom dit que si l'IA devient vraiment puissante, "il y a un risque potentiel de la part de l'IA elle-même qu'elle fasse quelque chose de différent de ce que tout le monde pensait qui pourrait alors être préjudiciable".

En termes d'humains faisant de mauvaises choses à d'autres humains avec l'IA, il y a déjà un précédent car les humains ont utilisé d'autres découvertes technologiques à des fins de guerre ou d'oppression. Il suffit de regarder les bombardements atomiques d'Hiroshima et de Nagasaki, par exemple. Déterminer comment réduire le risque que cela se produise avec l'IA vaut la peine, dit Bostrom, ajoutant que c'est plus facile à dire qu'à faire.

Je pense qu'il est désormais moins nécessaire de souligner principalement les inconvénients de l'IA.

Lorsqu'on lui a demandé s'il était plus ou moins préoccupé par l'arrivée de machines superintelligentes que lors de la publication de son livre en 2014, Bostrom a déclaré que les délais se sont contractés.

"Je pense que les progrès ont été plus rapides que prévu au cours des six dernières années avec toute la révolution du deep learning et tout", dit-il.

Lorsque Bostrom a écrit le livre, il n'y avait pas beaucoup de gens dans le monde qui recherchaient sérieusement les dangers potentiels de l'IA. "Il y a maintenant ce petit domaine florissant mais prospère du travail de sécurité de l'IA avec un certain nombre de groupes", dit-il.

Bien qu'il y ait un risque que les choses tournent mal, Bostrom dit qu'il est important de se rappeler qu'il y a des avantages intéressants à l'IA et qu'il ne veut pas être considéré comme la personne qui prédit la fin du monde.

"Je pense qu'il est désormais moins nécessaire de souligner principalement les inconvénients de l'IA", dit-il, soulignant que son point de vue sur l'IA est complexe et multiforme.

Appliquer une réflexion approfondie à des questions massives

Bostrom dit que l'objectif de FHI est "d'appliquer une réflexion approfondie aux questions d'ensemble pour l'humanité." L'institut ne regarde pas seulement l'année prochaine ou les 10 prochaines années, il regarde tout à perpétuité.

"L'intelligence artificielle est un intérêt depuis le début et pour moi, je veux dire, depuis les années 90", explique Bostrom. "C'est un gros objectif, on pourrait presque dire obsession."

L'essor de la technologie est l'un des nombreux moyens plausibles qui pourraient faire évoluer la "condition humaine" selon Bostrom. L'IA est l'une de ces technologies, mais il existe des groupes au FHI qui étudient la biosécurité (virus, etc.), la nanotechnologie moléculaire, la technologie de surveillance, la génétique et la biotechnologie (amélioration humaine).

Une scène de «Ex Machina».

Source: Universal Pictures | Youtube

En ce qui concerne l'IA, le FHI a deux groupes; l'un fait un travail technique sur le problème d'alignement de l'IA et l'autre examine les problèmes de gouvernance qui se poseront à mesure que l'intelligence artificielle deviendra de plus en plus puissante.

Le groupe d'alignement de l'IA élabore des algorithmes et essaie de comprendre comment garantir que les systèmes intelligents complexes se comportent comme nous le souhaitons. Cela implique de les aligner sur les «préférences humaines», explique Bostrom.

Risques existentiels

À environ 66 milles de distance de l'Université de Cambridge, les universitaires étudient également les menaces à l'existence humaine, bien que sous un angle légèrement différent.

Les chercheurs du Center for the Study of Existential Risk (CSER) évaluent les armes biologiques, les pandémies et, bien sûr, l'IA.

Nous nous consacrons à l'étude et à l'atténuation des risques qui pourraient conduire à l'extinction humaine ou à l'effondrement de la civilisation.

Centre d'Etude des Risques Existentiels (CSER)

"L'un des domaines d'activités les plus actifs a été l'IA", a déclaré le cofondateur du CSER, Lord Martin Rees, de ses quartiers importants du Trinity College dans une interview antérieure.

Rees, un cosmologiste et astrophysicien de renom qui a été président de la prestigieuse Royal Society de 2005 à 2010, est à la retraite, son rôle de CSER est donc volontaire, mais il reste très impliqué.

Il est important que tout algorithme déterminant le sort des êtres humains puisse être expliqué aux êtres humains, selon Rees. "Si vous êtes mis en prison ou privé de votre crédit par un algorithme, vous avez le droit d'avoir une explication afin que vous puissiez comprendre. Bien sûr, c'est le problème en ce moment parce que la chose remarquable à propos de ces algorithmes comme AlphaGo (Google DeepMind's Go -algorithme de jeu) est que les créateurs du programme ne comprennent pas comment il fonctionne réellement. C'est un véritable dilemme et ils en sont conscients. "

L'idée du CSER a été conçue à l'été 2011 lors d'une conversation à l'arrière d'un taxi de Copenhague entre l'université de Cambridge Huw Price et le co-fondateur de Skype Jaan Tallinn, dont les dons représentent 7 à 8% du financement total du centre et correspondent à des centaines de milliers de livres.

"J'ai partagé un taxi avec un homme qui pensait que sa chance de mourir dans un accident lié à l'intelligence artificielle était aussi élevée que celle d'une maladie cardiaque ou d'un cancer", a écrit Price à propos de son trajet en taxi avec Tallinn. "Je n'avais jamais rencontré quelqu'un qui le considérait comme une source de préoccupation aussi urgente – encore moins quelqu'un avec ses pieds si fermement sur le terrain dans le secteur des logiciels."

Université de Cambridge

Photos de géographie / UIG via Getty Images

Le CSER étudie comment l'IA pourrait être utilisée dans la guerre, et analyse certaines des préoccupations à plus long terme dont des gens comme Bostrom ont parlé. Il examine également comment l'IA peut dynamiser la science du climat et les chaînes d'approvisionnement alimentaire agricole.

«Nous essayons de regarder à la fois les avantages et les inconvénients de la technologie parce que notre véritable objectif est de rendre le monde plus sûr», explique Seán ÓhÉigeartaigh, directeur exécutif du CSER et ancien collègue de Bostrom. ÓhÉigeartaigh, titulaire d'un doctorat en génomique du Trinity College de Dublin, explique que le CSER a actuellement trois projets communs en cours avec FHI.

Les conseillers externes incluent Bostrom et Musk, ainsi que d'autres experts en IA comme Stuart Russell et Murray Shanahan de DeepMind. Le regretté Stephen Hawking était également conseiller de son vivant.

L'avenir de l'intelligence

Le Centre Leverhulme pour l'avenir de l'intelligence (FOI) a été ouvert à Cambridge en 2016 et se trouve aujourd'hui dans le même bâtiment que le CSER, à deux pas des barques sur la River Cam. Le bâtiment n'est pas la seule chose que les centres partagent – le personnel se chevauche aussi et il y a beaucoup de recherches qui couvrent les deux départements.

Soutenu par plus de 10 millions de livres sterling de la Fondation Leverhulme, qui accorde des subventions, le centre est conçu pour soutenir la "pensée innovante du ciel bleu", selon ÓhÉigeartaigh, son co-développeur.

Avait-on vraiment besoin d'un autre de ces centres de recherche? ÓhÉigeartaigh le pense. "Il devenait clair qu'il y aurait, ainsi que les opportunités et défis techniques, des sujets juridiques à explorer, des sujets économiques, des sujets de sciences sociales", dit-il.

"Comment pouvons-nous nous assurer que l'intelligence artificielle profite à tous dans une société mondiale? Vous examinez des questions telles que qui est impliqué dans le processus de développement? Qui est consulté? Comment fonctionne la gouvernance? Comment pouvons-nous nous assurer que les communautés marginalisées ont une voix? "

L'objectif de FOI est de faire travailler les informaticiens et les experts en apprentissage automatique avec des personnes issues des politiques, des sciences sociales, des risques et de la gouvernance, de l'éthique, de la culture, de la théorie critique, etc. En conséquence, le centre devrait être en mesure d'avoir une vision large de la gamme des opportunités et des défis que l'IA pose aux sociétés.

"En réunissant des personnes qui pensent à ces choses sous des angles différents, nous sommes en mesure de déterminer quels pourraient être les scénarios correctement plausibles qui valent la peine d'être atténués", a déclaré ÓhÉigeartaigh.