Les chances que l’intelligence artificielle provoque l’extinction de l’humanité dans les 30 prochaines années ont augmenté, selon Geoffrey Hinton
L’intelligence artificielle pourrait conduire à l’extinction de l’humanité d’ici trois décennies, avec une probabilité pouvant atteindre 20 %, selon Geoffrey Hinton, figure pionnière de l’IA et lauréat du prix Nobel de physique 2024. Cela représente une augmentation par rapport au risque de 10 %, son estimation il y a à peine un an.
Lors d’une interview sur BBC Radio 4 jeudi, on a demandé à Hinton si quelque chose avait changé depuis sa précédente estimation d’une chance sur dix d’une apocalypse de l’IA. Le scientifique lauréat du prix Turing a répondu : « pas vraiment, 10 à 20 %. »
Cela a amené le rédacteur invité de l’émission, l’ancien chancelier Sajid Javid, à plaisanter « tu montes. » L’informaticien, qui a quitté Google l’année dernière, a répondu : «Si quoi que ce soit. Vous voyez, nous n’avons jamais eu à faire face à des choses plus intelligentes que nous auparavant.
Le scientifique anglo-canadien, qui a reçu cette année le prix Nobel de physique pour ses contributions à l’IA, a souligné les défis liés au contrôle des systèmes d’IA avancés.
« Combien d’exemples connaissez-vous d’une chose plus intelligente contrôlée par une chose moins intelligente ?… L’évolution a nécessité beaucoup de travail pour permettre au bébé de contrôler la mère, mais c’est à peu près le seul exemple que je connaisse », Hinton, qui est souvent appelé « le parrain de l’IA », a déclaré.
Il a suggéré «Imaginez-vous avec un enfant de trois ans. Nous serons l’enfant de trois ans. par rapport à une future IA qui serait « plus intelligent que les gens. »
Hinton a souligné que des progrès ont été « Beaucoup plus vite que prévu » et a appelé à une réglementation pour garantir la sécurité. Il a mis en garde contre le fait de s’appuyer uniquement sur des motivations de profit pour les entreprises, déclarant : « La seule chose qui peut obliger ces grandes entreprises à faire davantage de recherches sur la sécurité est la réglementation gouvernementale. »
En mai 2023, le Center for AI Safety a publié une déclaration signée par d’éminents scientifiques du domaine, dont Hinton, avertissant que « Atténuer le risque d’extinction dû à l’IA devrait être une priorité mondiale, aux côtés d’autres risques sociétaux tels que les pandémies et la guerre nucléaire. » Parmi les signataires figurent Elon Musk, PDG de Tesla, Steve Wozniak, cofondateur d’Apple, et Yoshua Bengio, considéré comme un pionnier de l’IA pour ses travaux sur les réseaux neuronaux.
Hinton estime que les systèmes d’IA pourraient éventuellement surpasser l’intelligence humaine, échapper au contrôle humain et potentiellement causer des dommages catastrophiques à l’humanité. Il préconise de consacrer des ressources importantes pour garantir la sécurité et l’utilisation éthique de l’IA, soulignant également le besoin urgent de mesures proactives avant qu’il ne soit trop tard.
Yann LeCun, scientifique en chef de l’IA chez Meta, a exprimé un point de vue contraire à celui de Hinton, affirmant que la technologie « pourrait réellement sauver l’humanité de l’extinction. »
Vous pouvez partager cette histoire sur les réseaux sociaux :