Rishi Sunak prévient que la sécurité de l’IA devrait être une priorité mondiale aux côtés des pandémies et des guerres
Rishi Sunak a déclaré que l’atténuation du risque d’extinction due à l’intelligence artificielle devrait être une priorité mondiale aux côtés des pandémies et de la guerre nucléaire.
Le Premier ministre a déclaré qu’il voulait être « honnête » avec le public sur les risques de l’IA, lors de son discours sur la technologie émergente.
Alors que le gouvernement publiait de nouvelles évaluations sur l’intelligence artificielle, M. Sunak a déclaré qu’elles offraient un « avertissement sévère ».
« Si vous vous trompez, cela pourrait faciliter la fabrication d’armes chimiques ou biologiques.
« Les groupes terroristes pourraient utiliser l’IA pour semer la peur et la perturbation à une échelle encore plus grande », a-t-il déclaré.
« Les criminels pourraient exploiter l’IA à des fins de cyberattaques, de désinformation, de fraude ou même d’abus sexuels sur des enfants.
« Et dans les cas les plus improbables mais extrêmes, il existe même le risque que l’humanité perde complètement le contrôle de l’IA grâce au type d’IA parfois appelé « super intelligence ».
« En effet, pour citer la déclaration faite plus tôt cette année par des centaines d’experts mondiaux en IA, l’atténuation du risque d’extinction dû à l’IA devrait être une priorité mondiale, aux côtés d’autres risques à l’échelle sociétale tels que les pandémies et la guerre nucléaire. »
Mais il a déclaré qu’il n’y avait « pas de risque que les gens perdent le sommeil en ce moment » et qu’il ne voulait pas être « alarmiste ».
Le gouvernement organisera la semaine prochaine un sommet sur la sécurité de l’IA à Bletchley Park, réunissant des dirigeants mondiaux, des entreprises technologiques et la société civile pour discuter de la technologie émergente.
Avant le sommet, M. Sunak a annoncé que le gouvernement créerait le « premier » institut de sécurité de l’IA au monde, qui, selon le Premier ministre, « examinerait, évaluerait et testerait soigneusement les nouveaux types d’IA afin de comprendre de quoi chaque nouveau modèle est capable » et « explorer tous les risques ».
Il a déclaré que les entreprises technologiques avaient déjà fait confiance au Royaume-Uni avec un accès privilégié à leurs modèles, ce qui rendait la Grande-Bretagne « si bien placée » pour créer le premier institut de sécurité de l’IA au monde.
Le Premier ministre a déclaré que le gouvernement profiterait du sommet de la semaine prochaine pour faire pression en faveur d’une première déclaration internationale sur la nature des risques liés à l’IA, et a déclaré que les dirigeants devraient suivre l’exemple de la collaboration mondiale autour du changement climatique et établir un groupe d’experts mondial sur la question.
Mais M. Sunak a déclaré que le gouvernement ne « se précipiterait pas pour réglementer » l’IA, même s’il a ajouté que les pays ne devraient pas compter sur les entreprises privées « pour faire leurs propres devoirs ».
« Seuls les gouvernements peuvent évaluer correctement les risques pour la sécurité nationale », a-t-il déclaré.
Il a également défendu la décision d’inviter la Chine au Sommet sur la sécurité de l’IA, affirmant qu’il ne peut y avoir « aucune stratégie sérieuse pour l’IA sans au moins essayer d’impliquer toutes les principales puissances mondiales en matière d’IA ».
« Cela n’a peut-être pas été facile à faire, mais c’était la bonne chose à faire », a-t-il déclaré.
Avant le discours du Premier ministre, le gouvernement a publié plusieurs documents de discussion montrant son évaluation des risques liés à l’IA, suggérant qu’il existait de nouvelles opportunités de croissance et de progrès, mais aussi une série de « nouveaux dangers ».
Les journaux affirment qu’il n’existe pas suffisamment de preuves pour exclure une menace pour l’humanité provenant de l’IA et qu’il est difficile de prédire bon nombre des risques en raison du large éventail d’utilisations potentielles dans le futur.
Il ajoute que le manque actuel de normes de sécurité constitue un problème clé et prévient que l’IA pourrait être utilisée pour mener des cyberattaques plus avancées et développer des armes biologiques.
Il prévient également que les travailleurs humains pourraient être déplacés par l’IA et que la désinformation pourrait se propager plus facilement et potentiellement influencer les élections futures.