Sunak abordera les avantages et la possible menace existentielle dans son discours sur l’IA
Rishi Sunak expliquera comment il compte faire face aux dangers présentés par l’intelligence artificielle tout en exploitant ses avantages, alors qu’un document gouvernemental met en garde contre une éventuelle menace existentielle.
Dans un discours prononcé jeudi à Londres, le Premier ministre déclarera que l’expansion rapide de la technologie apporte de nouvelles opportunités de croissance et de progrès ainsi que de « nouveaux dangers ».
Il soutiendra qu’il fait preuve de responsabilité en cherchant à « s’attaquer de front à ces craintes » pour donner au public « la tranquillité d’esprit que nous assurerons votre sécurité ».
Un nouveau document publié par le Bureau gouvernemental pour la science pour accompagner le discours affirme qu’il n’y a pas suffisamment de preuves pour exclure une menace pour l’humanité de l’IA.
S’appuyant sur des sources telles que les services de renseignement britanniques, il indique que de nombreux experts estiment qu’il s’agit d’un « risque avec une très faible probabilité et peu d’itinéraires plausibles » et qu’ils auraient besoin de la technologie pour « devancer les mesures d’atténuation, prendre le contrôle des systèmes critiques et être en mesure d’éviter d’être éteints ». ».
Il ajoute : « Compte tenu de l’incertitude importante dans la prévision des développements de l’IA, il n’y a pas suffisamment de preuves pour exclure que les futurs systèmes d’IA de pointe hautement performants, s’ils sont mal alignés ou insuffisamment contrôlés, pourraient constituer une menace existentielle. »
Trois grandes voies menant à des risques « catastrophiques » ou existentiels sont définies comme un système auto-amélioré qui peut atteindre des objectifs dans le monde physique sans que la surveillance ne nuise aux intérêts humains.
La seconde est une défaillance de plusieurs systèmes clés après qu’une concurrence intense ait conduit une entreprise dotée d’un avantage technologique à prendre le contrôle, puis à échouer en raison de la sécurité, de la contrôlabilité et d’une mauvaise utilisation.
Enfin, une dépendance excessive a été jugée comme une menace dans la mesure où les humains accordent à l’IA davantage de contrôle sur des systèmes critiques qu’ils ne comprennent plus pleinement et deviennent « irréversiblement dépendants ».
Dans son discours de jeudi, M. Sunak devrait déclarer que l’IA apportera « de nouvelles connaissances, de nouvelles opportunités de croissance économique, de nouveaux progrès dans les capacités humaines et la possibilité de résoudre des problèmes que nous pensions autrefois hors de nous ».
« Mais cela entraîne aussi de nouveaux dangers et de nouvelles craintes », devrait-il ajouter.
« Donc, la chose responsable que je dois faire est d’aborder ces craintes de front, en vous donnant la tranquillité d’esprit que nous assurerons votre sécurité, tout en veillant à ce que vous et vos enfants ayez toutes les opportunités d’un avenir meilleur que l’IA peut offrir. apporter.
« Faire la bonne chose, et non la chose facile, signifie être honnête avec les gens quant aux risques liés à ces technologies. »
En termes de capacités, le document du gouvernement note que l’IA frontalière peut déjà effectuer « de nombreuses tâches économiquement utiles » telles que converser couramment et longuement, et être utilisée comme outil de traduction ou pour résumer de longs documents et analyser des données.
Il suggère que la technologie deviendra probablement beaucoup plus utile à l’avenir, et potentiellement capable d’effectuer des tâches plus efficacement que les humains, mais il note que « nous ne pouvons actuellement pas prédire de manière fiable à l’avance quelles nouvelles capacités spécifiques un modèle d’IA de pointe pourrait avoir. « gagnera », car les méthodes de formation des modèles d’IA sont susceptibles de changer et d’évoluer également.
Mais parmi les risques potentiels de la technologie, le document identifie les cas d’utilisation potentiels extrêmement larges de la technologie comme un problème, arguant qu’il est difficile de prédire comment les outils d’IA pourraient être utilisés et donc se protéger contre d’éventuels problèmes.
Il ajoute que l’absence actuelle de normes de sécurité est un problème clé et prévient que l’IA pourrait « considérablement exacerber les cyber-risques existants » si elle est mal utilisée – potentiellement capable de lancer des cyberattaques de manière autonome, bien que le document suggère que les défenses basées sur l’IA pourraient atténuer une partie de ce problème. risque.
En outre, il prévient que l’IA des frontières pourrait perturber le marché du travail en déplaçant les travailleurs humains et pourrait conduire à une augmentation de la désinformation via des images générées par l’IA ou en diffusant involontairement des informations inexactes sur lesquelles un modèle d’IA a été formé.
Le document servira de document de discussion lors du sommet britannique sur la sécurité de l’IA la semaine prochaine, où les dirigeants mondiaux et les géants de la technologie discuteront des problèmes émergents autour de l’intelligence artificielle.