Rapport de l’ONU : Comment arrêter de risquer l’extinction humaine

Depuis 1990, le Programme des Nations Unies pour le développement est chargé de publier des rapports à quelques années d’intervalle sur l’état du monde. Le rapport 2021/2022 – publié plus tôt ce mois-ci, et le premier depuis le début de la pandémie de Covid-19 – est intitulé «Uncertain Times, Unsettled Lives». Et sans surprise, cela rend la lecture stressante.

« La guerre en Ukraine se répercute dans le monde entier », ouvre le rapport, « provoquant d’immenses souffrances humaines, y compris une crise du coût de la vie. Les catastrophes climatiques et écologiques menacent quotidiennement le monde. Il est séduisant de considérer les crises comme des événements ponctuels, et il est naturel d’espérer un retour à la normale. Mais éteindre le dernier feu ou lancer le dernier démagogue sera un jeu de taupe impossible à gagner à moins que nous acceptions le fait que le monde change fondamentalement. Il n’y a pas de retour en arrière.”

Ces mots sonnent juste. Il y a quelques années à peine, nous vivions dans un monde où les experts avaient depuis longtemps averti qu’une pandémie arrivait et qu’elle pourrait être dévastatrice – maintenant, nous vivons dans un monde qu’une pandémie a clairement dévasté. Il y a seulement un an, il n’y avait pas eu de grande guerre terrestre en Europe depuis la Seconde Guerre mondiale, et certains experts ont supposé avec optimisme que deux pays avec McDonald’s n’entreraient jamais en guerre.

Maintenant, non seulement la Russie occupe des étendues de l’Ukraine, mais la destruction de l’armée russe dans les combats là-bas a déclenché une autre instabilité régionale, notamment avec l’Azerbaïdjan qui a attaqué l’Arménie au début du mois. Les craintes de l’utilisation d’armes nucléaires en temps de guerre, calmes depuis la guerre froide, sont de retour alors que les gens s’inquiètent de savoir si Poutine pourrait se tourner vers des armes nucléaires tactiques s’il était confronté à une défaite totale en Ukraine.

Bien sûr, toutes ces situations sont possibles, voire susceptibles, de se résoudre sans catastrophe. Le pire arrive rarement. Mais il est difficile d’éviter le sentiment que nous ne faisons que lancer les dés, en espérant que nous ne finirons pas par tomber sur un numéro malchanceux. Chaque pandémie, chaque guerre mineure entre puissances nucléaires, chaque technologie nouvelle et incontrôlée, ne peut présenter qu’une faible chance de dégénérer en un événement d’une ampleur catastrophique. Mais si nous prenons ce risque chaque année sans prendre de précautions, la durée de vie de l’humanité risque d’être limitée.

Pourquoi la « sécurité existentielle » est l’opposé du « risque existentiel »

Toby Ord, chercheur principal au Future of Humanity Institute d’Oxford et auteur du livre sur les risques existentiels Le précipice : risque existentiel et avenir de l’humanité, explore cette question dans un essai du dernier rapport du PNUD. Il l’appelle le problème de la « sécurité existentielle » : le défi non seulement d’empêcher chaque catastrophe potentielle individuelle, mais de construire un monde qui cesse de lancer les dés sur une éventuelle extinction.

« Pour survivre », écrit-il dans le rapport, « nous devons réaliser deux choses. Nous devons d’abord réduire le niveau actuel de risque existentiel – éteindre les incendies auxquels nous sommes déjà confrontés à cause des menaces de guerre nucléaire et du changement climatique. Mais nous ne pouvons pas toujours lutter contre les incendies. Une caractéristique déterminante du risque existentiel est qu’il n’y a pas de seconde chance – une seule catastrophe existentielle serait notre perte permanente. Nous devons donc également créer l’équivalent des pompiers et des codes de sécurité incendie – en apportant des changements institutionnels pour garantir que le risque existentiel (y compris celui des nouvelles technologies et développements) reste faible pour toujours.

Il illustre le propos avec ce graphique assez terrifiant :

Toby Ord, Rapport des Nations Unies sur le développement humain 2021-2022

L’idée est la suivante : Supposons que nous traversions une situation où un dictateur menace d’utiliser la guerre nucléaire, ou où les tensions entre deux puissances nucléaires semblent atteindre le point de rupture. Peut-être que la plupart du temps, la situation est désamorcée, comme ce fut effectivement le cas lors des nombreux appels rapprochés de la guerre froide. Mais si cette situation se reproduit toutes les quelques décennies, alors la probabilité que nous désamorçons chaque guerre nucléaire potentielle va baisser régulièrement. Les chances que l’humanité soit encore là dans 200 ans finissent par devenir assez faibles, tout comme les chances que vous puissiez continuer à gagner au craps diminuent à chaque lancer.

La « sécurité existentielle » est l’état où nous ne sommes généralement pas confrontés à des risques au cours d’une année, d’une décennie ou, idéalement, même d’un siècle, qui ont une chance substantielle d’anéantir la civilisation. Pour la sécurité existentielle face au risque nucléaire, par exemple, nous réduirons peut-être les arsenaux nucléaires au point où même un échange nucléaire complet ne poserait pas de risque d’effondrement de la civilisation, ce sur quoi le monde a fait des progrès significatifs alors que les pays ont réduit les niveaux d’arsenal nucléaire après la guerre froide. . Pour la sécurité existentielle contre les pandémies, nous pourrions développer des EPI confortables à porter et offrant une protection à peu près totale contre les maladies, ainsi qu’un système mondial de détection précoce des maladies – garantissant qu’il serait possible d’étouffer toute pandémie catastrophique dans l’œuf et d’en protéger les gens.

L’idéal, cependant, serait la sécurité existentielle de tout – pas seulement des connus, mais des inconnus. Par exemple, l’une des grandes inquiétudes des experts, dont Ord, est qu’une fois que nous aurons construit des intelligences artificielles hautement performantes, l’IA accélérera considérablement le développement de nouvelles technologies qui mettent le monde en péril alors que, en raison de la conception des systèmes d’IA modernes, ce sera incroyablement difficile. pour dire ce qu’il fait ou pourquoi.

Ainsi, une approche idéale de la gestion des risques existentiels ne se contente pas de lutter contre les menaces actuelles, mais élabore également des politiques qui empêcheront les menaces de se produire à l’avenir.

Cela sonne bien. Comme les partisans du long terme l’ont soutenu récemment, les risques existentiels constituent une menace particulièrement dévastatrice car ils pourraient détruire non seulement le présent, mais un avenir où des centaines de milliards de personnes supplémentaires pourraient un jour vivre. Mais comment y parvient-on ?

Ord propose « une institution visant à la sécurité existentielle ». Il souligne qu’empêcher la fin du monde est exactement le genre de chose qui est censé être du ressort des Nations Unies – après tout, « les risques qui pourraient nous détruire transcendent les frontières nationales », écrit-il. Le problème, observe Ord, est que pour prévenir le risque existentiel, une institution devrait avoir une large capacité d’intervention dans le monde. Aucun pays ne veut qu’un autre pays soit autorisé à poursuivre un programme de recherche incroyablement dangereux, mais en même temps, aucun pays ne veut donner à d’autres pays la compétence sur leurs propres programmes de recherche. Seule une autorité supranationale – quelque chose comme l’Agence internationale de l’énergie atomique, mais avec un mandat beaucoup plus large – pourrait potentiellement surmonter ces préoccupations nationales plus étroites.

Souvent, la partie la plus difficile pour assurer l’avenir de l’humanité n’est pas de déterminer ce qui doit être fait, mais de le faire réellement. Avec le changement climatique, le problème et les risques étaient bien compris depuis longtemps avant que le monde n’agisse pour s’éloigner des gaz à effet de serre. Les experts ont mis en garde contre les risques de pandémies avant que Covid-19 ne frappe, mais ils n’ont en grande partie pas été écoutés – et des institutions que les États-Unis pensaient prêtes, comme le CDC, se sont avérées tomber sur leur visage pendant une véritable crise. Aujourd’hui, il y a des avertissements d’experts sur l’intelligence artificielle, mais d’autres experts nous assurent qu’il n’y aura pas de problème et que nous n’avons pas besoin d’essayer de le résoudre.

La rédaction de rapports n’est utile que si les gens les lisent ; la construction d’un institut international pour la sécurité existentielle ne fonctionne que s’il existe un moyen de transformer l’étude des risques existentiels en une action sérieuse et coordonnée pour s’assurer que nous ne les affrontons pas. “Il n’y a pas suffisamment d’adhésion pour le moment”, reconnaît Ord, mais “cela pourrait changer au fil des années ou des décennies à mesure que les gens feront lentement face à la gravité des menaces auxquelles l’humanité est confrontée”.

Ord ne spécule pas sur ce qui pourrait provoquer ce changement, mais personnellement, je suis pessimiste. Tout ce qui changerait suffisamment l’ordre international pour soutenir les institutions internationales avec une autorité réelle en matière de risque existentiel devrait probablement être une catastrophe dévastatrice en soi. Il semble peu probable que nous parvenions à emprunter la voie de la «sécurité existentielle» sans prendre de sérieux risques – dont nous espérons pouvoir survivre pour apprendre.