Le président américain Joe Biden a refusé de signer un accord international contraignant réglementant étroitement l’utilisation de « robots tueurs ». Les militants craignent que de tels dispositifs ne lancent une course aux armements imparable vers la « déshumanisation numérique ».

Les États-Unis préfèrent un «code de conduite non contraignant » concernant les systèmes d’armes létales autonomes (LAWS, alias robots tueurs), a déclaré le responsable du département d’État Joshua Dorosin lors d’une réunion à Genève jeudi.

Son insistance à laisser les mains libres au Pentagone pour produire des robots tueurs autonomes est conforme à des années de politique américaine, qui s’est longtemps opposée à un moratoire mondial sur les LAWS, dénonçant l’utilisation d’un « instrument juridiquement contraignant” pour arrêter le développement de robots de mort autonomes.

Lire la suite




Les LAWS ont déjà été déployées pendant la guerre pour traquer et tuer sans intervention humaine. Cependant, d’autres pays ont indiqué qu’ils étaient prêts à renoncer aux systèmes d’armes autonomes. La Nouvelle-Zélande a déclaré mardi qu’elle rejoindrait une coalition internationale pour interdire les systèmes, arguant que «la perspective d’un avenir où la décision de prendre une vie humaine est déléguée aux machines est odieuse.« 

Le ministre néo-zélandais du désarmement et du contrôle des armements, Phil Twyford, a applaudi la décision de son pays d’agir. Pendant ce temps, le directeur de l’Institute for Ethics in AI, John Tasioulas, a constaté le refus de l’administration Biden de renoncer à son adoption de la technologie tueuse « »triste mais pas surprenant. « 

« L’émergence de systèmes d’armes autonomes et la perspective de perdre le contrôle humain significatif sur l’utilisation de la force sont des menaces graves qui exigent une action urgente», a déclaré un rapport de Human Rights Watch et de la Harvard Law School International Human Rights Clinic publié avant la réunion des Nations Unies.

Il serait difficile, voire impossible, de sélectionner et d’engager des cibles sans contrôle humain significatif sur un champ de bataille dominé par des robots autonomes, a averti Bonnie Docherty, chercheuse principale sur les armes à Human Rights Watch, citant l’opposition humaine instinctive à « »l’idée de machines prenant des décisions de vie ou de mort» – en particulier l’incapacité de discerner entre les combattants et les civils.

Les craintes des robots tueurs se sont intensifiées à mesure que les pays adoptent une technologie robotique de pointe, des robots chiens à quatre pattes de Boston Dynamics – aimés des services de police et redoutés par les citoyens dont ils partagent les rues – à l’intelligence artificielle à part entière.

La reconnaissance faciale s’est également heurtée à un tollé général, certaines villes ayant choisi de l’interdire complètement, tandis que des entreprises comme Amazon contactent les autorités dans le but d’être les premières à commercialiser cette technologie terrifiante.

Les robots ont été utilisés sur le champ de bataille, apparemment lors d’incidents terroristes au Moyen-Orient et par l’armée australienne, entre autres.

Alors que les entités déployant de tels systèmes peuvent les faire taire pour éviter d’effrayer la population, des groupes de défense des droits humains comme Amnesty International ont cherché à accroître leur visibilité avec des campagnes de sensibilisation du public macabres telles qu’un récent concours » pour voir si une « cible » pourrait éviter d’être détectée par une IA tueuse en 10 secondes.

Toutes les actualités du site n'expriment pas le point de vue du site, mais nous transmettons cette actualité automatiquement et la traduisons grâce à une technologie programmatique sur le site et non à partir d'un éditeur humain.