Les humains pourraient ne pas correspondre à l’IA si nos peurs fictives prenaient vie

Quand nous parlons de fiction d’intelligence artificielle (IA) comme iRobot et Wall-E vient à l’esprit. des interprétations effrayantes où les machines sont capables non seulement de comprendre les commandes humaines, mais aussi de penser et de planifier.

Cependant, l’IA n’est pas un concept fictif. De Siri à Alexa en passant par les maisons intelligentes, nos vies sont étroitement liées à l’IA, même aujourd’hui. Cependant, il y a toujours eu des gens qui se sont opposés au développement effréné de ces machines, craignant que les horreurs fictives ne prennent vie. Quelle est la validité de ces craintes?

Selon les experts, ceux-ci sont très valables. Une nouvelle étude a découvert que si un soulèvement de l’IA se produisait vraiment, les humains ne seraient pas capables de l’arrêter. Selon Courrier quotidien, une équipe de scientifiques internationaux s’est réunie pour concevoir un «algorithme de confinement théorique». C’était censé être un système qui empêcherait les systèmes super intelligents comme l’IA de nuire aux humains dans n’importe quelle situation possible. Mais la chose ne s’est pas déroulée comme prévu. Leur analyse a révélé que les algorithmes actuels ne peuvent pas arrêter l’IA, car cela arrêterait par inadvertance les propres opérations de l’algorithme.

Selon le directeur du Center for Humans and Machines, l’algorithme de confinement analyserait la menace ou s’arrêterait afin de contenir l’IA nuisible, dans ces deux cas, vous (les humains) ne pourriez jamais savoir quel processus était en cours. Essentiellement, tout algorithme de confinement sera finalement rendu inutile.

L’équipe, y compris des scientifiques de l’Institut Max Planck pour le développement humain, a essentiellement confirmé que les humains ne seraient pas en mesure de contrôler une IA superintelligente. Si Siri commençait à penser en votre nom, cela pourrait sembler utile au début, mais signifierait en fait quelque chose d’assez dangereux pour le monde en général.

L’équipe a utilisé le problème d’arrêt d’Alan Turing en 1936 pour réaliser cette expérience. La formule questionne si un ordinateur parviendra à la conclusion et répondra au problème ou non, la réponse étant l’arrêt.

Leurs calculs ont révélé que le problème de confinement est incalculable. De plus, ils ont révélé que les humains ne réalisent même pas quand une IA est devenue consciente et super intelligente. Alors que nous continuons à développer des machines plus intelligentes et plus intelligentes, il sera impossible de savoir si elles sont intelligentes à cause de la sensibilisation ou simplement à cause de leur codage.

Pendant de nombreuses années, les leaders technologiques et les innovateurs (ainsi que les fans de science-fiction) ont craint que ce ne soit vrai. Elon Musk a même comparé le problème à notre «plus grande menace existentielle».

Des peurs comme les machines pourraient voler des emplois humains (ce qui est déjà une réalité avec de nombreuses machines robotiques dans les usines) à la domination et aux humains ne devenant rien de plus qu’un animal de compagnie pour ces machines – les gens ont des préoccupations partout. La théorie est que si nous continuons à rendre les machines plus intelligentes, elles atteindront un jour la conscience (pensez à Westworld). Cette prise de conscience pourrait les conduire à se révolter contre les humains pour les avoir créés. Alternativement, les machines pourraient décider qu’elles sont supérieures et essayer de contrôler des vies humaines comme Wall-E ou iRobot.