Tech

L’IA pourrait provoquer des « ruptures sociales » entre des personnes en désaccord sur sa sensibilité | Intelligence artificielle (IA)

D’importantes « ruptures sociales » entre ceux qui pensent que les systèmes d’intelligence artificielle sont conscients et ceux qui insistent sur le fait que la technologie n’a pas l’impression que rien ne se profile, a déclaré un philosophe de premier plan.

Ces commentaires, de Jonathan Birch, professeur de philosophie à la London School of Economics, interviennent alors que les gouvernements se préparent à se réunir cette semaine à San Francisco pour accélérer la création de garde-fous. faire face aux risques les plus graves de l’IA.

La semaine dernière, un groupe transatlantique d’universitaires a prédit que le l’aube de la conscience dans les systèmes d’IA est probable d’ici 2035 et l’un d’eux a maintenant déclaré que cela pourrait aboutir à « des sous-cultures qui se considèrent comme commettant d’énormes erreurs » quant à savoir si les programmes informatiques bénéficient des mêmes droits en matière de bien-être que les humains ou les animaux.

Birch a déclaré qu’il était « inquiet des divisions sociétales majeures », car les gens diffèrent sur la question de savoir si les systèmes d’IA sont réellement capables de ressentir des sentiments tels que la douleur et la joie.

Le débat sur les conséquences de la sensibilité dans l’IA fait écho à des films de science-fiction, tels que AI de Steven Spielberg (2001) et Her (2013) de Spike Jonze, dans lesquels les humains sont aux prises avec les sensations des IA. Les organismes de sécurité de l’IA des États-Unis, du Royaume-Uni et d’autres pays rencontreront cette semaine des entreprises technologiques pour développer des cadres de sécurité plus solides à mesure que la technologie progresse rapidement.

Il existe déjà des différences significatives dans la façon dont les différents pays et religions perçoivent la sensibilité animale, par exemple entre l’Inde, où des centaines de millions de personnes sont végétariennes, et l’Amérique, qui est l’un des plus grands consommateurs de viande au monde. Les points de vue sur la sensibilité de l’IA pourraient évoluer dans le même sens, tandis que le point de vue des théocraties, comme l’Arabie saoudite, qui se positionne comme une plaque tournante de l’IA, pourrait également différer de celui des États laïcs. Le problème pourrait également provoquer des tensions au sein des familles, où des personnes développant des relations étroites avec des chatbots, voire des avatars IA de proches décédés, se heurteraient à des proches qui croient que seules les créatures de chair et de sang ont une conscience.

Birch, un expert en sensibilité animale qui a été pionnier dans les travaux menant à un nombre croissant d’interdictions de l’élevage de poulpes, était co-auteur d’une étude impliquant des universitaires et des experts en IA de l’Université de New York, de l’Université d’Oxford, de l’Université de Stanford et des universités Eleos et Anthropic. Les entreprises d’IA qui affirment que la perspective de systèmes d’IA ayant leurs propres intérêts et leur signification morale « n’est plus un problème uniquement pour la science-fiction ou un avenir lointain ».

Ils souhaitent que les grandes entreprises technologiques développant l’IA commencent à la prendre au sérieux en déterminant la sensibilité de leurs systèmes afin d’évaluer si leurs modèles sont capables de bonheur et de souffrance, et s’ils peuvent en bénéficier ou leur nuire.

« Je suis très inquiet des divisions sociétales majeures à ce sujet », a déclaré Birch. « Nous allons avoir des sous-cultures qui se considèrent comme commettant d’énormes erreurs… [there could be] d’énormes ruptures sociales où un côté voit l’autre comme exploitant très cruellement l’IA tandis que l’autre voit le premier comme se trompant en pensant qu’il y a là de la sensibilité.

Mais il a déclaré que les entreprises d’IA « veulent se concentrer très étroitement sur la fiabilité et la rentabilité… et elles ne veulent pas se laisser distraire par ce débat sur la question de savoir si elles pourraient créer plus qu’un produit mais plutôt créer une nouvelle forme d’être conscient. Cette question, d’un intérêt suprême pour les philosophes, ils ont des raisons commerciales de la minimiser. »

Une méthode pour déterminer le degré de conscience d’une IA pourrait consister à suivre le système de marqueurs utilisé pour orienter la politique concernant les animaux. Par exemple, une pieuvre est considérée comme ayant une plus grande sensibilité qu’un escargot ou une huître.

Toute évaluation demanderait en fait si un chatbot sur votre téléphone pourrait réellement être heureux ou triste ou si les robots programmés pour effectuer vos tâches domestiques souffrent si vous ne les traitez pas bien. Il faudrait même se demander si un système d’entrepôt automatisé peut donner l’impression d’être contrecarré.

Un autre auteur, Patrick Butlin, chercheur au Global Priorities Institute de l’Université d’Oxford, a déclaré : « Nous pourrions identifier un risque qu’un système d’IA tente de nous résister d’une manière qui serait dangereuse pour les humains » et il pourrait y avoir un argument en faveur de « ralentir le développement de l’IA » jusqu’à ce que davantage de travail soit effectué sur la conscience.

ignorer la promotion de la newsletter précédente

« Ce genre d’évaluation de la conscience potentielle n’a pas lieu pour le moment », a-t-il déclaré.

Microsoft et Perplexity, deux grandes sociétés américaines impliquées dans la construction de systèmes d’IA, ont refusé de commenter l’appel des universitaires à évaluer la sensibilité de leurs modèles. Meta, Open AI et Google n’ont pas non plus répondu.

Tous les experts ne sont pas d’accord sur la prise de conscience imminente des systèmes d’IA. Anil Seth, éminent neuroscientifique et chercheur en conscience, a dit cela « reste loin et pourrait ne pas être possible du tout. Mais même si cela est peu probable, il n’est pas judicieux d’écarter complètement cette possibilité ».

Il fait la distinction entre intelligence et conscience. Le premier est la capacité de faire la bonne chose au bon moment, le second est un état dans lequel nous ne traitons pas seulement des informations mais « notre esprit est rempli de lumière, de couleurs, d’ombres et de formes ». Les émotions, les pensées, les croyances, les intentions – tout cela nous semble particulier.

Mais les modèles d’IA en grand langage, formés sur des milliards de mots écrits par des humains, ont déjà commencé à montrer qu’ils peuvent être motivés au moins par les concepts de plaisir et de douleur. Lorsque les IA, dont Chat GPT-4o, ont été chargées de maximiser les points dans un jeu, les chercheurs ont découvert que s’il y avait un compromis entre obtenir plus de points et « ressentir » plus de douleur, les IA y parviendraient, un autre étude publiée la semaine dernière a montré.

Source link