Lancé il y a quelques semaines à peine, ChatGPT menace déjà de bouleverser la façon dont nous rédigeons les communications quotidiennes comme les e-mails, les essais universitaires et une myriade d’autres formes d’écriture.
Créé par la société OpenAI, ChatGPT est un chatbot capable de répondre automatiquement aux invites écrites d’une manière parfois étrangement proche de l’humain.
Mais malgré toute la consternation suscitée par le potentiel de remplacement des humains par des machines dans des formats tels que la poésie et les scripts de sitcom, une menace bien plus grande se profile : l’intelligence artificielle remplaçant les humains dans les processus démocratiques – non pas par le vote, mais par le lobbying.
ChatGPT pourrait composer automatiquement les commentaires soumis dans les processus réglementaires. Il pourrait écrire des lettres à l’éditeur pour publication dans les journaux locaux. Il pourrait commenter des articles de presse, des entrées de blog et des publications sur les réseaux sociaux des millions de fois par jour. Cela pourrait imiter le travail que l’Agence russe de recherche sur Internet a fait dans sa tentative d’influencer nos élections de 2016, mais sans le budget de plusieurs millions de dollars et les centaines d’employés annoncés par l’agence.
Les commentaires générés automatiquement ne sont pas un problème nouveau. Depuis quelque temps, nous nous débattons avec les bots, des machines qui publient automatiquement du contenu. Il y a cinq ans, au moins un million de commentaires rédigés automatiquement auraient été soumis à la Federal Communications Commission concernant les propositions de réglementation sur la neutralité du net. En 2019, un étudiant de premier cycle de Harvard, à titre de test, a utilisé un programme de génération de texte pour soumettre 1 001 commentaires en réponse à une demande gouvernementale de contribution du public sur un problème de Medicaid. À l’époque, soumettre des commentaires n’était qu’un jeu de nombres écrasants.
Les plates-formes se sont améliorées pour supprimer les « comportements inauthentiques coordonnés ». Facebook, par exemple, supprime plus d’un milliard de faux comptes par an. Mais de tels messages ne sont qu’un début. Plutôt que d’inonder les boîtes de réception des législateurs avec des e-mails de soutien ou de dominer le standard du Capitole avec des appels vocaux synthétiques, un système d’IA avec la sophistication de ChatGPT mais formé sur des données pertinentes pourrait cibler de manière sélective les législateurs et les influenceurs clés pour identifier les points les plus faibles du système d’élaboration des politiques et les exploiter impitoyablement par la communication directe, les campagnes de relations publiques, le maquignonnage ou d’autres leviers.
Lorsque nous, les humains, faisons ces choses, nous appelons cela du lobbying. Les agents performants dans ce domaine associent la rédaction de messages de précision à des stratégies de ciblage intelligentes. À l’heure actuelle, la seule chose qui empêche un lobbyiste équipé de ChatGPT d’exécuter quelque chose qui ressemble à une campagne de guerre de drones rhétorique est un manque de précision du ciblage. L’IA pourrait également fournir des techniques pour cela.
Un système capable de comprendre les réseaux politiques, s’il est associé aux capacités de génération de texte de ChatGPT, pourrait identifier le membre du Congrès ayant le plus d’influence sur un domaine politique particulier – par exemple, la fiscalité des entreprises ou les dépenses militaires. À l’instar des lobbyistes humains, un tel système pourrait cibler des représentants indécis siégeant dans des commissions contrôlant la politique d’intérêt, puis concentrer les ressources sur les membres du parti majoritaire lorsqu’un projet de loi se dirige vers un vote au sol.
Une fois les individus et les stratégies identifiés, un chatbot IA comme ChatGPT pourrait créer des messages écrits à utiliser dans des lettres, des commentaires – partout où le texte est utile. Les lobbyistes humains pourraient également cibler ces individus directement. C’est la combinaison qui est importante : les commentaires des éditoriaux et des médias sociaux ne vous mènent que très loin, et savoir quels législateurs cibler n’est pas suffisant en soi.
Cette capacité à comprendre et à cibler les acteurs au sein d’un réseau créerait un outil de piratage de l’IA, exploitant les vulnérabilités des systèmes sociaux, économiques et politiques avec une vitesse et une portée incroyables. Les systèmes législatifs seraient une cible particulière, car le motif d’attaquer les systèmes d’élaboration des politiques est si fort, parce que les données pour la formation de ces systèmes sont si largement disponibles et parce que l’utilisation de l’IA peut être si difficile à détecter – en particulier si elle est utilisée de manière stratégique. guider les acteurs humains.
Les données nécessaires pour former de tels systèmes de ciblage stratégique ne feront que croître avec le temps. Les sociétés ouvertes font généralement de leurs processus démocratiques un dossier public, et la plupart des législateurs sont impatients – du moins, de manière performative – d’accepter et de répondre aux messages qui semblent provenir de leurs électeurs.
Peut-être qu’un système d’IA pourrait découvrir quels membres du Congrès ont une influence significative sur le leadership, mais ont toujours des profils publics suffisamment bas pour qu’il n’y ait qu’une concurrence modeste pour leur attention. Il pourrait alors identifier le SuperPAC ou le groupe d’intérêt public ayant le plus grand impact sur les positions publiques de ce législateur. Peut-être pourrait-il même calibrer la taille du don nécessaire pour influencer cette organisation ou diriger des publicités en ligne ciblées transmettant un message stratégique à ses membres. Pour chaque finalité politique, le bon public ; et pour chaque public, le bon message au bon moment.
Ce qui rend la menace des lobbyistes propulsés par l’IA plus grande que la menace déjà posée par les entreprises de lobbying à prix élevés sur K Street, c’est leur potentiel d’accélération. Les lobbyistes humains s’appuient sur des décennies d’expérience pour trouver des solutions stratégiques afin d’obtenir un résultat politique. Cette expertise est limitée, et donc coûteuse.
L’IA pourrait, théoriquement, faire la même chose beaucoup plus rapidement et à moindre coût. La vitesse de sortie est un énorme avantage dans un écosystème dans lequel l’opinion publique et les récits des médias peuvent s’enraciner rapidement, tout comme être suffisamment agile pour évoluer rapidement en réponse à des événements mondiaux chaotiques.
De plus, la flexibilité de l’IA pourrait aider à exercer une influence sur de nombreuses politiques et juridictions simultanément. Imaginez une entreprise de lobbying assistée par l’IA qui peut tenter de placer une législation dans chaque projet de loi présenté au Congrès américain, ou même dans toutes les législatures des États. Les cabinets de lobbying ont tendance à travailler dans un seul État, car il existe de telles variations complexes dans la loi, la procédure et la structure politique. Avec l’aide de l’IA pour naviguer dans ces variations, il peut devenir plus facile d’exercer un pouvoir au-delà des frontières politiques.
Tout comme les enseignants devront changer la façon dont ils donnent les examens et les devoirs aux étudiants à la lumière de ChatGPT, les gouvernements devront changer leur relation avec les lobbyistes.
Il est certain que cette technologie peut également présenter des avantages dans l’espace démocratique ; le plus important est l’accessibilité. Tout le monde ne peut pas se permettre un lobbyiste expérimenté, mais une interface logicielle vers un système d’IA pourrait être mise à la disposition de n’importe qui. Si nous avons de la chance, peut-être que ce type d’IA générant des stratégies pourrait revitaliser la démocratisation de la démocratie en donnant ce type de pouvoir de lobbying aux plus démunis.
Cependant, les institutions les plus grandes et les plus puissantes utiliseront probablement toutes les techniques de lobbying de l’IA avec le plus de succès. Après tout, l’exécution de la meilleure stratégie de lobbying nécessite toujours des initiés – des personnes capables de parcourir les couloirs de la législature – et de l’argent. Le lobbying ne consiste pas seulement à transmettre le bon message à la bonne personne au bon moment ; il s’agit aussi de donner de l’argent à la bonne personne au bon moment. Et tandis qu’un chatbot IA peut identifier qui devrait être le destinataire de ces contributions à la campagne, les humains devront, dans un avenir prévisible, fournir l’argent. Ainsi, bien qu’il soit impossible de prédire à quoi ressemblera un avenir rempli de lobbyistes de l’IA, cela rendra probablement encore plus ceux qui sont déjà influents et puissants.
Nathan E. Sanders est un scientifique des données affilié au Berkman Klein Center de l’Université de Harvard.
Bruce Schneier est technologue en sécurité et chargé de cours à la Harvard Kennedy School. Son nouveau livre est « A Hacker’s Mind: How the Powerful Bend Society’s Rules, and How to Bend Them Back ».
Le Times s’engage à publier une diversité de lettres Pour l’éditeur. Nous aimerions savoir ce que vous pensez de cet article ou de l’un de nos articles. Voilà quelque conseils. Et voici notre email : lettres@nytimes.com.
Suivez la section Opinion du New York Times sur Facebook, Twitter (@NYTopinion) et Instagram.