Dernières Nouvelles | News 24

OpenAI découvre que les campagnes de propagande russe et chinoise ont utilisé sa technologie

SAN FRANCISCO — Le créateur de ChatGPT, OpenAI, a déclaré jeudi avoir surpris des groupes de Russie, de Chine, d’Iran et d’Israël utilisant sa technologie pour tenter d’influencer le discours politique dans le monde, soulignant les inquiétudes selon lesquelles l’intelligence artificielle générative permet aux acteurs étatiques de mener plus facilement une propagande secrète. campagnes à l’approche de l’élection présidentielle de 2024.

OpenAI a supprimé les comptes associés à des opérations de propagande bien connues en Russie, en Chine et en Iran ; une société de campagne politique israélienne ; et un groupe jusqu’alors inconnu originaire de Russie que les chercheurs de l’entreprise ont surnommé « Bad Grammar ». Les groupes ont utilisé la technologie d’OpenAI pour rédiger des articles, les traduire dans différentes langues et créer un logiciel qui les a aidés à publier automatiquement sur les réseaux sociaux.

Aucun de ces groupes n’a réussi à obtenir beaucoup de terrain ; les comptes de réseaux sociaux qui leur sont associés ont atteint peu d’utilisateurs et ont juste une poignée d’adeptes, a déclaré Ben Nimmo, enquêteur principal de l’équipe de renseignement et d’enquête d’OpenAI. Pourtant, le rapport d’OpenAI montre que les propagandistes actifs depuis des années sur les réseaux sociaux utilisent la technologie de l’IA pour booster leurs campagnes.

« Nous les avons vu générer un volume de texte plus élevé et avec moins d’erreurs que ce que ces opérations gèrent traditionnellement », a déclaré Nimmo, qui travaillait auparavant pour les opérations d’influence de Meta tracking, lors d’un briefing avec les journalistes. Nimmo a déclaré qu’il était possible que d’autres groupes utilisent encore les outils d’OpenAI à l’insu de l’entreprise.

« L’heure n’est pas à la complaisance. L’histoire montre que des opérations d’influence qui ont passé des années à échouer peuvent soudainement éclater si personne ne les recherche », a-t-il déclaré.

Les gouvernements, les partis politiques et les groupes militants utilisent les médias sociaux depuis des années pour tenter d’influencer la politique. Suite aux inquiétudes concernant l’influence russe lors de l’élection présidentielle de 2016, les plateformes de médias sociaux ont commencé à s’intéresser de plus près à la manière dont leurs sites étaient utilisés pour influencer les électeurs. Les entreprises interdisent généralement aux gouvernements et aux groupes politiques de dissimuler les efforts concertés visant à influencer les utilisateurs, et les publicités politiques doivent révéler qui les a financées.

À mesure que les outils d’IA capables de générer des textes, des images et même des vidéos réalistes deviennent largement disponibles, les chercheurs en désinformation ont exprimé leurs inquiétudes quant au fait qu’il deviendra encore plus difficile de détecter et de répondre aux fausses informations ou aux opérations d’influence secrètes en ligne. Des centaines de millions de personnes votent aux élections dans le monde cette année, et les deepfakes génératifs d’IA ont déjà proliféré.

OpenAI, Google et d’autres sociétés d’IA ont travaillé sur une technologie permettant d’identifier les deepfakes créés avec leurs propres outils, mais cette technologie n’a pas encore fait ses preuves. Certains experts en IA pensent que les détecteurs de deepfake ne seront jamais totalement efficaces.

Plus tôt cette année, un groupe affilié au Parti communiste chinois a publié un enregistrement audio généré par l’IA d’un candidat aux élections taïwanaises qui en soutenait prétendument un autre. Cependant, le politicien, Terry Gou, propriétaire de Foxconn, n’a pas soutenu l’autre politicien.

En janvier, les électeurs des primaires du New Hampshire ont reçu un appel automatisé prétendant provenir du président Biden, mais qui s’est rapidement révélé être celui d’IA. La semaine dernière, un agent démocrate qui a déclaré avoir commandé l’appel automatisé a été inculpé de suppression d’électeurs et d’usurpation d’identité d’un candidat.

Le rapport d’OpenAI détaille comment les cinq groupes ont utilisé la technologie de l’entreprise dans leurs tentatives d’opérations d’influence. Spamouflage, un groupe originaire de Chine, a utilisé la technologie d’OpenAI pour rechercher des activités sur les réseaux sociaux et rédiger des articles en chinois, coréen, japonais et anglais, a indiqué la société. Un groupe iranien connu sous le nom d’Union internationale des médias virtuels a également utilisé la technologie d’OpenAI pour créer des articles qu’il a publiés sur son site.

Bad Grammar, un groupe jusqu’alors inconnu, a utilisé la technologie OpenAI pour créer un programme capable de publier automatiquement sur l’application de messagerie Telegram. Bad Grammar a ensuite utilisé la technologie OpenAI pour générer des publications et commentaires en russe et en anglais affirmant que les États-Unis ne devraient pas soutenir l’Ukraine, selon le rapport.

Le rapport révèle également qu’une société de campagne politique israélienne appelée Stoic a utilisé OpenAI pour générer des messages pro-israéliens sur la guerre à Gaza et les cibler sur des personnes au Canada, aux États-Unis et en Israël, a indiqué OpenAI. Mercredi, le propriétaire de Facebook, Meta, a également rendu public le travail de Stoic, affirmant qu’il avait supprimé 510 comptes Facebook et 32 ​​​​comptes Instagram utilisés par le groupe. Certains comptes ont été piratés, tandis que d’autres appartenaient à des personnes fictives, a déclaré la société aux journalistes.

Les comptes en question commentaient souvent les pages d’individus ou d’organisations médiatiques bien connues, se faisant passer pour des étudiants américains pro-israéliens, des Afro-Américains et d’autres. Ces commentaires soutiennent l’armée israélienne et avertissent les Canadiens que « l’islam radical » menace les valeurs libérales du pays, a déclaré Meta.

L’IA est entrée en jeu dans la formulation de certains commentaires, qui ont semblé étranges et hors contexte aux vrais utilisateurs de Facebook. L’opération s’est mal déroulée, a indiqué la société, attirant seulement environ 2 600 abonnés légitimes.

Meta a agi après le laboratoire de recherche médico-légale numérique de l’Atlantic Council découvert le réseau tout en donnant suite à des opérations similaires identifiées par d’autres chercheurs et publications.

Au cours de la dernière année, des chercheurs en désinformation ont suggéré que les chatbots IA pourraient être utilisés pour avoir des conversations longues et détaillées avec des personnes spécifiques en ligne, en essayant de les influencer dans une certaine direction. Les outils d’IA pourraient également potentiellement ingérer de grandes quantités de données sur les individus et adapter les messages directement à ceux-ci.

OpenAI n’a trouvé aucune de ces utilisations plus sophistiquées de l’IA, a déclaré Nimmo. « Il s’agit bien d’une évolution plutôt que d’une révolution », a-t-il déclaré. « Rien de tout cela ne veut dire que nous ne verrons peut-être pas cela à l’avenir. »

Joseph Menn a contribué à ce rapport.


Source link