Dernières Nouvelles | News 24

OpenAI affirme que des groupes russes et israéliens ont utilisé ses outils pour diffuser de la désinformation | OpenAI

OpenAI a publié jeudi son tout premier rapport sur la manière dont ses outils d’intelligence artificielle sont utilisés pour des opérations d’influence secrètes, révélant que l’entreprise avait perturbé des campagnes de désinformation en provenance de Russie, de Chine, d’Israël et d’Iran.

Des acteurs malveillants ont utilisé les modèles d’IA générative de l’entreprise pour créer et publier du contenu de propagande sur les plateformes de médias sociaux et pour traduire leur contenu dans différentes langues. Aucune des campagnes n’a gagné du terrain ou n’a atteint un large public, selon le rapport.

Alors que l’IA générative est devenue une industrie en plein essor, les chercheurs et les législateurs s’inquiètent largement de son potentiel à accroître la quantité et la qualité de la désinformation en ligne. Les sociétés d’intelligence artificielle telles qu’OpenAI, qui fabrique ChatGPT, ont tenté, avec des résultats mitigés, d’apaiser ces inquiétudes et de placer des garde-fous sur leur technologie.

Le rapport de 39 pages d’OpenAI est l’un des comptes rendus les plus détaillés d’une société d’intelligence artificielle sur l’utilisation de son logiciel à des fins de propagande. OpenAI a affirmé que ses chercheurs avaient découvert et interdit des comptes associés à cinq opérations d’influence secrètes au cours des trois derniers mois, émanant d’un mélange d’acteurs étatiques et privés.

En Russie, deux sociétés ont créé et diffusé des contenus critiquant les États-Unis, l’Ukraine et plusieurs pays baltes. L’une des opérations utilisait un modèle OpenAI pour déboguer le code et créer un bot publié sur Telegram. L’opération d’influence de la Chine a généré des textes en anglais, chinois, japonais et coréen, que les agents ont ensuite publiés sur Twitter et Medium.

Les acteurs iraniens ont généré des articles complets attaquant les États-Unis et Israël, qu’ils ont traduits en anglais et en français. Une société politique israélienne appelée Stoic dirigeait un réseau de faux comptes sur les réseaux sociaux qui créaient toute une série de contenus, notamment des messages accusant les manifestations d’étudiants américains contre la guerre israélienne à Gaza d’être antisémites.

Plusieurs des diffuseurs de désinformation qu’OpenAI a bannis de sa plateforme étaient déjà connus des chercheurs et des autorités. Le Trésor américain sanctionné deux hommes russes en mars qui auraient été à l’origine de l’une des campagnes détectées par OpenAI, tandis que Meta a également banni Stoic de sa plateforme cette année pour avoir violé ses politiques.

Le rapport souligne également comment l’IA générative est intégrée aux campagnes de désinformation comme moyen d’améliorer certains aspects de la génération de contenu, comme la publication de messages plus convaincants en langue étrangère, mais qu’elle n’est pas le seul outil de propagande.

« Toutes ces opérations utilisaient l’IA dans une certaine mesure, mais aucune ne l’utilisait exclusivement », indique le rapport. « Au lieu de cela, le matériel généré par l’IA n’était qu’un des nombreux types de contenu qu’ils publiaient, aux côtés de formats plus traditionnels, tels que des textes écrits manuellement ou des mèmes copiés sur Internet. »

Bien qu’aucune des campagnes n’ait eu d’impact notable, leur utilisation de la technologie montre à quel point les acteurs malveillants découvrent que l’IA générative leur permet d’augmenter leur production de propagande. La rédaction, la traduction et la publication de contenu peuvent désormais être effectuées plus efficacement grâce à l’utilisation d’outils d’IA, abaissant ainsi la barre en matière de création de campagnes de désinformation.

Au cours de l’année écoulée, des acteurs malveillants ont utilisé l’IA générative dans des pays du monde entier pour tenter d’influencer la politique et l’opinion publique. L’audio Deepfake, les images générées par l’IA et les campagnes textuelles ont tous été utilisés pour perturber les campagnes électorales, ce qui a entraîné une pression accrue sur des entreprises comme OpenAI pour qu’elles restreignent l’utilisation de leurs outils.

OpenAI a déclaré qu’elle prévoyait de publier périodiquement des rapports similaires sur les opérations d’influence secrètes, ainsi que de supprimer les comptes qui violent ses politiques.


Source link