Dernières Nouvelles | News 24

L’IA ouverte perturbe les opérations d’influence grâce à des outils d’intelligence artificielle comme ChatGPT

Ligne du dessus

OpenAI a identifié et perturbé cinq influencer les opérations impliquant des utilisateurs de Russie, de Chine, d’Iran et d’Israël qui utilisaient sa technologie d’IA, qui inclut ChatGPT, pour générer du contenu visant à influencer de manière trompeuse l’opinion publique et le discours politique.

Faits marquants

Les responsables de ces opérations ont utilisé l’IA pour générer du contenu partagé sur diverses plateformes, y compris du code pour les robots, et pour créer une fausse apparence d’engagement en générant des réponses fallacieuses sur les publications sur les réseaux sociaux, a indiqué la société.

Deux opérations provenaient de Russie, l’une impliquant la société bien établie Sosie campagne, qui a utilisé l’IA pour générer de faux contenus et commentaires, et l’autre impliquant une opération « non signalée auparavant » que la société appelle Bad Grammar, qui, selon OpenAI, a utilisé ses modèles pour coder un robot qui a publié de courts commentaires politiques sur Telegram.

OpenAI a déclaré que l’opération chinoise connue sous le nom de Spamouflageconnu pour ses efforts d’influence sur Facebook et Instagram, a utilisé ses modèles pour rechercher l’activité des médias sociaux et générer du contenu textuel dans plusieurs langues et sur plusieurs plateformes.

OpenAI a lié une campagne à une société de campagne politique israélienne appelée Stoïquequi a utilisé l’IA pour générer des publications sur Gaza sur Instagram, Facebook et X, anciennement connu sous le nom de Twitter, ciblant des publics au Canada, aux États-Unis et en Israël.

Les opérations ont également généré du contenu sur l’invasion de l’Ukraine par la Russie, les élections indiennes, la politique occidentale et les critiques du gouvernement chinois, a déclaré OpenAI dans son tout premier rapport. rapport sur le sujet.

Contra

OpenAI a conclu que l’IA n’a pas fait grand-chose pour améliorer la portée de ces opérations d’influence. Citant les institutions Brookings «Échelle d’évasion» qui mesure l’impact des opérations d’influence, OpenAI a déclaré qu’aucune des opérations identifiées n’avait obtenu un score supérieur à deux sur cinq, ce qui signifie que le contenu généré n’a jamais été diffusé parmi les communautés authentiques d’utilisateurs.

Contexte clé

Les opérations d’influence sur les plateformes de médias sociaux ont attiré l’attention du monde de la technologie depuis 2016, lorsque des entités parrainées par la Russie ont été identifiées essayant de semer la discorde avant l’élection présidentielle en faveur du candidat de l’époque, Donald Trump. Depuis lors, les entreprises technologiques tentent de surveiller des activités similaires, résumant souvent leurs efforts dans des rapports réguliers. Le mois dernier, Microsoft a trouvé des preuves qu’une nouvelle campagne d’influence électorale soutenue par la Russie était en cours avant les élections de 2024.

Tangente

Meta a également publié un rapport cette semaine, liant les efforts d’opération d’influence à Stoic, affirmant avoir supprimé des centaines de faux comptes Facebook et Instagram liés à Stoic. Le rapport Meta a également identifié l’IA comme source d’une partie du contenu publié par ces comptes.


Source link