Une étude révèle que les « deepfakes » de la guerre en Ukraine sapent la confiance dans les images du conflit

Une toute première étude sur les vidéos « deepfake » de guerre a révélé que le faux contenu sapait la confiance des téléspectateurs dans les images de conflit, au point qu’ils devenaient critiques à l’égard de toutes les images provenant des zones de guerre.

L’étude, réalisée par des chercheurs de l’University College Cork (UCC), est également la première du genre à trouver des preuves de théories du complot en ligne intégrant des deepfakes.

Les deepfakes sont du matériel audiovisuel manipulé artificiellement.

La plupart des vidéos deepfake impliquent la production d’un faux « visage » construit par l’intelligence artificielle, qui est fusionné avec une vidéo authentique, afin de créer une vidéo d’un événement qui n’a jamais vraiment eu lieu.

Bien que faux, ils peuvent paraître convaincants et sont souvent produits pour imiter ou imiter un individu.

L’étude, intitulée Un nouveau type d’arme dans la guerre de propagande, a analysé près de 5 000 tweets sur X (anciennement Twitter) au cours des sept premiers mois de 2022 pour explorer la façon dont les gens réagissent aux contenus deepfakes en ligne.

La guerre entre la Russie et l’Ukraine s’est présentée comme le premier exemple réel d’utilisation de deepfakes dans une guerre.

Les chercheurs mettent en évidence des exemples de vidéos deepfakes au cours de cette guerre, notamment l’utilisation de séquences de jeux vidéo comme preuve du pilote de chasse du mythe urbain « Le Fantôme de Kiev », et un deepfake du président russe Vladimir Poutine, montrant le président russe annonçant la paix avec l’Ukraine.

L’étude a révélé que les deepfakes sapaient souvent la confiance des utilisateurs dans les images qu’ils recevaient du conflit, au point qu’ils perdaient confiance dans les images visionnées.

Outre la menace provenant du faux contenu lui-même, les chercheurs ont découvert que les véritables contacts avec les médias étaient qualifiés de deepfakes.

L’étude a montré que le manque de connaissances sur les médias sociaux a conduit à d’importants malentendus sur ce qui constitue un deepfake. Cependant, l’étude a également démontré que les efforts de sensibilisation aux deepfakes peuvent miner la confiance dans les vidéos légitimes.

Par conséquent, affirme l’étude, les médias d’information et les agences gouvernementales doivent peser les avantages des deepfakes éducatifs et du pré-bunking par rapport aux risques de saper la vérité.

John Twomey, chercheur à l’UCC, a déclaré qu’une grande partie de la désinformation analysée dans l’étude « provenait étonnamment de l’étiquetage des médias réels comme des deepfakes ».

« De nouvelles découvertes sur le scepticisme contre les deepfakes ont également émergé, notamment un lien entre les deepfakes alimentant les croyances conspiratrices et le scepticisme malsain », a-t-il déclaré.

« Les éléments de cette étude montrent que les efforts de sensibilisation aux deepfakes peuvent miner notre confiance dans les vidéos légitimes.

« Avec la prévalence des deepfakes en ligne, cela posera des défis croissants aux sociétés de médias d’information qui doivent faire attention à la façon dont elles étiquetent les deepfakes suspectés au cas où ils susciteraient des soupçons autour des médias réels. »

M. Twomey a ajouté : « La couverture médiatique des deepfakes doit se concentrer sur l’éducation des gens sur ce que sont les deepfakes, quel est leur potentiel, quelles sont leurs capacités actuelles et comment elles évolueront dans les années à venir ».

Le Dr Conor Linehan, de l’École de psychologie appliquée de l’UCC, a déclaré que les chercheurs « craignent depuis longtemps que les deepfakes aient le potentiel de saper la vérité ».

« Les vidéos deepfake pourraient miner ce que nous savons être vrai alors que les fausses vidéos sont considérées comme authentiques et vice versa », a-t-il déclaré.

Cette étude fait partie d’un travail plus large de l’École de psychologie appliquée de l’UCC examinant l’impact psychologique des deepfakes.