La « vidéo virale de Rashmika Mandanna » met encore une fois en lumière le problème des deepfakes de Big Tech | Actualités technologiques

Un acteur indien populaire entrant dans un ascenseur avec des vêtements révélateurs. Des supporters de football dans un stade de Madrid brandissant un énorme drapeau palestinien. Une vidéo du président ukrainien Volodymyr Zelenskyy appelant ses soldats à déposer les armes. Le pape porte une doudoune Balenciaga.

Ces événements sans rapport ont quelque chose en commun : ils ne se sont jamais produits.

Et pourtant, ils faisaient partie des contenus les plus viraux sur diverses plateformes de médias sociaux. Grâce à l’intelligence artificielle (IA), qui s’est considérablement améliorée au cours de l’année écoulée, il existe désormais des plateformes qui permettent à presque n’importe qui de créer un faux convaincant en saisissant du texte dans des générateurs d’IA populaires qui produisent des images, des vidéos ou du son.

Les répercussions de la menace des faux contenus générés par l’IA, familièrement connus sous le nom de contrefaçons profondes, en particulier dans un monde polarisé et un écosystème en ligne divisé, peut avoir une portée considérable et a suscité une nouvelle inquiétude chez les législateurs du monde entier. Les grandes entreprises technologiques, dont Meta et Google, ont annoncé des mesures pour lutter contre les contenus produits à l’aide de cette technologie, mais il existe suffisamment de failles dans ces systèmes qui sont exploitées par des personnes souhaitant diffuser de tels contenus.

Des sites pornographiques entiers contenant des deepfakes d’acteurs populaires ont vu le jour. Cette technologie a également soulevé des inquiétudes quant à l’intégrité des élections, car les chercheurs pensent qu’elle pourrait être utilisée pour manipuler l’audio ou la vidéo des politiciens afin de leur donner l’impression de dire ou de faire quelque chose qu’ils n’ont jamais fait.

Offre festive

Un récent deepfake de l’acteur Rashmika Mandanna est actuellement viral sur des sites comme Instagram, où son visage a été transformé en une vidéo où l’on peut voir une femme entrer dans un ascenseur portant des vêtements révélateurs. En y regardant de plus près, il y a des moments où l’on peut décrypter que la vidéo n’est pas authentique, mais pour quelqu’un qui ne regarde pas de près, ce n’est peut-être pas le cas.

Ce clip particulier souligne également que les problèmes liés à la technologie deepfake devraient très certainement être plus importants pour les femmes, pour qui les plateformes en ligne sont déjà un endroit hostile. Les deepfakes ajoutent une nouvelle dimension aux façons dont ils peuvent être harcelés sur Internet.

Alors même que l’acteur Amitabh Bachchan a appelé à une action en justice contre le deepfake de Mandanna, le ministre d’État de l’Union chargé des technologies de l’information Rajeev Chandrasekhar a dit sur X (anciennement Twitter) que « les deepfakes sont la forme de désinformation la plus récente, encore plus dangereuse et préjudiciable, et doivent être traités par les plateformes (en ligne) ».

Déficit de confiance

Même si les deepfakes n’ont pas encore atteint un niveau où ils semblent tout à fait authentiques, la possibilité d’une désinformation générée par l’IA a laissé une empreinte psychologique et, dans certains cas, a aidé les commentateurs à rejeter le contenu authentique comme ayant été modifié par l’intelligence artificielle.

Peut-être que les commentaires en ligne sur le conflit Israël-Gaza ont mis ce point au premier plan. Les plateformes Internet comme X, Facebook et YouTube regorgent de contenus générés par l’IA, propagés par des comptes des deux côtés, montrant la destruction provoquée par le conflit depuis le 7 octobre.

Des plateformes comme X, Facebook et Twitter sont inondées de mensonges sur le conflit, et même si certaines d’entre elles ont interdit les comptes liés au Hamas, la propagande continue d’attirer des millions de regards sur Internet. Alors que les plateformes peinent à protéger les utilisateurs contre les contenus graphiques et inexacts, la confiance continue de s’effriter.

Une préoccupation réglementaire mondiale

Beaucoup de ces préoccupations ont été exposées à Bletchley Park la semaine dernière, lors du tout premier sommet mondial sur la sécurité de l’IA. Vingt-huit grands pays, dont les États-Unis, la Chine, le Japon, le Royaume-Uni, la France et l’Inde, ainsi que l’Union européenne ont convenu de signer une déclaration affirmant qu’une action mondiale est nécessaire pour lutter contre les risques potentiels de l’IA.

La déclaration intègre une reconnaissance des risques substantiels liés à une utilisation abusive intentionnelle potentielle ou à des problèmes involontaires de contrôle de l’IA frontalière, en particulier les risques de cybersécurité, de biotechnologie et de désinformation.

Cette déclaration intervient quelques jours après que le président américain Joe Biden a publié un décret visant à se prémunir contre les menaces posées par l’IA et à exercer une surveillance sur les critères de sécurité utilisés par les entreprises pour évaluer les robots d’IA génératifs tels que ChatGPT et Google Bard.

L’ordonnance oblige les entreprises d’IA à partager les résultats des tests de leurs nouveaux produits avec le gouvernement fédéral avant de mettre les nouvelles capacités à la disposition des consommateurs, entre autres.

Chandrasekhar, qui représentait l’Inde à Bletchley Park, a déclaré lors de la séance plénière d’ouverture que la militarisation représentée par les médias sociaux doit être surmontée et que des mesures doivent être prises pour garantir que l’IA représente la sécurité et la confiance.

Moins de deux semaines avant le sommet des dirigeants du G20 à New Delhi, le Premier ministre Narendra Modi avait appelé à un cadre mondial pour l’expansion des outils d’IA « éthiques ». Cette déclaration marque l’approbation au plus haut niveau du changement de position de New Delhi, passant de l’absence d’intervention juridique sur la réglementation de l’IA dans le pays à une évolution vers une formulation active de réglementations fondées sur une « approche basée sur les risques et les utilisateurs ». approche « préjudice ».

Les entreprises répondent avec des solutions technologiques

Mais même si les lois pourraient mettre du temps à porter leurs fruits, les plateformes en ligne, qui comptent des centaines de millions d’utilisateurs, continuent d’être utilisées comme armes pour propager la désinformation générée par l’IA. La menace de la technologie a incité certains d’entre eux à élaborer des politiques de plate-forme claires sur la manière dont ils traiteront les deepfakes.

Les plus lus

1
Inde contre Afrique du Sud, faits saillants de la Coupe du monde 2023 : le siècle de Kohli et le fifre de Jadeja aident l’Inde à battre l’Afrique du Sud par 243 points
2
Meurtre à Bangalore : la police arrête l’ancien conducteur de voiture d’un géologue principal

Plus tôt cette année, Google a annoncé des outils (qui s’appuient sur le filigrane et les métadonnées) pour identifier le contenu généré synthétiquement.

Selon Google, le filigrane intègre des informations directement dans le contenu d’une manière qui est conservée même grâce à une modeste retouche d’image. À l’avenir, l’entreprise construira ses modèles pour inclure dès le départ le filigrane et d’autres techniques.

« Les métadonnées permettent aux créateurs de contenu d’associer un contexte supplémentaire aux fichiers originaux, vous donnant ainsi plus d’informations chaque fois que vous rencontrez une image. Nous veillerons à ce que chacune de nos images générées par l’IA possède ces métadonnées », a écrit Sundar Pichai, PDG de Google, dans un article de blog.