Les deepfakes d’Elon Musk contribuent à des milliards de pertes liées à la fraude
Elle a vu la publicité pour la première fois sur Facebook. Et puis encore sur TikTok. Après avoir vu à maintes reprises ce qui semblait être Elon Musk offrant une opportunité d’investissement, Heidi Swan a pensé que cela devait être vrai.
« Il ressemblait à Elon Musk, sonnait comme Elon Musk et je pensais que c’était lui », a déclaré Swan.
Elle a contacté l’entreprise à l’origine du pitch et a ouvert un compte de plus de 10 000 $. L’agent de santé de 62 ans pensait qu’elle faisait un investissement intelligent dans la crypto-monnaie de la part d’un homme d’affaires et d’un investisseur valant des milliards de dollars.
Mais Swan allait bientôt apprendre qu’elle avait été victime d’une arnaque par une nouvelle vague de voleurs de haute technologie utilisant l’intelligence artificielle pour créer contrefaçons profondes.
Même en regardant les vidéos maintenant, sachant qu’elles sont fausses, Swan pense toujours qu’elles ont l’air convaincantes.
« Ils ressemblent toujours à Elon Musk », a-t-elle déclaré. « Ils ressemblent toujours à Elon Musk. »
Les escroqueries deepfake se multiplient aux États-Unis
À mesure que la technologie de l’intelligence artificielle évolue et devient plus accessible, ce type d’escroquerie devient de plus en plus courant.
Selon Deloitteun groupe de recherche financière de premier plan, le contenu généré par l’IA a contribué à plus de 12 milliards de dollars de pertes liées à la fraude l’année dernière et pourrait atteindre 40 milliards de dollars aux États-Unis d’ici 2027.
Les deux Commission fédérale du commerce et le Bureau d’amélioration des affaires ont émis des avertissements selon lesquels les escroqueries deepfake sont en augmentation.
UN étude par la société d’IA Sensity a découvert qu’Elon Musk est la célébrité la plus couramment utilisée dans les escroqueries deepfake. Une des raisons probables est sa richesse et son esprit d’entreprise. Une autre raison est le nombre d’entretiens qu’il a réalisés ; Plus il y a de contenu sur quelqu’un en ligne, plus il est facile de créer des deepfakes convaincants.
Anatomie d’un deepfake
À l’Université de North Texas à Denton, le professeur Christopher Meerdo utilise également l’intelligence artificielle. Mais il l’utilise pour créer de l’art.
« Cela ne remplacera pas les arts créatifs », a déclaré Meerdo. « Cela va simplement les augmenter et changer la façon dont nous comprenons les choses que nous pourrions faire dans le domaine de la créativité. »
Même si Meerdo considère l’intelligence artificielle comme un moyen d’innover, il en voit les dangers.
Meerdo a montré à l’équipe I-Team de CBS News Texas comment les escrocs peuvent prendre une vraie vidéo et utiliser des outils d’IA pour remplacer la voix et les mouvements de la bouche d’une personne, lui donnant ainsi l’impression de dire quelque chose de complètement différent.
Les progrès technologiques facilitent la création de vidéos deepfake. Tout ce dont une personne familiarisée avec l’IA a besoin pour en créer une est une seule image fixe et un enregistrement vidéo.
Pour le démontrer, Meerdo a pris une vidéo du journaliste d’investigation Brian New pour créer un deepfake d’Elon Musk.
Ces vidéos générées par l’IA ne sont pas parfaites, mais elles doivent simplement être suffisamment convaincantes pour tromper une victime sans méfiance.
« Si vous essayez vraiment d’arnaquer les gens, je pense que vous pouvez faire de très mauvaises choses avec cela », a déclaré Meerdo.
Comment repérer un deepfake ?
Certains deepfakes sont plus faciles à repérer que d’autres ; il peut y avoir des signes tels que des mouvements de lèvres non naturels ou un langage corporel étrange. Mais à mesure que la technologie s’améliore, il deviendra de plus en plus difficile de le déterminer simplement en regardant.
Il existe un nombre croissant de sites Web prétendant pouvoir détecter les deepfakes. À l’aide de trois vidéos deepfake connues et de trois vidéos authentiques, l’équipe I-Team de CBS News Texas a soumis cinq de ces sites Web à un test non scientifique : Logiciel profond, Attestif, DeepFake-O-Meter, Sensibilité et Détecteur de faux faux.
Au total, ces cinq outils en ligne ont correctement identifié les vidéos testées dans près de 75 % du temps. L’I-Team a contacté les entreprises avec les résultats ; leurs réponses sont ci-dessous.
Logiciel profond
Deepware, un site Web dont l’utilisation est gratuite, n’a pas réussi à signaler deux des fausses vidéos testées par l’I-Team. Dans un e-mail, la société a déclaré que les clips utilisés étaient trop courts et que pour de meilleurs résultats, les vidéos téléchargées devaient durer entre 30 secondes et une minute. Deepware a correctement identifié toutes les vidéos plus longues. Selon l’entreprise, son taux de détection est considéré comme bon pour l’industrie à 70 %.
Le rubrique questions fréquemment posées du site Web de Deepware déclare : « Les deepfakes ne sont pas encore un problème résolu. Nos résultats indiquent la probabilité qu’une vidéo spécifique soit ou non un deepfake. »
Détecteur de faux faux
Deepfake Detector, un outil qui facture 16,80 $ par mois, a identifié l’une des fausses vidéos comme étant « une voix naturelle à 97 % ». La société, spécialisée dans la détection des voix générées par l’IA, a déclaré dans un e-mail que des facteurs tels que le bruit de fond ou la musique peuvent avoir un impact sur les résultats, mais son taux de précision est d’environ 92 %.
En réponse à une question sur les conseils destinés aux consommateurs moyens, la société a écrit : « Notre outil est conçu pour être convivial. Les consommateurs moyens peuvent facilement télécharger un fichier audio sur notre site Web ou utiliser notre extension de navigateur pour analyser directement le contenu. fournir une analyse pour aider à déterminer si une vidéo peut contenir des éléments deepfake en utilisant des probabilités, la rendant accessible même à ceux qui ne sont pas familiers avec la technologie de l’IA.
Attestif
Attestiv a signalé deux des vraies vidéos comme « suspectes ». Selon Nicos Vekiarides, PDG de l’entreprise, des faux positifs peuvent être déclenchés par des facteurs tels que les graphiques et les modifications. Les deux vidéos authentiques signalées comme « suspectes » comprenaient des graphiques et des modifications. Le site propose un service gratuit, mais il propose également un niveau payant, où les consommateurs peuvent ajuster les paramètres et les étalonnages pour une analyse plus approfondie.
Bien qu’il reconnaisse qu’Attestiv n’est pas parfait, Vekiarides a déclaré que, comme les deepfakes deviennent plus difficiles à repérer à l’œil nu, ce type de sites Web est nécessaire dans le cadre de la solution.
« Notre outil peut déterminer si quelque chose est suspect, et vous pouvez ensuite le vérifier de vos propres yeux et dire : ‘Je pense que c’est suspect' », a déclaré Vekiarides.
DeepFake-O-Meter
DeepFake-O-Meter est un autre outil gratuit soutenu par l’Université de Buffalo et la National Science Foundation. Il a identifié deux des vraies vidéos comme ayant un pourcentage élevé de données générées par l’IA.
Dans un e-mail, le créateur de la plateforme ouverte a déclaré qu’une limitation des modèles de détection des deepfakes est que la compression vidéo peut entraîner des problèmes de synchronisation avec la vidéo et l’audio et des mouvements de bouche incohérents.
En réponse à une question sur la façon dont les utilisateurs quotidiens peuvent utiliser l’outil, la société a envoyé un e-mail : « Actuellement, le principal résultat présenté aux utilisateurs est la valeur de probabilité que cet échantillon soit un échantillon généré à travers différents modèles de détection. Cela peut être utilisé comme référence. si plusieurs modèles s’accordent sur la même réponse avec confiance (par exemple, plus de 80 % pour les vidéos générées par l’IA ou moins de 20 % pour les vidéos réelles). Nous développons actuellement une manière plus compréhensible d’afficher les résultats, ainsi que de nouveaux modèles capables de produire des résultats. résultats de détection complets.
Sensibilité
Le détecteur deepfake de Sensity a correctement identifié les six clips, affichant une carte thermique indiquant où la manipulation de l’IA est la plus probable.
La société propose une période d’essai gratuite pour utiliser son service et a déclaré à l’I-Team que même si elle est actuellement adaptée aux organisations privées et publiques, son objectif futur est de rendre la technologie accessible à tous.
Le regard de Paul Simon sur l’Initiative de Stanford pour guérir la perte auditive