X

La sophistication de l’opération soutenue par l’IA ciblant le sénateur laisse présager l’avenir des systèmes de deepfake

Washington– Une opération de deepfake avancée a ciblé ce mois-ci le sénateur Ben Cardin, président démocrate de la commission sénatoriale des relations étrangères, selon le Bureau de la sécurité du Sénat, le dernier signe que des acteurs néfastes se tournent vers l’intelligence artificielle pour tenter de duper de hautes personnalités politiques du pays. les États-Unis.

Les experts estiment que de tels projets deviendront plus courants maintenant que les barrières techniques qui existaient autrefois autour de l’intelligence artificielle générative ont diminué. L’avis de la sécurité du Sénat envoyé aux bureaux du Sénat lundi indique que la tentative « se distingue par sa sophistication technique et sa crédibilité ».

Le projet était centré sur Dmytro Kuleba, l’ancien ministre ukrainien des Affaires étrangères. Le bureau de Cardin a reçu un e-mail d’une personne qu’ils pensent être Kuleba, selon l’avis, un responsable que Cardin connaissait lors d’une réunion précédente.

Lorsque les deux se sont rencontrés pour un appel vidéo, la connexion « était cohérente en apparence et en son avec celle des rencontres passées ». Ce n’est que lorsque l’appelant se faisant passer pour Kuleba a commencé à poser des questions telles que « Soutenez-vous les missiles à longue portée sur le territoire russe ? J’ai besoin de connaître votre réponse », selon laquelle Cardin et son équipe soupçonnaient que « quelque chose n’allait pas », indique l’avis du Sénat.

« L’orateur a poursuivi en posant au sénateur des questions politiquement chargées en relation avec les prochaines élections », probablement pour tenter de l’inciter à commenter un candidat politique, selon l’avis de Nicolette Llewellyn, directrice de la sécurité du Sénat. « Le sénateur et leur personnel a mis fin à l’appel et a rapidement contacté le Département d’État qui a vérifié qu’il ne s’agissait pas de Kuleba.

Cardin a décrit mercredi la rencontre comme « un acteur malveillant engagé dans une tentative trompeuse d’avoir une conversation avec moi en se faisant passer pour un individu connu ».

« Après avoir immédiatement compris que la personne avec laquelle je discutais n’était pas celle qu’elle prétendait être, j’ai mis fin à l’appel et mon bureau a pris des mesures rapides, alertant les autorités compétentes », a déclaré Cardin. « Cette affaire est désormais entre les mains des forces de l’ordre et une enquête approfondie est en cours. »

Le bureau de Cardin n’a pas répondu à une demande d’informations supplémentaires.

L’intelligence artificielle générative peut utiliser une puissance de calcul massive pour modifier numériquement ce qui apparaît sur une vidéo, modifiant parfois l’arrière-plan ou le sujet d’une vidéo en temps réel. La même technologie peut également être utilisée pour modifier numériquement le son ou les images.

Une technologie comme celle-ci a déjà été utilisée dans des projets néfastes.

Un employé de la finance à Hong Kong payé 25 millions de dollars à un escroc qui a utilisé l’intelligence artificielle pour se faire passer pour le directeur financier de l’entreprise. Un consultant politique a utilisé l’intelligence artificielle pour imiter la voix du président Joe Biden et exhorter les électeurs à ne pas voter lors de la primaire présidentielle du New Hampshire, ce qui a conduit le consultant à faire face à plus de deux douzaines d’accusations criminelles et à des millions de dollars d’amendes. Et les experts en soins aux Américains âgés s’inquiètent depuis longtemps Les deepfakes basés sur l’intelligence artificielle vont amplifier les escroqueries financières ciblant les seniors.

Les responsables de la sécurité au Sénat et les experts en intelligence artificielle estiment que cela pourrait n’être qu’un début, étant donné que les récents progrès technologiques ont rendu des projets comme celui contre Cardin non seulement plus crédibles, mais aussi plus faciles à mener.

« Au cours des derniers mois, la technologie permettant d’intégrer un deepfake vidéo en direct et un deepfake audio en direct est devenue de plus en plus facile à intégrer », a déclaré Rachel Tobac, experte en cybersécurité et PDG de SocialProof Security, qui a ajouté que les itérations précédentes de cette technologie présentaient des indices évidents qu’elles étaient fausses, allant du mouvement maladroit des lèvres aux personnes clignant des yeux à l’envers.

« Je m’attends à ce que davantage d’incidents de ce type se produisent à l’avenir », a déclaré Siwei Lyu, expert en intelligence artificielle et professeur à l’Université de Buffalo. « Toute personne ayant une intention malveillante en tête a désormais la capacité de mener ce type d’attaque. Ces problèmes peuvent provenir d’un point de vue politique, mais également d’un point de vue financier, comme la fraude ou le vol d’identité.

La note adressée au personnel du Sénat faisait écho à ce sentiment, demandant aux membres du personnel de s’assurer que les demandes de réunion sont authentiques et avertissant que « d’autres tentatives seront faites dans les semaines à venir ».

R. David Edelman, un expert en intelligence artificielle et en sécurité nationale qui a dirigé la politique de cybersécurité pendant des années à la Maison Blanche, a décrit le projet comme une « opération de renseignement sophistiquée » qui « semble assez proche de l’avant-garde » dans la façon dont il combine les utilisation de la technologie de l’intelligence artificielle avec des opérations de renseignement plus traditionnelles qui ont reconnu les liens entre Cardin et le responsable ukrainien.

«Ils ont reconnu la relation existante entre ces deux parties. Ils savaient comment ils pouvaient interagir – le moment, le mode et la manière dont ils communiquaient », a-t-il déclaré. « Il y a une sophistication dans les opérations de renseignement. »

Lien source

Harold Fortier: