Wtf ?! La capacité des machines à générer de fausses vidéos de personnes est devenue alarmante impressionnante. ByTedance, le géant chinois de la technologie derrière Tiktok, vient de montrer un nouveau système d’IA appelé Omnihuman-1 qui peut créer des vidéos DeepFake presque indiscernables de la réalité à la personne moyenne.
Nous sommes peut-être bien dépassés par le Point Uncanny Valley en ce moment. Les fausses vidéos d’Omnihuman-1 ont l’air étonnamment réalistes, et les sorties DeepFake du modèle sont peut-être les plus réalistes à ce jour. Jetez un œil à cette conversation Ted qui n’a jamais eu lieu.
https://www.youtube.com/watch?v=v_zjvrmhzoi
Le système n’a besoin que d’une seule photo et d’un clip audio pour générer ces vidéos à partir de zéro. Vous pouvez également ajuster des éléments tels que le rapport d’aspect et le cadre corporel. L’IA peut même modifier les séquences vidéo existantes, modifiant des choses comme les mouvements corporels et les gestes de manière effrayant réaliste.
Bien sûr, les résultats ne sont pas parfaits à 100%. Certaines poses semblent un peu éteintes, comme cet exemple gênant de tenir un verre à vin.
https://www.youtube.com/watch?v=Z8PXNNOGC9W
Il y a aussi cette conférence rendu d’IA d’Einstein où ses mains se tournent dans des directions étranges. Cependant, son visage est rendu presque parfaitement.
https://www.youtube.com/watch?v=n6hkcs2pj0q
Pourtant, la qualité globale est bien en avance sur les techniques de profondeur précédentes.
Sous le capot, Omnihuman-1 a été formé sur 18 700 heures de données vidéo en utilisant une nouvelle approche « omni conditions » qui lui permet d’apprendre de plusieurs sources d’entrée comme des invites de texte, l’audio et le corps des poses simultanément. Les chercheurs de Bytedance disent que ces données de formation plus larges aident l’IA à « réduire considérablement le gaspillage de données » par rapport aux modèles DeepFake plus anciens.
Les implications de cette technologie sont préoccupantes. Deepfakes ont déjà été armées pour des campagnes de désinformation, une fraude et toutes sortes de fins néfastes au cours des dernières années. Il y a eu de nombreux incidents au cours du cycle électoral de 2024 de Deepfake Audios et des vidéos diffusés aux électeurs induits en erreur.
Les escroqueries financières ont également fait sortir des milliards de personnes l’année dernière. Un cas notable impliquait un escroc utilisant l’IA pour passer en tant que Brad Pitt, incitant une femme à envoyer 850 000 $ le mois dernier.
Compte tenu de ces incidents, des centaines d’experts en éthique de l’IA ont plaidé pour les réglementations DeepFake l’année dernière. Plusieurs États américains ont déjà adopté des lois contre des fesses de profondeur malveillantes, mais il n’y a toujours pas de législation fédérale primordiale.
La Californie, pour sa part, était sur le point de promulguer une loi qui permettait aux juges de forcer les gens à éliminer les fesses profondes et potentiellement en face d’amendes pour les afficher. Cependant, ce projet de loi a bloqué le processus législatif.
ByTedance n’a pas publié Omnihuman-1 au grand public, mais vous pouvez lire un papier sur le modèle.