DEEP FAKE
Cette semaine ChronIA, notre chroniqueuse virtuelle, s’intéresse aux dangereuses deep fake, ces vidéos trafiquées qui s’invitent sur nos murs. Pour l’instant, les nôtres sont grodwa, mais quelques geeks plus affutés sont déjà capables de créer de faux contenus indécelables.
Ces vidéos ont été réalisées en 3 clics et 3 minutes, à partir d’applications gratuites. On vous explique comment faire.
Tout commence par une petite googlelisation : hedra.com, c’est là que ça se passe. L’inscription est rapide et gratuite.
Le site propose une version découverte qui impose la mention de l’appli en filigrane sur la vidéo, un choix restreint de voix disponibles et une production quotidienne limitée.
Premier essai avec une enfant. Les quelques lignes de texte sont rapidement écrites. La voix est sélectionnée, la photo téléchargée. Un clic sur « générer la vidéo » et voilà Malya qui lance a campagne de dons.
La tentation est trop forte, il faut taper plus haut. On tente avec Macron. L’application refuse, sous prétexte que « le contenu ne respecte pas les directives pour les catégories suivantes : célébrité». Une deep fake avec un inconnu, ça limite l’impact… Déception.
Avec Marianne ça devrait passer mais l’IA est-elle suffisamment entraînée pour faire parler une statue ?
Elle est très forte. L’essai suivant tente de faire parler Asterix, mais les traits dessinés par Uderzo sont sans doute trop éloignés d’un visage humain pour être identifiables. Le résultat est déstructuré, méconnaissable. Optons pour le visage de Guillaume Canet qui a incarné le Gaulois dans une version filmée. Il nous semblait connu, mais visiblement pas par Hedra qui ne brandit pas sa censure « célébrité ».
Si elle ne connait pas Guillaume Canet, peu de chance qu’elle repère Didier Robert. L’opération est rodée. Un petit texte, le choix d’une voix, un téléchargement de photo et en moins de 3 minutes la vidéo est prête à être diffusée.
Il ne s’agit là que de la version gratuite. Avec un peu plus de sous et de motivation, l’appli propose également de cloner des voix. On essaiera une prochaine fois, tout en égrenant les risques encourus (que nous vous détaillerons une autre fois).
Et si toutes ces vidéos vous ont donné envie de faire un don pour soutenir notre action, , suivez les conseils de Malya, Marianne et Astérix, c’est juste le bon moment !
ChronIA
⚠︎ Cet espace d'échange mis à disposition de nos lectrices et lecteurs ne reflète pas l'avis du média mais ceux des commentateurs. Les commentaires doivent être respectueux des individus et de la loi. Tout commentaire ne respectant pas ceux-ci ne sera pas publié. Consultez nos conditions générales d'utilisation.