Créer un faux Tom Cruise, pas à la portée du premier venu

0

Trois mois de travail, une équipe de professionnels du multimédia et un acteur dont les traits du visage ressemblaient à ceux de Tom Cruise: c’est ce qu’il a fallu pour réaliser les « deepfake », ou hypertrucages, de l’acteur qui ont beaucoup fait jaser à la fin-février. Autant dire que « l’exploit » n’est pas à la portée de tous.

Mises en ligne à la fin-février sur TikTok, les courtes vidéos (moins d’une minute chacune) ont créé une forte impression, tant elles semblaient être des vidéos du « vrai » Tom Cruise (faisant un tour de magie avec une pièce de monnaie, jouant au golf, trébuchant tandis qu’il marche dans une maison). Bien qu’elles aient tout de suite été identifiées comme des faux, aucune explication ne les accompagnait. Jusqu’à ce que leur auteur, Chris Ume, un expert en effets visuels de 31 ans vivant en Belgique, ne sorte de l’ombre le 1er mars.

De l’avis des experts, ce sont les exemples les plus réalistes de « deepfake », ou hypertrucages, produits depuis qu’on parle de ce phénomène.

Une autre fausse vidéo de Tom Cruise avait été mise en ligne par Ume et son équipe en janvier, et pour celle-ci, il avait été clairement établi qu’un acteur, Miles Fisher, avait été utilisé, dont les traits ressemblaient à ceux de Cruise. Dans des entrevues accordées ces derniers jours aux médias, Ume a identifié Fisher comme étant « l’imitateur » de Cruise dont ils avaient besoin pour rendre le faux plus crédible.

Enfin, Ume n’est pas le dernier venu, ajoute le magazine Fortune: il est « bien connu parmi le petit cercle des artistes en effets visuels et experts en apprentissage machine » et il fait partie d’un studio de nerds créé par les producteurs de la série South Park.

Tout cela renvoie à une réalité plusieurs fois soulignée depuis trois ans qu’on s’inquiète de l’impact des deepfake: il faut beaucoup d’efforts, et réunir beaucoup de talents et d’argent pour créer des vidéos crédibles. « Ce n’est pas quelque chose que vous pouvez faire à la maison », note Ume en entrevue. Or, à ceux qui s’inquiètent de l’impact que ces vidéos auront sur la désinformation, des études ont démontré qu’une fausse manchette accompagnant un faux texte peut avoir le même impact, en beaucoup moins de temps et pour beaucoup moins cher.

Et c’est sans compter le fait que depuis trois ans, la principale application des deepfake a été… la pornographie.

Abonnez-vous à l’infolettre!

Encouragez Pieuvre.ca


Autres contenus:

37 milliards d’informations ont fuité en 2020

Partagez

À propos du journaliste

Agence Science-Presse

Répondre