Deepfakes : une app pour échanger des visages qui inquiète Hollywood !

5

Deepfakes est apparu sur Reddit : cette application permet de remplacer le visage de n’importe qui dans des vidéos. Dont ceux des acteurs.

Deepfakes : une app pour échanger des visages qui inquiète Hollywood !

On connaissait le Face Swap qui permet aux utilisateurs d’échanger leurs visages avec leurs amis et leur famille. Mais, désormais, on peut compter sur les Deepfakes : le remplacement de n’importe quel visage dans n’importe quelle vidéo. Mais ce qui devait arriver arriva : cette banale application de face-swapping apparue sur Reddit a entraîné l’explosion de faux films pornos de célébrités sur internet.

Deepfakes : de simples échanges de visages ?

En décembre dernier, un redditeur appelé Deepfake partage avec la communauté Reddit son activité préférée : swapper des visages de célébrités dans des vidéos pornographiques. Pour ce faire, il suffit d’avoir une dizaine de photos et quelques vidéos pour que l’algorithme échange n’importe quel visage. Et le résultat est plutôt convaincant.

Le créateur des Deepfakes a avoué que tout le monde ne pouvait pas réaliser de telles vidéos. C’est pourquoi FakeApp, une application simple d’utilisation, permet désormais à tous, même aux débutants, de swapper par intelligence artificielle des visages de stars. Ce programme a été créé par Deepfake en personne. Il souhaite que les utilisateurs alimentent le pipeline de création.

Les fausses vidéos pornos de célébrités pullulent désormais sur le web. Personne n’y échappe : Gal Gadot (Wonder Woman), Daisy Ridley (Star Wars), Maisie Williams (Game of Thrones)… Est-ce inquiétant ? La réalité et le faux sont de plus en plus entremêlés sur le web, comme au cinéma. En effet, cette technologie a déjà été utilisée par Hollywood ; on pense par exemple au film Rogue One qui a ressuscité Peter Cushing et rajeuni Carrie Fisher.

Que pensez-vous du face-swapping ? N’hésitez pas à nous donner votre avis en commentaire !

Deepfakes : une app pour échanger des visages qui inquiète Hollywood !
4.5 (90%) 2 votes

5 COMMENTAIRES

  1. C’est de la violation d’image. Le terme violation semble bien adapté quand on connait la finalité de la chose. De là à dire que ça porte atteinte à l’image de l’artiste (c’est bien indiqué « fake » si je ne m’abuse)… Ca porte surtout atteinte à son ego. Ils pensent peut-être qu’on les voit comme des anges assexués?

  2. Ce n’est pas le pire. Le pire sera lorsque ni un humain ni une intelligence artificielle ne pourront détecter diagnostiquer constater si une vidéo est vraie ou trafiquée.
    Et donc il y risquera d’y avoir du chantage, voir des accusations, ex.: fabriquer une vidéo avec une personnalité politique avec des prostituées; ou bien comme dans des séries américaines: remplacer un meurtrier par quelqu’un d’autre dans une vidéo de caméra surveillance.

  3. Je trouve que la technologie dernière de telle avancée technologique ne devrait pas être blâmée. On devrait seulement bloquer ceux qui l’utilisent de façon malveillante. De toute façon, pour que le programme fonctionne, il faut avoir plusieurs longues (quelque heures en tout) vidéos montrent son visage de plusieurs coté. Se ne vas pas être un problème pour le commun des mortels, et pour les personnalités connues, ils ont qu’as habitué.

Laisser un commentaire

Please enter your comment!
Please enter your name here