Ojim.fr
Veille médias
Dossiers
Portraits
Infographies
Vidéos
Faire un don
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
Après l’ère des pseudo “fake news”, bienvenue dans celle du “deepfake”

L’article que vous allez lire est gratuit. Mais il a un coût. Un article revient à 50 €, un portrait à 100 €, un dossier à 400 €. Notre indépendance repose sur vos dons. Après déduction fiscale un don de 100 € revient à 34 €. Merci de votre soutien, sans lui nous disparaîtrions.

4 octobre 2020

Temps de lecture : 3 minutes
Accueil | Veille médias | Après l’ère des pseudo “fake news”, bienvenue dans celle du “deepfake”

Après l’ère des pseudo “fake news”, bienvenue dans celle du “deepfake”

Temps de lecture : 3 minutes

Alors que la chasse aux “fake news” alias infox, était devenue la nouvelle occupation des médias de grands chemins, un nouveau phénomène commence à émerger sur internet. Encore plus “fake” que les “fake news”, les “deepfake” apparaissent désormais en s’appuyant sur l’intelligence artificielle.

Deepfake”, de quoi parle-t-on ?

Le terme de “deep­fake”, “hyper­trucage” en français, a été créé pour désign­er essen­tielle­ment des tech­niques de manip­u­la­tion de l’image par l’intelligence arti­fi­cielle pour créer des fauss­es vidéos. Par exem­ple, à par­tir d’une image d’un indi­vidu, une intel­li­gence arti­fi­cielle crée une mini vidéo qui donne l’impression que cette per­son­ne parle.

De manière plus mar­ginale, le terme peut aus­si être util­isé pour par­ler de textes écrits par des intel­li­gences arti­fi­cielles afin de dif­fuser de fauss­es infor­ma­tions. La pro­duc­tion robo­t­isée de con­tenus pour informer fait déjà ses débuts chez Microsoft, il n’y a donc plus qu’un pas vers l’écriture de faux arti­cles. Cer­taines voix com­men­cent à point­er du doigt la pos­si­ble util­i­sa­tion qui pour­rait être faite de cette tech­nique pour influ­encer les futures élec­tions améri­caines. Après la para­noïa de l’influence russe, celle de l’intelligence artificielle.

Du porno au détournement politique

Le domaine dans lequel les “deep­fake” ont com­mencé à faire par­ler d’eux est celui de la pornogra­phie. Début 2018, l’actrice israéli­enne Gal Gadot avait été vic­time d’un “deep­fake” dans lequel son vis­age avait été inté­gré à une véri­ta­ble vidéo pornographique.

Depuis, leur util­i­sa­tion s’est exportée douce­ment vers d’autres cadres, dont le poli­tique. Dès 2018, un rap­port de l’IRSEM men­tion­nait l’identification de ce type de vidéos “par le départe­ment de la Défense améri­cain comme un enjeu des élec­tions de mi-man­dat de 2018”. La même année, le réal­isa­teur améri­cain, Jor­dan Peele, avait créé un “deep­fake” d’Obama pour mon­tr­er la puis­sance de cette tech­nolo­gie. Bien plus récem­ment, c’est finale­ment une vidéo qui a été détournée pour faire croire que Joe Biden dor­mait en plein interview.

Le nouveau Saint Graal : la chasse aux “deepfake”

Le “deep­fake” devient donc peu à peu une nou­velle ten­dance. Les GAFAM, alors qu’ils ont par­ticipé à leur émer­gence, se met­tent à chercher des solu­tions pour les com­bat­tre. Après Face­book en début d’année, en sep­tem­bre 2020, c’est Microsoft qui a annon­cé vouloir s’attaquer à ce prob­lème, surtout dans le cadre élec­toral. Quelques jours plus tard, Intel a présen­té une tech­nolo­gie de traque “des “deep­fake” ten­ant compte des sig­naux biologiques d’un indi­vidu” pour men­er à bien sa mission.

C’est désor­mais un nou­veau Saint Graal qui se dresse devant nous, celui de la chas­se aux “deep­fake” par les géants tech­nologiques. Suiv­is prob­a­ble­ment d’ici peu, par des ini­tia­tives sim­i­laires chez les médias de grand chemin, lais­sant présager que la cen­sure préal­able sous couleur de “lutte con­tre la dés­in­for­ma­tion” fera encore par­ler d’elle pen­dant quelque temps.