Ojim.fr
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
Floutage : France Télévisions renonce, crainte pour des milliers de témoins

L’article que vous allez lire est gratuit. Mais il a un coût. Un article revient à 50 €, un portrait à 100 €, un dossier à 400 €. Notre indépendance repose sur vos dons. Après déduction fiscale un don de 100 € revient à 34 €. Merci de votre soutien, sans lui nous disparaîtrions.

18 mai 2024

Temps de lecture : 4 minutes
Accueil | Veille médias | Floutage : France Télévisions renonce, crainte pour des milliers de témoins

Floutage : France Télévisions renonce, crainte pour des milliers de témoins

Temps de lecture : 4 minutes

Le traditionnel floutage des visages dans les reportages télévisés est mis en danger par l’intelligence artificielle. Par prudence, France Télévisions renonce à se servir du procédé mais avec le développement d’une telle technologie, ce sont des milliers de témoins et de personnes mineures qui pourraient être exposés.

C’est une rumeur qui traîne depuis plusieurs semaines du côté de France télévi­sions et qui a finale­ment été for­mal­isée par un arti­cle du jour­nal Chal­lenges. La télévi­sion publique française craint que l’outil de floutage soit obsolète et a donc décidé de ne plus y recourir.

Un procédé utile et sécurisant… Jusqu’à présent

Le procédé est con­nu de tous. Lorsqu’un jour­nal­iste inter­roge un témoin qui s’expose en mon­trant son vis­age, il est « flouté » et sa voix est mod­i­fiée arti­fi­cielle­ment. La méth­ode peut servir dans le cadre d’enquêtes en France ou à l’étranger et con­cerne égale­ment les mineurs dont le floutage préserve l’anonymat.

Les algo­rithmes générat­ifs seraient néan­moins en train de chang­er la donne avec notam­ment en ligne de mire les travaux sur la recon­nais­sance faciale, brèche sécu­ri­taire dans laque­lle la France s’engouffre à l’instar d’États comme la Chine. Si aujourd’hui les out­ils d’intelligence arti­fi­cielle acces­si­bles au tout-venant ne per­me­t­tent pas de tromper le floutage, ils per­me­t­tent déjà de con­tourn­er le floutage léger. La vitesse des pro­grès en matière d’intelligence arti­fi­cielle peut laiss­er envis­ager que rapi­de­ment, un out­il plus pré­cis sera à la portée de tous et inévitable­ment entre les mains de per­son­nes mal intentionnées.

Les floutages passés au risque d’être démasqués

Les risques sont alors mul­ti­ples. Dans le cas des reportages sur les trafics de drogue, les riverains qui se seraient con­fiés devant les caméras pour­ront être démasqués par les organ­i­sa­tions crim­inelles. De la même manière, les témoins qui met­tent en cause les agisse­ments d’un pays (générale­ment le leur) pour­ront être con­fon­dus par des Etats dont beau­coup con­nais­sent un raidisse­ment sécuritaire.

Une des grandes inquié­tudes sur l’évolution en cours porte sur des mil­liers d’heures d’enregistrements disponible en ligne. Les nou­veaux out­ils d’intelligence arti­fi­cielle seront-ils en mesure de réé­tudi­er les vis­ages floutés ? La sécu­rité poten­tielle de mil­liers de témoin pour­rait alors être remise en cause. France TV prend le prob­lème au sérieux et a décidé de ne plus dif­fuser les « replays » de con­tenus dans lesquels des vis­ages floutés ne répon­dant pas aux nou­velles normes d’anonymisation.

Vivre sans le floutage

Pour faire sans et en atten­dant une hypothé­tique nou­velle tech­nolo­gie à la rescousse, France TV a présen­té une les « bonnes pra­tiques déon­tologiques », qui impliquent de ne plus filmer les témoins dans les envi­ron­nements qui leurs sont fam­i­liers (pro­fes­sion­nel, famil­ial, loisir…).

Face à la recon­nais­sance faciale, le doc­u­ment pré­conise égale­ment de filmer de dos et de laiss­er le vis­age hors-champs. Pour encore plus de pré­cau­tion il est même demandé au jour­nal­iste, quand cela est pos­si­ble, de sol­liciter une tierce per­son­ne à filmer de dos ou même à faire « rejouer » la scène d’entretien avec un jour­nal­iste. Une méth­ode que l’on voit déjà dans des recon­sti­tu­tions d’enquête dans des mag­a­zines crim­inels. Si le con­tenu perd en « authen­tic­ité », la méth­ode sem­ble néan­moins plus sécurisante pour les sources d’information.

Avatar artificiel

Dans les cas où ces tech­niques seraient ren­dues impos­si­bles, France TV pro­pose tout bon­nement d’ajouter un cache opaque sur le vis­age ou d’ajouter un avatar arti­fi­ciel qui sera à son tour flouté.

La « charte de l’anonymat  » de France TV admet que les séquences seront « moins regard­ables » mais insiste néan­moins « la sécu­rité de nos sources est à ce prix ».

Une intégrité jour­nal­is­tique brandie comme éten­dard mais aus­si une néces­sité de se pro­téger de poten­tielles con­damna­tions. En novem­bre 2014, France TV avait été con­damnée à vers­er 7 000 € de dom­mages et intérêts à une vic­time de vio­lences con­ju­gales après la dif­fu­sion d’un reportage sur France 2.

Contrôleur de nudité

L’initiative de France Télévi­sions s’inscrit dans une prise de con­science plus générale du monde médi­a­tique face au développe­ment de l’intelligence arti­fi­cielle. Le réseau social Insta­gram du groupe Meta (Face­book) va ain­si créer un « con­trôleur de nudité » pour détecter les pho­tos de nus envoyées à un pub­lic mineur afin de… Les flouter ! Encore fau­dra-t-il que les out­ils pour empêch­er le floutage ne soient pas entre les mains de ce jeune pub­lic. La rapid­ité des avancées en matière d’intelligence arti­fi­cielle devrait ain­si don­ner lieu à des com­bats d’ingénierie numérique interposés.