Ojim.fr
Veille médias
Dossiers
Portraits
Infographies
Vidéos
Faire un don
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
Intelligence artificielle et journalisme : signature d’une « Charte de Paris »

L’article que vous allez lire est gratuit. Mais il a un coût. Un article revient à 50 €, un portrait à 100 €, un dossier à 400 €. Notre indépendance repose sur vos dons. Après déduction fiscale un don de 100 € revient à 34 €. Merci de votre soutien, sans lui nous disparaîtrions.

8 décembre 2023

Temps de lecture : 3 minutes
Accueil | Veille médias | Intelligence artificielle et journalisme : signature d’une « Charte de Paris »

Intelligence artificielle et journalisme : signature d’une « Charte de Paris »

Temps de lecture : 3 minutes

À l’initiative de Reporters sans frontières, la Charte de Paris, révélée le 10 novembre 2023, entend dessiner les principes éthiques liés à l’utilisation de l’intelligence artificielle dans le journalisme.

Les travaux ont com­mencé en juil­let 2023 : sous la houlette de Reporters sans fron­tières, asso­ci­a­tions, « experts » de l’intelligence arti­fi­cielle et représen­tants des jour­nal­istes et médias grand pub­lic ont planché sur une « Charte de Paris » des­tinée à réfléchir sur les principes éthiques des jour­nal­istes à l’heure de l’expansion de l’intelligence arti­fi­cielle. Présidée par la jour­nal­iste philipino-améri­caine Maria Ressa, la com­mis­sion des­tinée à créer cette Charte dévoilait ses principes éthiques sur l’intelligence arti­fi­cielle et le jour­nal­isme le 10 novem­bre dernier.

Derrière la Charte : des visages de l’AFP, des EGI et de France TV

Fig­ure de cir­con­stance de la « lutte con­tre la dés­in­for­ma­tion », la prési­dente de la Com­mis­sion Maria Ressa est soutenue par l’Union européenne ; ce Prix Nobel de la paix est égale­ment « en liai­son avec le comité de pilotage des États généraux de l’in­for­ma­tion (EGI) », à en croire le CESE. Par­mi les mem­bres de la Com­mis­sion impliqués dans ces mêmes États généraux, se trou­ve aus­si Camille François, enseignante en affaires publiques inter­na­tionales à la Colum­bia Uni­ver­si­ty School of Inter­na­tion­al an Pub­lic Affairs.

La com­mis­sion se com­pose par ailleurs d’Éric Scher­er, prési­dent du comité Actu­al­ités à l’Union européenne de Radio-Télévi­sion et directeur du News Médi­aL­ab ain­si que des affaires inter­na­tionales à France Télévi­sions ; Bruno Pati­no, prési­dent du direc­toire d’Arte France, ex-accroc aux réseaux soci­aux qui analyse les dom­mages causés par « le déluge numérique » ; et enfin, le très bri­tan­nique rédac­teur en chef cen­tral de l’A­gence France-Presse (AFP), Phil Chetwynd.

La soupe « démocratique » entre personnes qui pensent bien

Fort de ce comité très con­venu, la Charte en appelle à ce que « l’IA respecte les droits humains (sic), la paix et la démoc­ra­tie, et serve nos aspi­ra­tions et nos valeurs com­munes ». Selon ses rap­por­teurs, les sys­tèmes d’Intelligence Arti­fi­cielle pour­ront servir la « fonc­tion sociale du jour­nal­isme et des médias » à con­di­tion qu’ils soient util­isés de manière « trans­par­ente, équitable, respon­s­able ». S’ils prô­nent le sou­tien au « jour­nal­isme indépen­dant » (dont on sup­pose qu’il leur fau­dra néces­saire­ment partager les « valeurs com­munes » préc­itées sans que celles-ci ne soient claire­ment définies), les auteurs de la Charte enten­dent s’engager « en faveur des médias de con­fi­ance », dont il n’est pas non plus pré­cisé la définition.

Com­posée de dix points, la Charte entend en pre­mier lieu réaf­firmer la déon­tolo­gie jour­nal­is­tique face à l’IA (point 1, 10) et s’assurer qu’il revien­dra bien au jour­nal­iste de définir les choix édi­to­ri­aux (point 2, 9). Elle promeut la trans­parence dans l’utilisation des tech­nolo­gies, con­di­tion­née à la respon­s­abil­ité de leurs dif­fuseurs (point 3, 4 et 5). Elle souligne aus­si l’importance de la traça­bil­ité, la fia­bil­ité de l’information pro­duite par IA (point 6,7) et affirme la néces­sité pour ces out­ils de respecter « la diver­sité et l’intégrité de l’information », à con­di­tion qu’ils favorisent « l’ouverture d’esprit et le dia­logue démoc­ra­tique ». Vaste programme.

Voir aus­si : L’intelligence arti­fi­cielle (IA) tue déjà par champignons interposés

Vidéos à la une