Ojim.fr
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
Le plus souvent frileux, les médias contraints de très vite s’adapter à l’Intelligence Artificielle (IA)

5 octobre 2023

Temps de lecture : 5 minutes
Accueil | Veille médias | Le plus souvent frileux, les médias contraints de très vite s’adapter à l’Intelligence Artificielle (IA)

Le plus souvent frileux, les médias contraints de très vite s’adapter à l’Intelligence Artificielle (IA)

Temps de lecture : 5 minutes

Le 21 septembre 2023, le quotidien Le Monde publiait un article montrant que les médias français sont partagés entre crainte et volonté d’utiliser avec parcimonie l’Intelligence Artificielle (IA). Cela concerne l’Intelligence Artificielle (IA) génératrice d’images ou de textes, à l’image de ChatGPT par exemple.

Utiliser avec parcimonie ?

Cer­tains médias sont par­ti­c­ulière­ment ent­hou­si­astes. Il en va ain­si de Brut, média entière­ment vidéo, qui ver­rait une véri­ta­ble chance en l’utilisation de l’Intelligence Arti­fi­cielle (IA). Il s’agit même de l’opinion de l’un des cofon­da­teurs de Brut, Guil­laume Lacroix, lequel serait per­suadé que tester cette tech­nolo­gie offrirait « un for­mi­da­ble out­il de créa­tion à con­di­tion qu’il soit au ser­vice de l’information ». Mais com­ment demeur­er entière­ment « au ser­vice de l’information » en un tel domaine quand des médias sec­ondaires ou de faux médias améri­cains ou du Proche-Ori­ent ont déjà dif­fusé il y a plusieurs mois de faux jour­naux télévisés avec de faux jour­nal­istes déjà très réal­istes ? Il n’empêche que Brut veut s’essayer à l’Intelligence Arti­fi­cielle et que le jour­nal­iste Nico­las Nerrant a été chargé de créer des vidéos d’information en s’appuyant sur divers­es Intel­li­gences Arti­fi­cielles (IA). Dès ce mois d’octobre, Brut devrait expéri­menter la tra­duc­tion par Intel­li­gence Arti­fi­cielle, un logi­ciel tel que Hey­Gen per­me­t­tant de « clon­er les voix et de syn­chro­nis­er les mou­ve­ments des lèvres » des jour­nal­istes. Objec­tif ? Se dévelop­per à l’étranger. La direc­tion de Brut assure que les con­tenus seront claire­ment iden­ti­fi­ables et validés.

Cette con­cep­tion favor­able ne con­cerne d’ailleurs pas que des médias français puisque, d’après Le Monde, le média suisse Heidi.news utilise déjà l’Intelligence Arti­fi­cielle (IA), autrement dit des algo­rithmes, pour l’écriture mais aus­si le tri et l’organisation de l’information. Dans le même temps, le New York Times recrute « un rédac­teur en chef chargé de l’Intelligence Arti­fi­cielle (IA) généra­tive ».

Tout est loin d’être parfait dans le meilleur des mondes de l’Intelligence Artificielle (IA)…

Le Monde tente de démon­tr­er que les craintes sont trop impor­tantes par rap­port à la réal­ité. Pourquoi ? D’abord, Chat­G­PT ou Bard, de Google, n’écriraient pas des arti­cles iden­tiques à ceux des jour­nal­istes. Pour le moment ? L’exemple emblé­ma­tique de Buz­zFeed, se pré­cip­i­tant dès jan­vi­er 2023 dans l’utilisation de l’Intelligence Arti­fi­cielle (IA) en a mon­tré les lim­ites, pro­posant des con­tenus mal­adroits, répéti­tifs et con­tenant sou­vent de fauss­es infor­ma­tions. Cepen­dant, cela date de bien­tôt une année et une année, en matière d’Intelligence Arti­fi­cielle (IA), c’est un temps très long. News­Guard aurait iden­ti­fié près de 500 sites pro­duisant des arti­cles écrits par des chat­bots dans le monde, arti­cles qu’elle con­sid­ère comme de petite taille et « peu fiable ».

Le monde de l’audiovisuel se mon­tr­erait frileux, même si la chaîne suisse M le Média fait présen­ter la météo par une présen­ta­trice virtuelle. Dans les couliss­es de TF1, la frilosité n’implique pas rejet. Ain­si, pour le PDG Rodolphe Belmer, l’Intelligence Arti­fi­cielle pour­rait être util­isée dans le futur mais dans des domaines tels que les effets spé­ci­aux. Une posi­tion très floue.

Voir aus­si : Chat­G­PT : pre­miers dan­gers et entrée en scène de la pro­pa­gande idéologique générée par l’Intelligence Artificielle

…mais cela évolue vite, très vite

Plusieurs études ont mon­tré qu’environ 70 % des employés de tous les types d’entreprises recon­nais­sent faire appel régulière­ment à l’Intelligence Arti­fi­cielle (IA), à com­mencer par Chat­G­PT ou des logi­ciels de créa­tion d’images. Il n’est donc pas sur­prenant que ce phénomène se retrou­ve aus­si au sein des médias et que ces derniers essaient de créer les con­di­tions d’une sorte de con­trôle de l’utilisation, par exem­ple des chartes garan­tis­sant des usages encadrés (Les Échos-Le Parisien, Le Figaro, Le Monde…).

Cepen­dant, l’Intelligence Arti­fi­cielle (IA) va très vite. Ain­si, Chat­G­PT est en passe d’être directe­ment con­nec­té à inter­net, avec deux con­séquences impor­tantes pour les médias.

En pre­mier lieu, le chat­bot ne sera plus lim­ité pour les infor­ma­tions récentes. C’est un point cru­cial. Jusqu’à présent, ses don­nées se lim­i­taient à 2021. L’information a été indiquée par Ope­nIA sur X (ex-Twit­ter), le 27 sep­tem­bre 2023. Chat­G­PT va donc pou­voir exploiter des don­nées à jour et fiables mais aus­si les reli­er directe­ment aux sources. Il devient ain­si pos­si­ble d’utiliser le chat­bot d’OpenIA de manière actu­al­isée. De plus, cela va éviter ce que les habitués nom­ment les « hal­lu­ci­na­tions » de Chat­G­PT, quand il répond n’importe quoi puisque ses don­nées n’étaient pas actu­al­isées. L’un des objec­tifs claire­ment affir­mé d’OpenIA est de ne pas être dépassé dans le cadre de l’actualité.

Ce type d’évolution rapi­de ne peut qu’obliger les médias tra­di­tion­nels à s’adapter rapi­de­ment eux-aus­si. Il devient bien plus facile d’écrire un arti­cle avec une Intel­li­gence Arti­fi­cielle (IA) à jour sur le plan de l’actualité. D’une cer­taine manière, la néces­sité d’une adap­ta­tion est déjà inté­grée puisque les édi­teurs de presse et acteurs de l’audiovisuel cherchent à négoci­er une forme de rémunéra­tion pour l’utilisation de leurs informations…

Reste une don­née impor­tante : le fac­teur humain. L’écriture à l’aide de chat­bots dépend des com­pé­tences de l’utilisateur. S’il ne sait pas inter­roger cor­recte­ment une Intel­li­gence Arti­fi­cielle (IA) telle que Chat­G­PT il obtient n’importe quoi, un style mal­adroit etc. Quand il devient expert, cela donne des arti­cles indé­tecta­bles. C’est le cas sur les sites spé­cial­isés dans le domaine du numérique, qui indiquent claire­ment quand ces arti­cles sont pro­duits par Intel­li­gence Arti­fi­cielle (IA). Dans un futur très proche, les médias risquent fort d’avoir à informer sur l’origine de la pro­duc­tion de leurs informations.