Ojim.fr
Veille médias
Dossiers
Portraits
Infographies
Vidéos
Faire un don
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
Intelligence Artificielle à Radio France : le vent en poupe ?

L’article que vous allez lire est gratuit. Mais il a un coût. Un article revient à 50 €, un portrait à 100 €, un dossier à 400 €. Notre indépendance repose sur vos dons. Après déduction fiscale un don de 100 € revient à 34 €. Merci de votre soutien, sans lui nous disparaîtrions.

27 octobre 2023

Temps de lecture : 6 minutes
Accueil | Veille médias | Intelligence Artificielle à Radio France : le vent en poupe ?

Intelligence Artificielle à Radio France : le vent en poupe ?

Temps de lecture : 6 minutes

Après un premier temps d’inquiétude au sein des médias, en particulier du fait du chatbot chatGPT, il semble que le développement de l’Intelligence Artificielle (IA) commence à séduire. Au moins chez Radio France. Et cela dans un contexte où la société mère de chatGPT, OpenIA, serait à la veille d’une potentielle valorisation boursière extraordinaire.

Radio France voit « une grande alliée » en l’intelligence artificielle

Mi-sep­tem­bre se tenait à Göte­borg, en Suède, la 13e con­férence mon­di­ale sur le jour­nal­isme d’investigation (GIJN). Le 30 sep­tem­bre 2023 sur France Cul­ture, l’émission de Mat­téo Caran­ta « Réc­its d’enquête » en rendait compte sous le titre « L’IA primée à la Con­férence mon­di­ale sur le jour­nal­isme d’investigation ».

Mat­téo Caran­ta rap­pelle d’abord que l’Intelligence Arti­fi­cielle (IA) « inquiète autant qu’elle fascine » et ne peut s’empêcher d’employer une expres­sion qui poli­tise immé­di­ate­ment sa chronique : « plusieurs études con­clu­ent à la dis­pari­tion inex­orable, au grand rem­place­ment” de cen­taines de mil­liers demplois dans les années à venir ». Faut-il donc en avoir peur à ce point sem­ble dire le jour­nal­iste ? Ce serait une erreur car l’Intelligence Arti­fi­cielle (IA) « impacte aus­si le jour­nal­isme d’investigation ». Pos­i­tive­ment, ain­si que le mon­tre le titre de la chronique.

Une enquête conduite avec l’IA

Pourquoi ? « L’IA » serait « une alliée plus qu’une rem­plaçante ». Le GIJN de Göte­borg, rassem­blant plus de 2000 jour­nal­istes, en prove­nance de plus de 130 pays, lieu d’échange sur tout ce qui con­cerne le jour­nal­isme d’investigation actuel ne pou­vait pas éviter un sujet tel que l’Intelligence Arti­fi­cielle (IA). Or, par­mi les enquêtes primées, l’une a forte­ment util­isé l’Intelligence Arti­fi­cielle (IA). Il s’agit de « Couloir fur­tif, un pro­jet en six volets », enquête con­duite de con­cert par El Pais (Espagne), une ONG norvégi­en­ne spé­cial­isée dans l’Intelligence Arti­fi­cielle (IA) et un média vénézuélien, armando.info. Ce que révèle l’enquête ? Un réseau illé­gal d’exploitation de mines au Vénézuéla.

Une enquête immense, ain­si que l’indique le chroniqueur : « L’idée est de com­pren­dre l’évolution du phénomène minier au nord de l’Amazonie, car­togra­phi­er les mines d’or illé­gales dans un pays grand comme deux fois l’Allemagne, d’identifier les réseaux crim­inels et les guéril­las qui se cachent der­rière, de retrac­er les chemins ter­restres et aériens qu’empruntent l’or et la drogue qui cir­cule du Vénézuéla vers ses pays voisins et le reste du monde (…) pour vous don­ner l’enjeu, ici, il s’agit de réper­to­ri­er des pistes d’avions d’une cen­taine de mètres, cachées au coeur de la forêt ama­zoni­enne, dans un ter­ri­toire de 418 000 kilo­mètres car­rés, c’est de l’ordre de l’impossible ».

Sauf… en util­isant l’Intelligence Arti­fi­cielle (IA), ce qui a été fait dans le cadre de cette enquête. Alors, l’Intelligence Arti­fi­cielle (IA) ? Utile ou nuis­i­ble pour les médias ? À en croire cette chronique, elle serait plutôt utile, à con­di­tion de la con­sid­ér­er comme une alliée et de ne pas crain­dre de se faire grand-remplacer.

Nicolas Demorand mi-figue mi-raisin

Sur France Inter, dans sa chronique du 18 octo­bre 2023, Nico­las Demor­and s’interroge : « Com­ment chat­G­PT peut-il nous informer ? ». Le jour­nal­iste sem­ble ne plus savoir que penser : l’Intelligence Arti­fi­cielle (IA), alliée ou enne­mie du jour­nal­isme ? Intro­duc­tion : « Avec la pos­si­bil­ité de créer de fauss­es images plus vraies que nature, c’est plutôt la peur de la dés­in­for­ma­tion à grande échelle qui a accom­pa­g­né la démoc­ra­ti­sa­tion des out­ils d’intelligence arti­fi­cielle. Mais peu­vent-ils nous aider à nous informer et si oui, de quelle manière ? ».

Out­re la sur­prenante pre­mière phase qui sous-entend un lien entre dés­in­for­ma­tion et démoc­ra­ti­sa­tion, le ton a changé sur France Inter, comme dans plus en plus de médias : l’Intelligence Arti­fi­cielle (IA) deviendrait-elle une aide ? Le dis­cours cat­a­strophiste des débuts de chat­G­PT disparaît ?

Pas entière­ment. Nico­las Demor­and revient, dans cette chronique du 18 octo­bre 2023, sur une expéri­ence menée par l’institut Reuters, « à la pointe de la réflex­ion sur le jour­nal­isme ». Son objet ? Voir com­ment la plus récente et payante ver­sion de chat­G­PT informe.

Voir aus­si : Nico­las Demor­and, portrait

Résul­tats ? Chat­G­PT est lent, il a l’esprit de syn­thèse sur un dossier con­tenant de nom­breuses infor­ma­tions mais peine si on lui en demande plus. Et il radote. Con­cer­nant des sujets sen­si­bles, comme les procé­dures con­tre Don­ald Trump ou le con­flit entre Israël et Pales­tine, selon Demor­and, le robot four­nit bien des répons­es avec des sources diver­si­fiées mais il est pru­dent, appelant à la vig­i­lance, indi­quant que tout dépend des opin­ions poli­tiques de cha­cun. Par con­tre, chat­G­PT écrit sans souci un édi­to­r­i­al « pro Trump, pro Israël ou pro Hamas ».

Finale­ment, Nico­las Demor­and ne nous apprend pas grand-chose que nous ne sachions déjà, recy­clant des infor­ma­tions déjà anci­ennes, comme les sujets sen­si­bles, à l’image de Reuters. Cepen­dant, le jour­nal­iste n’est plus aus­si réti­cent qu’autrefois mal­gré une chronique en forme de cri­tique. Sa con­clu­sion ? « On n’est qu’au tout début de l’aventure ». Et sur ce point, il a peut-être rai­son, comme le mon­tre la val­ori­sa­tion en cours de la société mère de chat­G­PT, Ope­nAI. Le con­texte mon­di­al paraît très favor­able au développe­ment de l’Intelligence Arti­fi­cielle (IA).

OpenAI à l’orée d’une incroyable valorisation

D’après La Tri­bune du 27 sep­tem­bre 2023, « Ope­nAI, la start­up cal­i­forni­enne qui a créé chat­G­PT, envis­age de ven­dre des actions, une opéra­tion qui la val­oris­erait à 80 mil­liards de dol­lars, voire 90 mil­liards, selon le Wall Street Jour­nal, soit trois fois plus qu’il y a un an au moment du lance­ment de cette inter­face d’intelligence arti­fi­cielle (IA) généra­tive qui a séduit des mil­lions de gens ». 

Un an après seule­ment… Il faut dire que l’entreprise a annon­cé qu’elle tablait sur un mil­liard de chiffre d’affaire en 2023, plusieurs mil­liards en 2024. Il n’est donc pas éton­nant qu’un frémisse­ment de change­ment de regard sur sa capac­ité à informer com­mence à appa­raître dans les médias. La méth­ode ? Ope­nAI compterait autoris­er ses employés à ven­dre leurs actions. La cause ? La capac­ité des out­ils d’Intelligence Arti­fi­cielle (IA) et de chat­G­PT de pro­duire de l’écrit, du son, du code et des images sur une sim­ple requête génér­erait un engoue­ment mon­di­al et une telle valorisation.

Dif­fi­cile de ne pas imag­in­er que tous ces out­ils vont peu à peu s’installer dans les médias tra­di­tion­nels et, sans doute, en rem­plac­er cer­tains pans. À suivre…

Voir aus­si : Com­ment l’intelligence arti­fi­cielle pour­rait trans­former les médias