Ojim.fr
Veille médias
Dossiers
Portraits
Infographies
Vidéos
Faire un don
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
Intelligence Artificielle à Radio France : le vent en poupe ?

27 octobre 2023

Temps de lecture : 6 minutes
Accueil | Veille médias | Intelligence Artificielle à Radio France : le vent en poupe ?

Intelligence Artificielle à Radio France : le vent en poupe ?

27 octobre 2023

Temps de lecture : 6 minutes

Vous allez lire un article gratuit. Mais il a un coût. Un article revient à 50 €, un portrait à 100 €, un dossier à 400 €. Notre indépendance repose sur vos dons. Après déduction fiscale un don de 100 € revient à 34 €. Merci de votre soutien. Claude Chollet

Après un premier temps d’inquiétude au sein des médias, en particulier du fait du chatbot chatGPT, il semble que le développement de l’Intelligence Artificielle (IA) commence à séduire. Au moins chez Radio France. Et cela dans un contexte où la société mère de chatGPT, OpenIA, serait à la veille d’une potentielle valorisation boursière extraordinaire.

Radio France voit « une grande alliée » en l’intelligence artificielle

Mi-sep­tem­bre se tenait à Göte­borg, en Suède, la 13e con­férence mon­di­ale sur le jour­nal­isme d’investigation (GIJN). Le 30 sep­tem­bre 2023 sur France Cul­ture, l’émission de Mat­téo Caran­ta « Réc­its d’enquête » en rendait compte sous le titre « L’IA primée à la Con­férence mon­di­ale sur le jour­nal­isme d’investigation ».

Mat­téo Caran­ta rap­pelle d’abord que l’Intelligence Arti­fi­cielle (IA) « inquiète autant qu’elle fascine » et ne peut s’empêcher d’employer une expres­sion qui poli­tise immé­di­ate­ment sa chronique : « plusieurs études con­clu­ent à la dis­pari­tion inex­orable, au grand rem­place­ment” de cen­taines de mil­liers demplois dans les années à venir ». Faut-il donc en avoir peur à ce point sem­ble dire le jour­nal­iste ? Ce serait une erreur car l’Intelligence Arti­fi­cielle (IA) « impacte aus­si le jour­nal­isme d’investigation ». Pos­i­tive­ment, ain­si que le mon­tre le titre de la chronique.

Une enquête conduite avec l’IA

Pourquoi ? « L’IA » serait « une alliée plus qu’une rem­plaçante ». Le GIJN de Göte­borg, rassem­blant plus de 2000 jour­nal­istes, en prove­nance de plus de 130 pays, lieu d’échange sur tout ce qui con­cerne le jour­nal­isme d’investigation actuel ne pou­vait pas éviter un sujet tel que l’Intelligence Arti­fi­cielle (IA). Or, par­mi les enquêtes primées, l’une a forte­ment util­isé l’Intelligence Arti­fi­cielle (IA). Il s’agit de « Couloir fur­tif, un pro­jet en six volets », enquête con­duite de con­cert par El Pais (Espagne), une ONG norvégi­en­ne spé­cial­isée dans l’Intelligence Arti­fi­cielle (IA) et un média vénézuélien, armando.info. Ce que révèle l’enquête ? Un réseau illé­gal d’exploitation de mines au Vénézuéla.

Une enquête immense, ain­si que l’indique le chroniqueur : « L’idée est de com­pren­dre l’évolution du phénomène minier au nord de l’Amazonie, car­togra­phi­er les mines d’or illé­gales dans un pays grand comme deux fois l’Allemagne, d’identifier les réseaux crim­inels et les guéril­las qui se cachent der­rière, de retrac­er les chemins ter­restres et aériens qu’empruntent l’or et la drogue qui cir­cule du Vénézuéla vers ses pays voisins et le reste du monde (…) pour vous don­ner l’enjeu, ici, il s’agit de réper­to­ri­er des pistes d’avions d’une cen­taine de mètres, cachées au coeur de la forêt ama­zoni­enne, dans un ter­ri­toire de 418 000 kilo­mètres car­rés, c’est de l’ordre de l’impossible ».

Sauf… en util­isant l’Intelligence Arti­fi­cielle (IA), ce qui a été fait dans le cadre de cette enquête. Alors, l’Intelligence Arti­fi­cielle (IA) ? Utile ou nuis­i­ble pour les médias ? À en croire cette chronique, elle serait plutôt utile, à con­di­tion de la con­sid­ér­er comme une alliée et de ne pas crain­dre de se faire grand-remplacer.

Nicolas Demorand mi-figue mi-raisin

Sur France Inter, dans sa chronique du 18 octo­bre 2023, Nico­las Demor­and s’interroge : « Com­ment chat­G­PT peut-il nous informer ? ». Le jour­nal­iste sem­ble ne plus savoir que penser : l’Intelligence Arti­fi­cielle (IA), alliée ou enne­mie du jour­nal­isme ? Intro­duc­tion : « Avec la pos­si­bil­ité de créer de fauss­es images plus vraies que nature, c’est plutôt la peur de la dés­in­for­ma­tion à grande échelle qui a accom­pa­g­né la démoc­ra­ti­sa­tion des out­ils d’intelligence arti­fi­cielle. Mais peu­vent-ils nous aider à nous informer et si oui, de quelle manière ? ».

Out­re la sur­prenante pre­mière phase qui sous-entend un lien entre dés­in­for­ma­tion et démoc­ra­ti­sa­tion, le ton a changé sur France Inter, comme dans plus en plus de médias : l’Intelligence Arti­fi­cielle (IA) deviendrait-elle une aide ? Le dis­cours cat­a­strophiste des débuts de chat­G­PT disparaît ?

Pas entière­ment. Nico­las Demor­and revient, dans cette chronique du 18 octo­bre 2023, sur une expéri­ence menée par l’institut Reuters, « à la pointe de la réflex­ion sur le jour­nal­isme ». Son objet ? Voir com­ment la plus récente et payante ver­sion de chat­G­PT informe.

Voir aus­si : Nico­las Demor­and, portrait

Résul­tats ? Chat­G­PT est lent, il a l’esprit de syn­thèse sur un dossier con­tenant de nom­breuses infor­ma­tions mais peine si on lui en demande plus. Et il radote. Con­cer­nant des sujets sen­si­bles, comme les procé­dures con­tre Don­ald Trump ou le con­flit entre Israël et Pales­tine, selon Demor­and, le robot four­nit bien des répons­es avec des sources diver­si­fiées mais il est pru­dent, appelant à la vig­i­lance, indi­quant que tout dépend des opin­ions poli­tiques de cha­cun. Par con­tre, chat­G­PT écrit sans souci un édi­to­r­i­al « pro Trump, pro Israël ou pro Hamas ».

Finale­ment, Nico­las Demor­and ne nous apprend pas grand-chose que nous ne sachions déjà, recy­clant des infor­ma­tions déjà anci­ennes, comme les sujets sen­si­bles, à l’image de Reuters. Cepen­dant, le jour­nal­iste n’est plus aus­si réti­cent qu’autrefois mal­gré une chronique en forme de cri­tique. Sa con­clu­sion ? « On n’est qu’au tout début de l’aventure ». Et sur ce point, il a peut-être rai­son, comme le mon­tre la val­ori­sa­tion en cours de la société mère de chat­G­PT, Ope­nAI. Le con­texte mon­di­al paraît très favor­able au développe­ment de l’Intelligence Arti­fi­cielle (IA).

OpenAI à l’orée d’une incroyable valorisation

D’après La Tri­bune du 27 sep­tem­bre 2023, « Ope­nAI, la start­up cal­i­forni­enne qui a créé chat­G­PT, envis­age de ven­dre des actions, une opéra­tion qui la val­oris­erait à 80 mil­liards de dol­lars, voire 90 mil­liards, selon le Wall Street Jour­nal, soit trois fois plus qu’il y a un an au moment du lance­ment de cette inter­face d’intelligence arti­fi­cielle (IA) généra­tive qui a séduit des mil­lions de gens ». 

Un an après seule­ment… Il faut dire que l’entreprise a annon­cé qu’elle tablait sur un mil­liard de chiffre d’affaire en 2023, plusieurs mil­liards en 2024. Il n’est donc pas éton­nant qu’un frémisse­ment de change­ment de regard sur sa capac­ité à informer com­mence à appa­raître dans les médias. La méth­ode ? Ope­nAI compterait autoris­er ses employés à ven­dre leurs actions. La cause ? La capac­ité des out­ils d’Intelligence Arti­fi­cielle (IA) et de chat­G­PT de pro­duire de l’écrit, du son, du code et des images sur une sim­ple requête génér­erait un engoue­ment mon­di­al et une telle valorisation.

Dif­fi­cile de ne pas imag­in­er que tous ces out­ils vont peu à peu s’installer dans les médias tra­di­tion­nels et, sans doute, en rem­plac­er cer­tains pans. À suivre…

Voir aus­si : Com­ment l’intelligence arti­fi­cielle pour­rait trans­former les médias

Cet article GRATUIT vous a plu ?

Il a pourtant un coût : 50 € en moyenne. Il faut compter 100 € pour un portrait, 400 € pour une infographie, 600 € pour une vidéo. Nous dépendons de nos lecteurs, soutenez-nous !

Vidéos à la une