Ojim.fr
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
PUBLICATIONS
Yann Barthès, Dilcrah, Netflix, Frontex, Bellingcat... Découvrez les publications papier et numériques de l'Observatoire du journalisme.
→ En savoir plus
ChatGPT : premiers dangers et entrée en scène de la propagande idéologique générée par l’Intelligence Artificielle

L’article que vous allez lire est gratuit. Mais il a un coût. Un article revient à 50 €, un portrait à 100 €, un dossier à 400 €. Notre indépendance repose sur vos dons. Après déduction fiscale un don de 100 € revient à 34 €. Merci de votre soutien, sans lui nous disparaîtrions.

26 juillet 2023

Temps de lecture : 10 minutes
Accueil | Veille médias | ChatGPT : premiers dangers et entrée en scène de la propagande idéologique générée par l’Intelligence Artificielle

ChatGPT : premiers dangers et entrée en scène de la propagande idéologique générée par l’Intelligence Artificielle

Temps de lecture : 10 minutes

Pre­mière dif­fu­sion le 14 févri­er 2023

Nous présentions il y a quelques jours le fameux “ChatGPT”, mis au point par la société américaine OpenAI. Il s’agit encore d’un robot (en attendant mieux ou pire) en forme de prototype d’agent conversationnel. C’est donc un « outil de langage » destiné à tous les usages numériques et qui s’auto-perfectionne à force d’être utilisé.

Le Chat et les autres félins

Ain­si, chaque util­isa­teur (cent mil­lions de per­son­nes dans le monde au 7 févri­er) con­tribue à faire de Chat­G­PT une IA con­ver­sa­tion­nelle de plus en plus per­for­mante. C’est avant tout un « chat­bot » amélioré qui per­met à l’utilisateur de dia­loguer avec un assis­tant virtuel, mais suff­isam­ment amélioré pour reléguer des chat­bots tels que Siri (Apple) à une époque d’avant l’âge de pierre. De même que Chat­G­PT est lui aus­si des­tiné, à court terme, à être relégué à la préhis­toire de l’IA.

À peine Chat­G­PT débar­qué aux États-Unis début décem­bre 2022, Google et Microsoft pré­paraient leurs ripostes, venues début févri­er 2023 : cha­cune des méga-entre­pris­es cher­chant la meilleure alliance avec Ope­nAI ou lançant à son tour son pro­pre chat­bot con­cur­ren­tiel sur le marché. C’est d’ores et déjà le cas pour Google, avec Bard, un équiv­a­lent de Chat­G­PT, et pour des entre­pris­es comme Aliba­ba par exem­ple, troisième entre­prise chi­noise à annon­cer la nais­sance de son bot équiv­a­lent. Pour l’heure, Microsoft vient de lancer la nou­velle ver­sion de son moteur de recherche Bing, ali­men­té juste­ment par ChatGPT.

La guerre de l’IA est déclenchée

Selon David Bar­roux (Radio Clas­sique, 9 févri­er 2023), dans un monde où pour la pre­mière fois, l’IA est réelle­ment util­is­able par tout le monde, « la guerre de lIA ne fait que com­mencer mais elle sannonce, en tous les cas, sans pitié ». Il est vrai qu’une déc­la­ra­tion telle que celle de Satya Nadel­la, PDG de Microsoft, pour qui « tout ce qui peut nuire aux revenus de Google est bon à pren­dre » donne le ton. L’anticipation a quit­té le monde des romans dits de sci­ence-fic­tion (qui trait­ent de la réal­ité depuis longtemps en fait) et inté­gré le monde réel. Voilà, la réal­ité de Chat­G­PT : le roman a rem­placé le réel. Et la guerre va vite, elle com­porte donc son lot de dom­mages col­latéraux (dont l’être humain pour­rait assez vite faire par­tie). Ain­si, Le Monde rap­por­tait le 9 févri­er 2023 que Google a per­du 7 % à la Bourse de New York, suite à une réponse erronée de Bard, son nou­veau chat­bot con­ver­sa­tion­nel con­cur­ren­tiel de Chat­G­PT (n’a‑t-il pas été mis sur le marché un peu vite étant don­né le lance­ment effec­tué par Ope­nAI ?). Reste que les IA de ce type ont et vont avoir de mul­ti­ples appli­ca­tions dans le monde de la finance, faire et défaire des empires économiques en quelques instants… Peut-être même men­ac­er la sta­bil­ité (si l’on peut dire) libérale mon­di­al­iste ? Provo­quer un chaos général­isé ? Qui sait ?

Gratuit, tout au moins au début

Le marché est gra­tu­it au départ puis avec des ver­sions dont les tar­ifs devraient tourn­er autour de 20 euros. Aisé d’accès, quand les listes d’attente n’existeront plus, acces­si­ble finan­cière­ment, utile dans tous les domaines sans excep­tion, depuis la cor­rec­tion de copies de math­é­ma­tiques, pour un jeune pro­fesseur, à la recette de cui­sine pour une mamie, en pas­sant par la rédac­tion d’un arti­cle (cela se fai­sait déjà avec des bots moins per­for­mants et très repérables) ou d’une dis­ser­ta­tion par un étu­di­ant. Dans ce dernier cas, nom­bre d’universités améri­caines et chi­nois­es en ont déjà inter­dit l’utilisation, ain­si que Sci­ences Po en France. Il est vrai que le jour­nal­iste et essay­iste spé­cial­isé, améri­cain et pro­gres­siste, Dan Gilmor, l’ayant testé, a pu con­clure que Chat­G­PT pro­dui­sait le tra­vail d’un bon étu­di­ant et que « le monde académique allait avoir de sérieux prob­lèmes à affron­ter » (The Guardian, 4 décem­bre 2022). Or, si une IA auto-évo­lu­tive pro­duit le tra­vail de bon étu­di­ants, travaux for­matés par essence, travaux qua­si tous pro­gres­sistes, au moment pré­cis où ils sont rédigés, cela entraine en effet des prob­lèmes spé­ci­fiques, évidem­ment trop nom­breux pour être tous soulevés ici, dont celui des biais idéologiques induits par le for­matage poten­tiel lié à Chat­G­PT comme à ses con­cur­rents. Et cela ne vaut pas unique­ment pour une pro­duc­tion étu­di­ante mais tout autant pour le jour­nal­isme, et plus générale­ment pour tout ce qui joue un rôle d’influenceur dans toutes les formes de médias.

ChatGPT, miroir du monde qu’il reflète

Pro­duit comme l’ensemble du numérique et de tout ce qui a trait à l’Intelligence Arti­fi­cielle dans le cadre d’une idéolo­gie pro­gres­siste dite « de gauche », à la fois libérale sur le plan économique et lib­er­taire sur le plan socié­tal, Chat­G­PT n’est pas neu­tre sur le plan idéologique. Il reflète la vision du monde de ses con­cep­teurs et développe, majori­taire­ment, même s’il est tou­jours pos­si­ble de trou­ver quelques con­tre-exem­ples, une con­cep­tion idéologique libérale-lib­er­taire du monde et de la poli­tique. Bien sûr, ses infor­ma­tions ne sont pour l’instant (en tout cas) pas tou­jours exactes (à l’image de celles de Wikipé­dia par exem­ple). Un exem­ple devenu viral ? À la ques­tion de savoir « Quel est le plus grand pays d’Amérique cen­trale en dehors du Mex­ique », Chat­G­PT a répon­du qu’il s’agit du Guatemala. Or, c’est le Nicaragua. Chat­G­PT a inter­prété la ques­tion en ter­mes de pop­u­la­tion et non de super­fi­cie. Le genre de détails que les équipes d’OpenAI cor­rigeront aisé­ment et qui ne sont pas réelle­ment le souci. Non, le prob­lème provient plutôt de la façon dont Chat­G­PT, et surtout ses futurs suc­cesseurs, peut façon­ner les con­sciences et faire dis­paraître pro­gres­sive­ment des pans entiers des pen­sées non-con­formistes. Par­mi les nom­breux exem­ples remar­qués, et ici choi­sis dans une masse quo­ti­di­en­nement exponentielle :

Clinton élue aux États-Unis

Dès le 17 jan­vi­er 2023, Nate Hochman ten­tait d’avertir sur les biais idéologiques de Chat­G­PT, dans un arti­cle remar­qué (dans les mon­des anglo-sax­on et asi­a­tique, le con­ti­nent européen étant comme à son habi­tude très en retard en ce domaine), dans la con­ser­va­trice et améri­caine Nation­al Review. Il sig­nalait par exem­ple que l’IA lui indi­quait qu’Hillary Clin­ton avait en réal­ité gag­né l’élection prési­den­tielle améri­caine con­tre Trump, que nom­bre de représen­tants élus répub­li­cains avaient volé leur élec­tion — entre autres nom­breux fan­tasmes de la dés­in­for­ma­tion libérale lib­er­taire. Par con­tre, toute pen­sée dif­férente et con­ser­va­trice est réfutée ou min­imisée au nom de la lutte con­tre… la même dés­in­for­ma­tion. Chat­G­PT pense pro­gres­siste sur de nom­breux sujets, comme l’idéologie trans­genre, la présence de livres avec des héros drag-queens dans les écoles améri­caines, un débat très impor­tant actuelle­ment aux États-Unis, dont qua­si aucun média français ne rend évidem­ment compte. Comme sou­vent dans la « pen­sée » pro­gres­siste, il y a les gen­tils et les méchants, et un out­il numérique dévelop­pé par des « gen­tils » a aus­si pour objet de lut­ter con­tre les « méchants ». Qui penserait le contraire ?

Chaque fois que Nate Hochman a posé une ques­tion atten­dant une réponse neu­tre ou, pourquoi pas, con­ser­va­trice, Chat­G­PT a répon­du soit de manière pro­gres­siste (ain­si, l’IA répond que « Les femmes trans­gen­res sont des femmes » — posi­tion en con­tra­dic­tion avec une majorité crois­sante d’Américains, selon un sondage Pew, mai 2022), soit qu’il eût biais idéologique, soit que la ques­tion sortât de ses lim­ites de capac­ité. Pour l’auteur, il ne fait pas de doute que des tech­nolo­gies telles que Chat­G­PT imposent un point de vue net­te­ment progressiste.

Détournement de démocratie ?

Dans le New York Times du 15 jan­vi­er 2023, Nathan E. Sanders et Bruce Schneier, chercheurs dans le domaine des don­nées numériques et de la sécu­rité, affir­ment que « Chat­G­PT détourne la démoc­ra­tie ». Selon eux, tout ce qui a trait à l’écriture est men­acé. La ques­tion, ici, ne porte pas sur le vote mais sur le lob­by­ing. Chat­G­PT pour­rait influ­encer à une échelle inédite un proces­sus de déci­sion con­cer­nant l’ensemble de la société en ciblant tout un réseau sur un prob­lème don­né, du séna­teur jusqu’aux com­men­taires sur un réseau social ou dans un jour­nal, en pas­sant par des mails adressés aux bonnes per­son­nes, avec des propo­si­tions lég­isla­tives pré-for­matées (le 9 févri­er 2023, un juge colom­bi­en indi­quait avoir util­isé Chat­G­PT pour ren­dre une déci­sion de jus­tice). Asso­cié à nom­bre d’autres inter­ven­tions de cette sorte, à côté desquelles les accu­sa­tions récentes de manip­u­la­tion d’élections parais­sent bien peu de choses, cela provo­querait des évo­lu­tions (pro­gres­sistes) fondées sur des don­nées, et donc des déci­sions non directe­ment imputa­bles à des humains, dans des pans entiers de nos sociétés. La réponse toute prête n’aurait ain­si plus qu’à être util­isée. Cela sem­ble aber­rant ? Sans doute… Un peu comme l’apparition des pre­miers plats cuis­inés tout prêts quand il suff­i­sait de cuisin­er. Et comme pour cet exem­ple, l’IA va faire la même chose beau­coup plus vite — et en moins bon pour la san­té publique.

Pour une fois, bien que les angles soient dif­férents, la Nation­al Review et le New York Times sont d’accord.

Complotisme, mon beau souci

D’accord ? Pas sur tout, cepen­dant. Le 8 févri­er 2023, le New York Times son­nait l’alarme. Tiffany Hsuet et Stu­art A. Thomp­son don­nent alors à lire un arti­cle mon­trant que les chercheurs sont extrême­ment inqui­ets. Des chercheurs ont pro­posé des textes et des ques­tions émail­lés de ques­tions et de théories du com­plot à Chat­G­PT. Ils demandaient des répons­es en forme d’articles de jour­naux, d’essais com­plets ou de scé­nar­ios de séries. Pour les chercheurs, de divers insti­tuts, il n’y a aucun doute : un out­il tel que Chat­G­PT per­me­t­tra de dif­fuser à une échelle incroy­able et avec une rapid­ité inédite, dans tous les domaines, sous toutes les formes, les idées, les théories (par nature com­plo­tistes, de leur point de vue) con­ser­va­tri­ces. Chat­G­PT, c’est, selon eux, un out­il pour tous les futurs Pou­tine ou Trump. Pas pour les démoc­rates (dans les rangs desquels ils se rangent). Un exem­ple ? Con­cer­nant les tueries de masse, Chat­G­PT affirme que les médias et les par­tis poli­tiques pro­gres­sistes les utilisent afin de faire avancer leur volon­té de lim­iter ou inter­dire les armes à feu aux États-Unis. Chat­G­PT est aus­si inter­rogé sur les vac­cins covid. Il indique que Pfiz­er a truqué ses vac­cins pour réduire le risque de mal­adies car­diaques. Est-ce vrai ? Ce n’est pas la ques­tion pour le New York Times puisque c’est com­plo­tiste. Une pré­ci­sion : toutes les ten­ta­tives visant à démon­tr­er les dan­gers com­plo­tistes de Chat­G­PT ont util­isé des idées con­ser­va­tri­ces ou non con­formistes. Et quand c’est un thème pro­gres­siste qui est util­isé ? Les chercheurs ont demandé à Chat­G­PT d’écrire un poème sur Biden. Il en est ressor­ti un éloge, le même essai sur Trump a don­né un refus de Chat­G­PT de l’écrire.

En Allemagne aussi

L’hebdomadaire alle­mand Junge Frei­heit s’intéresse aus­si de près à cette évo­lu­tion de l’Intelligence Arti­fi­cielle, claire­ment un dan­ger et un recul pour les idées n’entrant pas dans le cadre du mon­di­al­isme social-lib­er­taire pro­gres­siste. Un seul exem­ple ? À la ques­tion de savoir ce qu’est l’AfD (Alter­na­tive für Deutsch­land, par­ti tout de même con­fron­té au pou­voir dans de nom­breuses régions et peut-être à même d’y par­ticiper en Alle­magne un jour), Chat­G­PT indique que ce par­ti poli­tique est : bour­ré de préjugés, cli­vant, diviseur, qu’il promeut la peur, la dis­corde, la xéno­pho­bie con­tre les minorités, les réfugiés, les musul­mans, nie le change­ment cli­ma­tique, est sou­verain­iste, refuse l’inclusion, est con­tre l’open soci­ety et la tolérance… que sa rad­i­cal­ité « n’a pas sa place dans une société mod­erne et libre », qu’il défend « les valeurs du passé » (le lecteur com­prend aisé­ment de quoi il s’agit). Pour Junge Frei­heit, Chat­G­PT s’appuie d’autant plus sur la cen­sure que le bot s’améliore par expéri­ence, autrement dit par l’utilisation. Plus de don­nées pro­gres­sistes seront pro­posées à cette IA, plus elle sera pro­gres­siste. C’est peut-être pour cette rai­son que les prin­ci­paux financiers d’OpenIA, l’entreprise créa­trice de Chat­G­PT, com­por­tent Microsoft et les créa­teurs de Pay­Pal, peu sus­cep­ti­bles d’être défi­nis comme des gages de la lib­erté d’expression.