En 2023, un animateur radio américain a porté plainte contre OpenAI, accusant ChatGPT de diffamation pour avoir inventé de fausses allégations de fraude. Jugée en 2025, une affaire inédite qui interroge la responsabilité des IA génératives.
Plainte contre une accusation de détournement de fonds
Le 5 juin 2023, une plainte déposée devant la Cour supérieure du comté de Gwinnett, en Géorgie, a marqué un tournant juridique aux États-Unis. Mark Walters, animateur radio et fervent défenseur du droit aux armes, a poursuivi OpenAI, le créateur de ChatGPT, pour diffamation. Selon la plainte, le chatbot (logiciel conçu pour interagir avec des utilisateurs par des échanges textuels ou vocaux) aurait généré de fausses accusations, prétendant que Mark Walters avait détourné plus de 5 millions de dollars de la Second Amendment Foundation (SAF), une organisation pro-armes. Ces allégations, totalement fictives, ont émergé lorsque Fred Riehl, rédacteur en chef du site ammoLand.com, a demandé à ChatGPT de résumer une plainte judiciaire en lui fournissant un lien vers un document.
Intelligence artificielle pour information irréelle
L’affaire a débuté lorsque Fred Riehl, également membre du conseil de la SAF, a utilisé ChatGPT pour analyser un communiqué de presse et une plainte déposée contre le procureur général de Washington, Bob Ferguson. Si le premier résumé basé sur des extraits était correct, un second, généré à partir d’un lien URL, a introduit des informations erronées, désignant Walters comme plaignant et l’accusant de malversations financières. Fred Riehl, conscient des « hallucinations » possibles de ChatGPT, n’a pas publié ces informations et a alerté Mark Walters, qui a décidé de porter l’affaire en justice.
Jugement en faveur d’OpenAI
La plainte de Walters dénonçait des propos « faux et malveillants », susceptibles de nuire à sa réputation. Cependant, le 19 mai 2025, la juge Tracie Cason a tranché en faveur d’OpenAI, estimant que l’absence de publication des allégations par Riehl ne remplissait pas les critères d’une diffamation. Le jugement a également souligné qu’OpenAI avait pris des mesures raisonnables pour limiter les erreurs de ChatGPT, notamment en avertissant les utilisateurs de possibles inexactitudes.
Cette décision soulève des questions cruciales sur la responsabilité des développeurs d’IA génératives. Si les avertissements d’OpenAI ont protégé l’entreprise dans ce cas, l’affaire Walters pourrait servir de précédent pour d’autres litiges.
Les poursuites pour diffamation contre une IA n’en sont probablement qu’à leur prémice et leur succès dépendra de la preuve d’un préjudice réel et d’une négligence de la part du développeur.
Alors que l’IA s’intègre davantage dans les tribunaux américains, cette première plainte illustre les défis juridiques posés par les technologies génératives mais aussi le bouleversement que constitue l’IA générative en matière d’information et de responsabilité.
Rodolphe Chalamel


















