L’ARCOM relance son Observatoire de la haine en ligne, créant deux groupes de travail sur le rôle des influenceurs dans la diffusion de contenus haineux et sur les CGU des plateformes comme outil de prévention. Cette initiative, saluée par le gouvernement, soulève des interrogations sur un potentiel encadrement excessif de la liberté d’expression.
Brider le débat public
L’Autorité de régulation de la communication audiovisuelle et numérique (ARCOM) a annoncé, le 17 novembre 2025, une refonte de son Observatoire de la haine en ligne, motivée par l’entrée en vigueur du règlement européen sur les services numériques (DSA). Avec un nombre de membres permanents réduit de moitié, passant d’une cinquantaine à 28, cette restructuration vise officiellement à accroître l’efficacité contre les propos jugés discriminatoires, racistes ou homophobes. Deux groupes de travail sont lancés : l’un scrutant les influenceurs et créateurs de contenus, l’autre analysant les conditions générales d’utilisation (CGU) des plateformes. Leurs conclusions, attendues fin 2026, pourraient inspirer de nouvelles régulations, au risque de brider le débat public.
Voir aussi : Martin Ajdari, portrait
Une refonte pour plus de contrôle, sous couvert d’efficacité
Cette réorganisation de l’Observatoire, présenté comme un outil stratégique pour les pouvoirs publics et la société civile, concentre les efforts sur des « tendances ou pratiques particulièrement préoccupantes ». L’ARCOM insiste sur la nécessité d’identifier les obstacles techniques, juridiques et organisationnels, pour proposer des recommandations opérationnelles aux plateformes comme le retrait de contenus illégaux ou la correction de biais algorithmiques.
Cette approche soulève des critiques. Largement contesté depuis sa création en 2021, l’Observatoire est accusé par certains observateurs de favoriser une régulation partisane, où la définition de la « haine » pourrait servir de prétexte à une censure idéologique. La réduction des membres permanents, censée fluidifier les travaux, pourrait en réalité limiter la pluralité des voix, en privilégiant des acteurs alignés sur les orientations gouvernementales. De plus, l’ARCOM salue la coalition d’associations lancée en juillet 2025 par la ministre Aurore Bergé, incluant des entités comme le Crif, la Licra ou SOS Racisme, qui bénéficieront d’un soutien financier de l’État pour devenir « signaleurs de confiance ». Le Crif est par exemple officiellement hostile au RN et à LFI qui représentent une part importante de citoyens français quand SOS Racisme est ancré dans la gauche socialiste. Ces signaleurs, habilités à rapporter prioritairement les contenus, constitueront un réseau de surveillance risquant de réduire le pluralisme, ce qui va à rebours de la mission initiale de l’ARCOM…
Les influenceurs dans le viseur : une menace pour la création libre
Le premier groupe de travail se penche sur « le rôle des influenceurs et des créateurs de contenus dans la diffusion de contenus haineux ». Dans un paysage médiatique où les voix indépendantes permettent d’ouvrir des débats ou d’imposer des sujets contre les narratifs dominants, cet aspect peut inquiéter. Des affaires récentes, comme le drame du streamer Jean Pormanove, sont invoquées pour justifier une telle surveillance. Dans cette affaire, le problème n’a pas été de déceler les violences mais de s’y opposer puisque le ministre Clara Chappaz savait et n’a rien fait, comme a pu le révéler Mediapart.
En ciblant les influenceurs, souvent porte-voix d’un discours libéré des contingences inhérentes aux médias installés, l’Arcom pourrait tout bonnement museler des voix dissidentes, sous prétexte de protection des citoyens, dans un contexte où Emmanuel Macron lui-même envisage d’interdire les réseaux sociaux aux mineurs pour lutter contre les « dérives numériques ».
Les CGU des plateformes : un outil de prévention ou de censure massive ?
Le second groupe examinera les CGU des plateformes comme levier contre les comportements haineux. En évaluant comment ces règles internes peuvent prévenir les abus, l’ARCOM espère renforcer la prévention, alignée sur le DSA européen qui impose déjà des obligations de transparence aux géants du web. Cependant, cette démarche interroge sur les limites de la régulation. Les CGU, souvent opaques et unilatérales, pourraient devenir des instruments de contrôle excessif, où les plateformes, sous pression réglementaire, optent pour une modération préventive draconienne. Des enquêtes européennes contre X pour manquements à la modération illustrent cette tension, mais soulignent aussi les risques d’un « ministère de la Vérité » dénoncé par certains eurodéputés.
À défaut de vérité, l’absence de régulation stricte permet encore un peu de liberté avec les excès que cela implique. Sans cela nous risquons de n’avoir ni la vérité, ni la liberté !
Voir aussi : Président “woke”, guerre contre Bolloré… Cinq choses à savoir sur l’ARCOM
Rodolphe Chalamel


















