Le 11 septembre 2025, le réseau européen des fact-checkeurs (EFCSN) a publié une analyse des derniers rapports des principaux très grands moteurs de recherche et plateformes en ligne (VLOPSE’s) concernant la mise en œuvre de leurs engagements dans le cadre du Code de conduite de lutte contre la désinformation (CoCD) pour le second semestre 2024. Selon ce rapport, les plateformes, d’une manière générale, ne respectent toujours pas pleinement leurs engagements pourtant librement souscrits.
Le Code de conduite est un dispositif qui a pour objectif d’aider les plateformes et les moteurs de recherche à respecter les obligations prévues par le Digital Services Act (DSA) en termes d’identification (art.34) et de réponse (art.35) aux risques systémiques, parmi lesquels figure la désinformation. Si la désinformation ne constitue pas un contenu illicite au regard du DSA, ses techniques et outils de propagation en masse, sans contrôle, peuvent constituer un véritable risque, notamment en période électorale. Le Code est donc reconnu comme un ensemble solide d’engagements des plateformes visant à limiter la diffusion de la désinformation, en s’appuyant sur les meilleures pratiques du secteur. Ses principales mesures incluent la démonétisation des contenus trompeurs, la transparence de la publicité à caractère politique, la réduction des faux comptes, des deepfakes et des pratiques inauthentiques, ainsi que le renforcement des outils de signalement pour les usagers.
Dans le cadre de ses missions au sein du « Media Board » européen et de la taskforce au sein du CoC, le CSA et ses homologues français, allemands et slovaques avaient analysé en profondeur les évolutions de l’engagement des grandes plateformes au sein du code. À l’issue de cette analyse, il apparaissait clairement une tendance générale au désengagement des très grandes plateformes et moteurs de recherche alors même que le Code est devenu depuis le 1er juillet 2025 le maître-étalon de la lutte contre la désinformation dans le cadre du DSA.
Face à ces désengagements massifs portant sur une série de domaines tels que le fact-checking, les plateformes ne proposent pour l’heure que peu de pistes ou de solutions concrètes et convaincantes qui permettraient de rassurer les régulateurs nationaux.
L’analyse présentée dans le rapport de l’EFCSN démontre que certains VLOPSE’s qui ont ignoré leurs engagements pendant des années, les ont officiellement abandonnés en 2025 lors du processus de conversion du Code. Les inquiétudes que le CSA et ses homologues européens avaient formulées en février dernier se confirment à nouveau.
Les conclusions du rapport par VLOPSE’S :
- Malgré une volonté initiale de collaborer avec la communauté des fact-checkeurs, Google (Google Search et YouTube) s’est désengagé de la section du Code consacrée au fact-checking. YouTube ne propose aucune solution concrète pour intégrer le fact-checking à ses plateformes, tandis que Google a également supprimé son répertoire de fact-checking, pourtant efficace, ClaimReview.
- Concernant Microsoft (Bing et LinkedIn), Bing n’a fourni que peu d’informations sur sa collaboration avec les fact-checkeurs, témoignant, selon l’EFCN, d’un manque de transparence. Quant à LinkedIn, il s’est désengagé de la section du Code relative à la vérification des faits, affirmant qu’il « n’est pas proportionnel à son profil de risque », tout en s’appuyant sur un partenaire de vérification des faits unique pour couvrir toute l’Europe, « Reuters ».
- TikTok dispose d’un programme de fact-checking et reste signataire de la section du Code afférente. Cependant, son contrat d’abonnement de janvier 2025 comportait un astérisque conditionnant les engagements à l’abonnement des autres plateformes. La vérification des faits de TikTok est liée à la modération, plutôt qu’à l’interaction avec les utilisateurs.
- Pour Meta (Facebook et Instagram), le programme de fact-checking par des tiers demeure largement le meilleur. Toutefois l’EFCSN se dit préoccupé par son avenir, compte tenu de l’annonce début 2025 d’y mettre fin aux États-Unis dans un premier temps et la volonté de Meta de mettre en place un modèle de « community notes » qui a déjà montré ses premiers signes de faiblesse sur X (ex-Twitter).
Au regard de ces évolutions, le CSA rappelle que les réglementations en matière de désinformation doivent être solides et stables afin de résister à ceux qui ne sont pas prêts à assumer leurs responsabilités. L’attitude actuelle des grandes plateformes a de quoi alerter, même si ces dernières restent libres de mettre en place leurs propres mesures pour se conformer aux règles européennes. Le CSA appelle la Commission à être particulièrement vigilante quant au respect du DSA.
Au côté des autres régulateurs européens et au sein du Media Board, le CSA se tient prêt, avec la Commission européenne, les coordinateurs pour les services numériques, à faire respecter le cadre légal européen essentiel pour la protection des usagers et le renforcement de la souveraineté numérique européenne.