Pourquoi la désinformation sanitaire flambe sur X : L’anatomie d’une crise
Si vous avez l’impression que votre fil d’actualité X (anciennement Twitter) est de plus en plus saturé de fausses informations médicales, de remèdes miracles douteux ou de théories du complot antivax, vous ne rêvez pas. Ce n’est pas une simple impression subjective, mais la conséquence directe de choix techniques et économiques opérés depuis le rachat de la plateforme.
X est passé d’un outil de veille sanitaire mondiale à un amplificateur de confusion. Voici pourquoi cette transformation est structurelle.
1. L’illusion de la légitimité : Le problème du « Badge Bleu »
C’est le changement le plus visible et le plus dommageable pour la santé publique. Historiquement, la certification (le badge bleu) servait de carte d’identité numérique. Elle garantissait qu’un compte nommé « Hôpital de Paris » ou « Dr. Dupont » était bien tenu par l’institution ou la personne concernée.
Aujourd’hui, ce badge certifie une seule chose : la capacité de payer un abonnement mensuel. Cette marchandisation de la crédibilité permet à des comptes propageant de la pseudo-science d’acheter, pour quelques euros, la même apparence visuelle de légitimité que des organismes de santé officiels. Pour l’utilisateur moyen qui scrolle rapidement, la distinction entre un expert et un imitateur est devenue floue.
2. La visibilité à vendre : L’algorithme mercenaire
Le problème de l’abonnement « Premium » ne s’arrête pas au badge. Il modifie profondément l’algorithme de visibilité. X a officiellement annoncé prioriser les publications et les réponses des abonnés payants.
Concrètement, si une fausse information est publiée et qu’un médecin (non-abonné) la corrige factuellement, sa réponse sera souvent reléguée en bas de page, invisibilisée. À l’inverse, les commentaires de soutien à la fausse information, s’ils proviennent de comptes payants, s’afficheront tout en haut. La viralité ne se mérite plus par la pertinence, elle s’achète.
3. Le vide laissé par la modération
La réduction drastique des équipes « Trust and Safety » et l’annulation des politiques spécifiques contre la désinformation (notamment sur le COVID-19) ont laissé le champ libre. L’intelligence artificielle utilisée pour modérer peine à saisir les nuances scientifiques ou l’ironie, laissant passer des contenus que des modérateurs humains auraient interceptés.
Pour compenser, X mise sur les « Community Notes » (le fact-checking participatif). Si l’outil est séduisant sur le papier, il est inadapté à l’urgence sanitaire. Une fausse information spectaculaire (« Ce médicament tue ! ») voyage beaucoup plus vite que sa correction. Le temps qu’une note soit proposée, votée par consensus et affichée, le mal est fait : le post a déjà été vu des millions de fois.
4. L’exode des cerveaux
Enfin, l’écosystème humain a changé. Face à la toxicité ambiante, au harcèlement ciblé et au manque de soutien de la plateforme, une part significative de la communauté scientifique et médicale a réduit sa présence ou quitté le réseau.
La nature ayant horreur du vide, cet espace abandonné par les experts a été immédiatement colonisé par des « influenceurs santé » autoproclamés. Le débat contradictoire s’est ainsi transformé en une chambre d’écho où l’émotion et l’indignation l’emportent systématiquement sur la rigueur scientifique.
En conclusion
La prolifération de la désinformation sur X n’est pas accidentelle ; elle est le produit d’une architecture qui favorise l’engagement émotionnel et les revenus d’abonnement au détriment de l’exactitude. Dans ce nouvel environnement, la vigilance individuelle est plus nécessaire que jamais : sur X, un badge bleu ne protège plus de l’erreur, il peut même la financer.