Sous Elon Musk, X est devenu une machine à manipulation de l'opinion. Refusons d'en être complices.
Reprenons le contrôle en quittant X collectivement pour des alternatives qui respectent la liberté d'expression.
De nombreuses études scientifiques démontrent que X est toxique pour ses utilisateurs et la démocratie en général.
Le fil d’actualité "For you" est l’une des principales sources d’information pour les utilisateurs de X. Or ce fil d’actualité est fortement biaisé vers les contenus toxiques. Des chercheurs du CNRS ont démontré qu’il était enrichi de +49% en contenus toxiques (insultes, attaques personnelles, obscénités, etc.) par rapport à ce que produisent vos abonnements (mesure début 2023). Pour certains comptes, l’amplification de la toxicité de l’environnement perçu peut aller jusqu’à +200% !
Cela veut dire que X met en avant ce qu’il y a de pire dans votre environnement social et biaise ainsi vos perceptions. À noter que Musk a explicitement aggravé la situation, avant son arrivée, l’amplification n’était "que" de +32%.
Or il a été démontré qu’une modification du fil d’actualité des utilisateurs a un impact direct sur leur état émotionnel et leur manière de s’exprimer. Lorsque la proportion de messages positifs est réduite, les personnes utilisateurs produisent moins de messages positifs et plus de messages négatifs. Il a également été mesuré que l’utilisation de Twitter est liée à une diminution du bien-être et à une augmentation de l’indignation.
L’amplification de l’hostilité et les effets des algorithmes recommandant contenus et utilisateurs personnes a un effet global sur les structures sociales.
Il a été mesuré que X augmente la polarisation politique et de l’hostilité entre groupes, ce qui de manière évidente n’aide pas le débat et nuit à la cohésion sociale [4, 5].
Il a aussi été démontré par la modélisation que sur le moyen terme, le design de réseaux sociaux basé sur l’engagement, tels que X, concentre l’influence sociale entre les mains des utilisateurs les plus toxiques : la sur-représentation des comptes toxiques dans le top 1% des influenceurs est estimé à +40% . En gros, les personnes qui jouent l’ouverture d’esprit et prônent un débat d’idées apaisé sont défavorisées de facto sur X. Elles sont d’une certaine manière progressivement invisibilisées.
Un défaut de modération sur un réseau social tel que X peut avoir des conséquences extrêmement graves, comme cela a déjà pu être constaté sur d’autres réseaux sociaux.
Par exemple, Amnesty International a montré qu’un défaut de modération de Facebook a favorisé en 2017 la campagne brutale de nettoyage ethnique à l’encontre des musulmans rohingyas en Birmanie et aux graves atteintes aux droits humains contre la population tigréenne en Éthiopie de 2020 à 2022.
Or sous Elon Musk, les équipes de modération ont été décimées et des comptes autrefois bannis pour incitation à la violence, promotion du nazisme ou homophobie ont été rétablis.
X assume totalement ne plus vouloir lutter contre la désinformation. La compagnie a par exemple suspendu sa politique de lutte contre la désinformation sur la pandémie de covid-19. Si une nouvelle pandémie éclate et que X est toujours au cœur de l’information mondiale, le coût humain sera considérable.
X a par ailleurs supprimé le "badge de certification" qui permettait avant de certifier l’authenticité d’un compte. Celui-ci a été recyclé pour signaler qu’un compte a payé pour gagner en visibilité sur X. Les conséquences ont été immédiates et par seulement dans le domaine politique : un faux compte se faisant passer pour l’entreprise pharmaceutique Eli Lilly a annoncé le gratuité de l’insuline produite par le groupe. Lilly a perdu 4,37 % de sa capitalisation boursière ce jour-là.
Sous Elon Musk, X est devenu une machine à manipulation de l'opinion. Refusons d'en être complices.
Reprenons le contrôle en quittant X collectivement pour des alternatives qui respectent la liberté d'expression.