Spenden

Mit Elon Musk wurde X zu einer Meinungsmanipulationsmaschine. Machen wir uns nicht zu Komplizen.

Holen wir uns die Kontrolle zurück, indem wir X kollektiv verlassen und Alternativen wählen, die die Meinungsfreiheit respektieren.

Starte die App zum Verlassen von X!

Ich möchte über die EscapeX-Kampagne informiert bleiben

Deine E-Mail:

Was sind Beweise für die Toxizität von X?

Zahlreiche wissenschaftliche Studien zeigen, dass X toxisch für seine Nutzer:innen und die Demokratie als Ganzes ist.

Beeinträchtigung des Wohlbefindens der X-Benutzer:innen

Der „Für dich“-Feed ist eine der wichtigsten Informationsquellen für X-Benutzer:innen. Dieser Feed ist jedoch stark auf toxische Inhalte ausgerichtet. Forscher:innen des CNRS haben gezeigt, dass er 49 % mehr toxische Inhalte (Beleidigungen, persönliche Angriffe, Obszönitäten usw.) enthält als das, was von deinen Follower:innen produziert wird (gemessen Anfang 2023). Bei einigen Konten kann die wahrgenommene Toxizität der Umgebung um bis zu 200 % verstärkt werden!

Das heißt, X hebt das Schlimmste in deinem sozialen Umfeld hervor und verzerrt deine Wahrnehmung. Bemerkenswert ist, dass Musk die Situation explizit verschlimmert hat; vor seiner Übernahme betrug die Verstärkung „nur“ 32 %.

Studien haben gezeigt, dass die Veränderung der Newsfeeds von Nutzer:innen direkte Auswirkungen auf deren emotionalen Zustand und Kommunikationsstil hat. Wenn der Anteil der positiven Nachrichten abnimmt, produzieren die Nutzer:innen weniger positive und mehr negative Nachrichten. Es wurde auch gemessen, dass die Nutzung von Twitter mit einer Abnahme des Wohlbefindens und einer Zunahme von Wut verbunden ist.

Schaden für den sozialen Zusammenhalt

Die Verstärkung von Feindseligkeit und die Auswirkungen von Algorithmen, die toxische Inhalte und Nutzer empfehlen, haben globale Auswirkungen auf soziale Strukturen.

Es wurde nachgewiesen, dass X die politische Polarisierung und die Feindseligkeit zwischen Gruppen verstärkt, was einer gesunden Debatte eindeutig nicht förderlich ist und dem sozialen Zusammenhalt schadet [4, 5].

Modellrechnungen haben auch gezeigt, dass soziale Netzwerke, die auf Engagement ausgelegt sind, wie X, mittelfristig den sozialen Einfluss in den Händen der toxischsten Nutzer:innen konzentrieren: toxische Accounts sind in den obersten 1 % der Influencer:innen überrepräsentiert mit einem geschätzten Anstieg von 40 %. Im Wesentlichen werden Nutzer:innen, die Aufgeschlossenheit und ruhige Debatten fördern, auf X systematisch benachteiligt und mit der Zeit effektiv unsichtbar gemacht.

Ausbreitung von Hassreden und Desinformation

Der Mangel an Moderation in einem sozialen Netzwerk wie X kann schwerwiegende Folgen haben, wie man auf anderen Plattformen gesehen hat.

Amnesty International hat beispielsweise aufgedeckt, dass das Versäumnis von Facebook, Inhalte zu moderieren, die brutale ethnische Säuberungskampagne->https://www.amnesty.org/fr/documents/asa16/5933/2022/fr/] gegen Rohingya-Muslime in Myanmar im Jahr 2017begünstigte und fschwere Menschenrechtsverletzungen gegen die tigrayische Bevölkerung in Äthiopien von 2020 bis 2022 förderte.

Unter Elon Musk wurden die Moderationsteams von X dezimiert und Konten, die zuvor wegen Aufstachelung zur Gewalt, Förderung von Nazismus, oder Homophobie gesperrt worden waren, wurden wieder zugelassen..

X gibt offen zu, dass es nicht mehr beabsichtigt, Desinformation zu bekämpfen. So hat das Unternehmen beispielsweise seine Politik gegen So hat das Unternehmen beispielsweise seine Politik gegen COVID-19-Fehlinformationen eingestellt.. Sollte eine weitere Pandemie ausbrechen, während X weiterhin eine zentrale Rolle in der globalen Information spielt, wären die Auswirkungen auf die Menschen katastrophal.

Außerdem hat X das „Verifizierungsabzeichen“ entfernt, mit dem Konten zuvor authentifiziert wurden. Das Abzeichen wurde umfunktioniert, um anzuzeigen, dass ein Konto für die Sichtbarkeit auf X bezahlt hat. Die Folgen waren unmittelbar und gingen über die Politik hinaus: Ein gefälschtes Konto, das sich als Pharmaunternehmen Eli Lilly ausgab, kündigte an, dass sein Insulin kostenlos sein würde. An diesem Tag verlor Lilly 4,37 % seiner Börsenkapitalisierung.

Auswahl wissenschaftlicher Publikationen

  • [1] Kramer, Adam D. I., Jamie E. Guillory, and Jeffrey T. Hancock. 2014. “Experimental Evidence of Massive-Scale Emotional Contagion through Social Networks.” *Proceedings of the National Academy of Sciences of the United States of America* 111 (24): 8788‑90. https://doi.org/10.1073/pnas.1320040111.
  • [2] Bouchaud, Paul, David Chavalarias, and Maziyar Panahi. 2023. “Crowdsourced Audit of Twitter’s Recommender Systems.” *Scientific Reports* 13 (1): 16815. https://doi.org/10.1038/s41598-023-43980-4.
  • [3] Chavalarias, David, Paul Bouchaud, and Maziyar Panahi. 2024. “Can a Single Line of Code Change Society? The Systemic Risks of Optimizing Engagement in Recommender Systems on Global Information Flow, Opinion Dynamics, and Social Structures.” *Journal of Artificial Societies and Social Simulation* 27 (1): 9. https://www.jasss.org/27/1/9.html.
  • [4] Oldemburgo de Mello, Victoria, Felix Cheung, and Michael Inzlicht. 2024. “Twitter (X) Use Predicts Substantial Changes in Well-Being, Polarization, Sense of Belonging, and Outrage.” *Communications Psychology* 2 (1): 1‑11. https://doi.org/10.1038/s44271-024-00062-z.
  • [5] Yarchi, Moran, Christian Baden, and Neta Kligler-Vilenchik. 2021. “Political Polarization on the Digital Sphere: A Cross-Platform, Over-Time Analysis of Interactional, Positional, and Affective Polarization on Social Media.” *Political Communication* 38 (1‑2): 98‑139. https://doi.org/10.1080/10584609.2020.1785067.

Mit Elon Musk wurde X zu einer Meinungsmanipulationsmaschine. Machen wir uns nicht zu Komplizen.

Holen wir uns die Kontrolle zurück, indem wir X kollektiv verlassen und Alternativen wählen, die die Meinungsfreiheit respektieren.

Starte die App zum Verlassen von X!