„Rechtsruck“ nach nur wenigen Wochen des Betrachtens von „Empfehlungen“? Die „schwer rückgängig zu machenden“ Auswirkungen des X-Algorithmus

„Rechtsruck“ nach nur wenigen Wochen des Betrachtens von „Empfehlungen“? Die „schwer rückgängig zu machenden“ Auswirkungen des X-Algorithmus

"Empfehlungen": Beeinflussen sie unsere Meinungen?

Die Timeline von sozialen Netzwerken ist nicht nur eine Liste von Beiträgen. Welche Beiträge sichtbar sind und welche untergehen, kann unsere Interessen, Emotionen und sogar politische Ansichten beeinflussen – viele Menschen haben dieses Gefühl. Doch über das Gefühl hinaus gibt es überraschend wenige Studien, die experimentell untersuchen, wie stark Algorithmen auf großen Plattformen politische Einstellungen verändern können.


Die aktuelle Studie, die für Diskussionen sorgt, basiert auf einem randomisierten Feldexperiment mit der Feed-Funktion von X. Sie zeigt, dass der Unterschied zwischen "Für Dich (Empfehlungen)" und "Folge ich (chronologisch)" die politischen Prioritäten und Ansichten zu internationalen Themen beeinflussen kann. Bemerkenswert ist, dass die Auswirkungen nicht nur kurzfristig durch "Exposition" entstehen, sondern auch nach dem Umschalten bestehen bleiben können.


Was die Studie gemacht hat: 7 Wochen, etwa 5.000 Teilnehmer

Das Forschungsteam teilte etwa 5.000 aktive Nutzer in den USA in zwei Gruppen auf, die unterschiedliche Feed-Anzeigen erhielten.

  • Empfehlungs-Feed (Für Dich): Beiträge, die der Nutzer nicht folgt, werden in einer Reihenfolge angezeigt, die auf Reaktionen abzielt.

  • Chronologischer Feed: Beiträge von gefolgten Accounts werden in chronologischer Reihenfolge angezeigt.


Die Experimentdauer betrug 7 Wochen im Jahr 2023. Während dieser Zeit wurden die politischen Einstellungen der Teilnehmer (was sie als wichtige Themen betrachten, Bewertungen bestimmter politischer Ereignisse, Ansichten zu internationalen Konflikten usw.) und ihr Verhalten auf der Plattform (Änderungen der gefolgten Accounts usw.) verfolgt.


Ergebnisse: Der Empfehlungs-Feed verstärkte "rechtsgerichtete Prioritäten"

Ein Hauptresultat war, dass Teilnehmer, die vom chronologischen zum Empfehlungs-Feed wechselten, eher Themen priorisierten, die von der Republikanischen Partei hervorgehoben werden (Kriminalität, Inflation, Einwanderung usw.). Auch bei der Bewertung bestimmter politischer Ereignisse (z.B. Untersuchungen zur US-Politik) wurde eine Veränderung in Richtung einer konservativeren, republikanischeren Ausrichtung beobachtet.


Auch bei internationalen Themen, wie dem Russland-Ukraine-Krieg, wurde berichtet, dass die Sympathie für die Ukraine abnahm und relativ gesehen ein pro-russischer Index anstieg.


Wichtig ist hier, dass die Studie zeigt, dass nicht einfach "die Nutzer von Anfang an so waren", sondern dass schon das bloße Ändern der Feed-Struktur die durchschnittlichen Einstellungen beeinflussen kann, und zwar in Form einer randomisierten Zuweisung.


Warum ist das passiert: Mehr rechtsgerichtete Beiträge, weniger Nachrichten

Das Forschungsteam verglich nicht nur die beobachteten Einstellungsänderungen, sondern auch den Inhalt der Feeds. Im Empfehlungs-Feed zeigte sich im Vergleich zum chronologischen Feed, dass

  • der Anteil rechtsgerichteter Inhalte zunahm

  • Beiträge traditioneller Nachrichtenorganisationen relativ abnahmen

  • Beiträge von politischen Aktivisten und mit starken Meinungen hervorgehoben wurden
    Dies deutet darauf hin, dass nicht nur "rechte Beiträge leichter sichtbar sind", sondern auch die "gemeinsame Faktenbasis", die von Nachrichtenmedien bereitgestellt wird, abnimmt und Beiträge von Bewegungen in den Vordergrund treten, was die Grundlage für Meinungsänderungen schaffen könnte.


Das bedeutet, dass nicht nur "rechte Beiträge leichter sichtbar sind", sondern auch, dass die "gemeinsame Faktenbasis", die von Nachrichtenmedien bereitgestellt wird, abnimmt und Beiträge von Bewegungen in den Vordergrund treten, was die Grundlage für Meinungsänderungen schaffen könnte.


Der beängstigendste Punkt: "Zurückschalten" bedeutet nicht unbedingt "zurückkehren"

Der Grund, warum diese Studie besonders viel Aufmerksamkeit erregt hat, liegt hier. Der Empfehlungs-Feed verändert nicht nur die tägliche Exposition, sondern beeinflusst auch das Folgeverhalten der Nutzer selbst, und diese Veränderung bleibt oft bestehen.


Während der Nutzung des Empfehlungs-Feeds neigen die Teilnehmer dazu, eher rechtsgerichteten Accounts zu folgen. Sobald sich die Folgeverbindungen geändert haben, bleibt die "Welt", die die Nutzer sehen (ihre Informationsumgebung), auch dann verändert, wenn sie zum chronologischen Feed zurückkehren, weil die Folgesammlung verändert bleibt.


Die Studie zeigt, dass der Einfluss von Algorithmen nicht nur auf "das tägliche Sortieren" beschränkt ist, sondern die Informationsumgebung der Nutzer neu gestaltet, was eine wichtige Perspektive ist.


Reaktionen in sozialen Netzwerken: Zustimmung, Vorsicht und Widerstand

 

Die Reaktionen auf diese Studie in sozialen Netzwerken lassen sich grob in vier Strömungen unterteilen.


1) Forscher und Wissenschaftskommunikatoren: Der Wert, das "Selbstverständliche" experimentell zu zeigen
Auf Plattformen wie Bluesky wird oft gesagt: "Wir wussten es intuitiv, aber die Bedeutung, es durch ein großes Experiment zu zeigen, ist groß" und "Es widerlegt die Behauptung, dass Einstellungen unveränderlich sind". Die Bewertung konzentriert sich weniger auf Überraschung und mehr darauf, dass es mehr Beweise für politische Diskussionen gibt.


2) Medien und Kommentatoren: Problematisierung der "Abnahme von Nachrichten"
Viele Reaktionen konzentrieren sich darauf, dass Empfehlungen Nachrichtenorganisationen relativ verdrängen und Beiträge von Aktivisten hervorheben. Vor dem politischen Bias steht die Sorge, dass die Qualität und Überprüfbarkeit von Informationen abnimmt, was die Meinungsbildung verzerrt.


3) Allgemeine Nutzer: "Das fühlt sich so an" und "Ist das nicht bei anderen sozialen Netzwerken genauso?"
Auf Reddit gibt es sowohl "Das überrascht mich nicht" als auch "Das sieht bei Facebook ähnlich aus" als reaktionsbasierte Antworten, während andere sagen: "Viele nutzen es nicht für politische Zwecke" und "Man sollte vorsichtig sein, wenn man auf Nutzer extrapoliert, die keine politischen Beiträge sehen". Es wird also sowohl die Zustimmung zu den Forschungsergebnissen als auch die Distanz zu ihrer eigenen Nutzung diskutiert.


4) Verteidigung und Widerstand gegen Plattformen: Debatte über die Interpretation der "Rechtsverschiebung"
Es gibt auch Gegenargumente wie "Konservativer zu werden ist nicht per se schlecht", "Die Studie bezieht sich auf den Kontext der US-Politik und ist nicht direkt auf andere Länder übertragbar" und "Auch der chronologische Feed ist voreingenommen". Besonders Diskussionen, die den Empfehlungs-Feed mit "Zensur" in Verbindung bringen, und die Besorgnis über verstärkte Regulierung mischen sich, was zeigt, dass die Interpretation der Studie zu einem politischen Streitpunkt wird.


Auch im japanischen Sprachraum verbreiten sich durch Berichte aus dem Ausland Diskussionen wie "Empfehlungen verschärfen die Debatte, das spüre ich" und "Die Rückkehr zur Chronologie ist nicht allmächtig". In Japan wird dies oft nicht nur auf der Achse rechts-links, sondern auch im Kontext internationaler Fragen, Verschwörungstheorien und Empörungsbewegungen diskutiert, wobei die Perspektive, **"für wen das Design vorteilhaft ist"**, stärker wird.


Was man daraus schließen kann: "Design und Transparenz" über individuelle Einstellungen

Die Fragen, die diese Studie aufwirft, gehen über individuelle Nutzungstipps hinaus. Natürlich ist es möglich, den chronologischen Feed zu wählen, die gefolgten Accounts zu überprüfen und den Kontakt mit politischen Themen bewusst zu steuern – eine Art Selbstverteidigung. Doch im Wesentlichen geht es darum, dass das Design der Plattform die Informationsumgebung der Gesellschaft gestaltet, was über den "Bereich, den individuelle Anstrengungen ausgleichen können", hinausgeht.


Besonders, wenn Algorithmen

  • was sie als "gute Reaktion" betrachten und lernen

  • welche Kategorien von Beiträgen hervorgehoben oder unterdrückt werden

  • wie stark das Folgeverhalten beeinflusst wird
    solange der Inhalt des Designs nicht sichtbar ist, werden wir nur die Ergebnisse (Spaltung, Radikalisierung, Voreingenommenheit) sehen und uns hin- und hergerissen fühlen.


Forscher und einige Kommentatoren argumentieren, dass die Transparenz und Rechenschaftspflicht von Algorithmen institutionell gefordert werden sollte. Wenn sie die gesellschaftliche Entscheidungsfindung ähnlich wie öffentliche Infrastrukturen beeinflussen, ist die Idee, **"sie nicht als Blackbox zu belassen"**, notwendig.


Hinweis: Kein allumfassendes Fazit

Gleichzeitig gibt es einige Vorbehalte beim Lesen der Studie. Zum Beispiel sind die Teilnehmer aktive Nutzer in den USA, und es ist nicht sicher, ob die Ergebnisse auf Länder mit unterschiedlichen politischen Kulturen und Themenstrukturen übertragbar sind. Auch die Effekte sind Durchschnittswerte, und die Stärke der Auswirkungen kann je nach Nutzermerkmalen und Nutzungszwecken variieren.


Dennoch ist die Bedeutung, dass auf realen großen Plattformen "Unterschiede in den Feeds Einstellungen und Verhalten beeinflussen" und "die Auswirkungen auch nach dem Umschalten bestehen bleiben können", schwerwiegend. Die Diskussion wird sich von hier aus wahrscheinlich darauf konzentrieren, "welche Empfehlungen unter welchen Bedingungen bei welchen Personen wirken".



Quellen