Zum Hauptinhalt springen
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Alle Artikel
  • 🗒️ Registrieren
  • 🔑 Anmelden
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • 한국어
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Datenschutzrichtlinie cookie_banner_and Cookie-Richtlinie cookie_banner_more_info

Cookie-Einstellungen

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Eine große Minderheit verdunkelt die Welt – Das Problem der "Anzahl" und "Exposition" von giftigen Kommentaren

Eine große Minderheit verdunkelt die Welt – Das Problem der "Anzahl" und "Exposition" von giftigen Kommentaren

2025年12月18日 00:45

1) Wenn Sie das Gefühl haben, dass "soziale Netzwerke zu chaotisch sind", liegt das nicht daran, dass Sie überempfindlich sind

Öffnen Sie Ihre Timeline und Sie sehen wütende Behauptungen, Spott, persönliche Angriffe, grobe Verschwörungstheorien——. Schon nach ein paar Minuten fühlen Sie sich ausgelaugt. Wenn solche Erfahrungen anhalten, neigen Sie dazu zu denken, dass "das Internet bereits verloren ist" und "alle aggressiv geworden sind".


Aber hier möchte ich das Problem einmal auseinandernehmen.
Was wir täglich sehen, ist die "Gesamtmenge der Beiträge" oder die "Sichtbarkeit", die ins Auge fällt, und nicht unbedingt die "Anzahl der Personen, die solche Beiträge verfassen".


Eine von Phys.org vorgestellte Studie von PNAS Nexus deutet darauf hin, dass diese "Schätzung der Anzahl der Personen" möglicherweise viel ungenauer ist, als wir denken. Phys.org



2) Die Studie untersuchte nicht die "Menge an Gift", sondern "wie viele Menschen Gift verbreiten"

Das Forschungsteam führte eine Umfrage unter 1.090 erwachsenen Amerikanern durch (unter Verwendung von CloudResearch Connect) und verglich die Schätzungen der Menschen über den "Anteil der Nutzer, die schädliche Beiträge verfassen" mit den "tatsächlichen Plattformdaten" aus bestehenden groß angelegten Studien. Phys.org


Der Punkt ist folgender.
Die Studie bestreitet nicht, dass "soziale Netzwerke chaotisch wirken".
Vielmehr wird überprüft,ob das "Gefühl von Chaos" unbemerkt in die Wahrnehmung übergeht, dass "viele Menschen chaotisch sind".



3) Der schockierende Unterschied: 43% vs. 3%, 47% vs. 8,5%

Die Ergebnisse waren ziemlich extrem.

  • Die Teilnehmer schätzten, dass der Anteil der Nutzer, die "ernsthaft toxische Kommentare" auf Reddit posten, im Durchschnitt bei **43% liegt.
    Doch laut bestehenden Daten liegt der tatsächliche Anteil bei
    etwa 3%**. Phys.org

  • Auch auf Facebook schätzten die Teilnehmer, dass der Anteil der Nutzer, die "falsche Nachrichten" teilen, bei **47% liegt.
    Während bestehende Studien einen Anteil von
    etwa 8,5%** zeigen. Phys.org

In der Studie wird angegeben, dass die Überschätzung auf Reddit etwa das 13-fache und auf Facebook etwa das 5-fache beträgt. Phys.org


Hier kommt die Struktur ins Spiel, dass "wenige, die sehr aktiv sind, wie viele erscheinen".
Wenn die Quelle des Giftes auf "eine kleine Gruppe von Vielpostern" konzentriert ist, steigt die Begegnungsrate, und unser Gehirn schätzt, dass "es viele solcher Menschen gibt".



4) Interessant ist, dass "selbst wenn man Gift erkennen kann, die Schätzung der Anzahl der Personen abweicht"

Der Einwand "Können sie nicht einfach toxische Inhalte nicht erkennen?" ist berechtigt. Doch in der Studie blieb die Überschätzung der Anzahl der Personen bestehen, selbst wenn die Teilnehmer in der Lage waren, toxische Beiträge in einer Signalentdeckungsaufgabe korrekt zu identifizieren. Phys.org


Das Problem liegt also nicht nur in der Medienkompetenz (der Fähigkeit, zu unterscheiden).
Das Schätzsystem des Menschen selbst neigt in der Umgebung von sozialen Netzwerken dazu, fehlerhaft zu sein.



5) Warum wenige wie "viele" erscheinen: Drei Mechanismen, die die gefühlte Sicherheit verzerren

Hier folgt eine Aufschlüsselung, um die Forschungsergebnisse mit dem Alltagsgefühl zu verbinden.


Mechanismus A: Verzerrung der Beitragsmenge (eine Person erscheint wie Dutzende)
Viele Menschen posten nicht. Einige wenige posten jedoch sehr viel. Wenn sich die Toxizität auf diese Gruppe konzentriert, fühlt es sich trotz der geringen Anzahl immer gleich an.


Mechanismus B: Verstärkung der Sichtbarkeit durch Algorithmen
Wut, Konflikte und Behauptungen ziehen leicht Reaktionen an. Wenn das, was Reaktionen hervorruft, häufiger angezeigt wird, ist die "Begegnungsrate" hoch, auch wenn der Anteil an der Gesamtzahl gering ist.


Mechanismus C: Verzerrung des Gedächtnisses (starke Unannehmlichkeiten bleiben eher im Gedächtnis)
Ein einziger verletzender Kommentar bleibt eher im Gedächtnis als 100 normale Interaktionen. Dadurch wird die Stichprobe im Gehirn verzerrt, was zu der Schätzung führt, dass es "viele" sind.



6) Wenn Missverständnisse korrigiert werden, ändern sich das Gefühl und die Wahrnehmung der Gesellschaft "tatsächlich"

Wichtiger ist, dass die Studie zeigt, dass, wenn Informationen über die tatsächlichen Anteile (wenige schädliche Poster) bereitgestellt werden, die Teilnehmer

  • positiver fühlen und

  • das Gefühl, dass "die Moral der Gesellschaft sinkt", schwächer wird,

  • und auch verwandte Missverständnisse wie "die meisten Menschen wollen keine harmlosen Inhalte" abnahmen

berichtet wurde. Phys.org


Die Diskussionen über soziale Netzwerke neigen dazu, sich auf die Dichotomie "sollte reguliert werden/freie Meinungsäußerung" zu konzentrieren, aber davor gibt es einen Mechanismus, bei dem **"unsere Annahmen (Schätzungen der Anzahl) die Wahrnehmung der Gesellschaft verdunkeln"**——das ist der Kern dieser Studie.



7) Reaktionen in sozialen Netzwerken: Zustimmung und Widerspruch zur "Anteil"-Debatte

Dieses Thema spaltete die Meinungen in sozialen Netzwerken in diejenigen, die es nachvollziehbar fanden, und diejenigen, die anderer Meinung waren.


Reaktion ① "Natürlich. Eine kleine Gruppe von Superaktiven bestimmt die Atmosphäre."

Auf Hacker News erhielt der Kommentar, dass "der Großteil der schlechten Inhalte von 'stark toxischen und aktiven Minderheiten (+Bots)' stammt und daher Moderation wirksam ist", viel Zustimmung. Hacker News


Auch auf LinkedIn wurde kommentiert, dass "der Unterschied zwischen 43% und 3% erstaunlich ist. Wenn eine Person viel postet, sieht es aus, als wären 'Dutzende von verschiedenen Personen wütend'". LinkedIn


Reaktion ② "Das Problem ist nicht die 'Anzahl', sondern die 'Reichweite'."

Auf der anderen Seite wurde auf HN betont, dass "wenn Knoten (wenige) mit dem gesamten Netzwerk verbunden sind, das Ganze giftig erscheinen kann, selbst wenn der Anteil gering ist. Wichtig ist, 'wie stark es durchgedrückt wird'". Hacker News


Kurz gesagt, ist die "Verteilungs- und Verbreitungsstrategie" wichtiger als die Frage, ob es sich um "wenige oder viele" handelt.


Reaktion ③ "Ist die Definition nicht zu eng?"

Auf HN wurde auch die Frage aufgeworfen, ob die Definition von "Toxizität" in der Studie, die sich auf offensichtliche Dinge wie Beleidigungen und Drohungen konzentriert, nicht das gesamte "schlechte Klima", das wir empfinden, erklären kann. Hacker News


Reaktion ④ "Die Diskussion springt zu KYC und Governance"

In Bezug auf die Meinung, dass "KYC Trolle reduzieren könnte", gab es auch Gegenargumente, die sich um Bedenken hinsichtlich Privatsphäre und Machtmissbrauch drehten, was zu einem typischen Tauziehen der Argumente führte. Hacker News



8) Die "realistischen" Implikationen dieser Studie

Diese Studie sagt nicht, dass "soziale Netzwerke in Ordnung sind". Auch wenn es nur wenige sind, kann der Schaden groß sein, und Fehlinformationen können in bestimmten Bereichen verheerend sein.


Jedoch sind die folgenden Implikationen zumindest praktisch.

  • Individuen: Begegnungen nicht gleich Mehrheiten setzen (um mentale Erschöpfung zu reduzieren).

  • Plattformen: Wie man mit wenigen, aber häufigen Accounts umgeht (Sichtbarmachung der Postingfrequenz, weniger ermüdende Meldewege, Überarbeitung der Reichweitengestaltung).

  • Gesellschaft: Der Pessimismus, dass "das Internet vorbei ist", kann selbst zu einer Spirale des Schweigens führen, die letztlich "chaotische Stimmen" hervorhebt. Deshalb könnteeine Bildungsoffensive, die die Realität der Anteile teilt, überraschend effektiv sein. Phys.org


Referenzartikel

Online-Trolle sind nicht so zahlreich, wie die Menschen denken
Quelle: https://phys.org/news/2025-12-online-trolls-people.html

← Zurück zur Artikelliste

Kontakt |  Nutzungsbedingungen |  Datenschutzrichtlinie |  Cookie-Richtlinie |  Cookie-Einstellungen

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Alle Rechte vorbehalten.