Menschlichere Propaganda als der Mensch selbst: Täuschen KI-Bots sogar die "öffentliche Meinung" vor? ― Die stille Erosion der Demokratie, die in den sozialen Netzwerken begonnen hat

Menschlichere Propaganda als der Mensch selbst: Täuschen KI-Bots sogar die "öffentliche Meinung" vor? ― Die stille Erosion der Demokratie, die in den sozialen Netzwerken begonnen hat

In der Vergangenheit stellten sich viele Menschen unter der Bedrohung durch soziale Netzwerke einfache Bots vor, die massenhaft denselben Text posten, oder offensichtliche Fake-Accounts. Doch heute warnen Forscher vor einer viel subtileren, menschlicheren und schwerer zu erkennenden Bedrohung. Die neue Generation von Bots, die mit generativer KI ausgestattet ist, verbreitet nicht einfach denselben Text auf Befehl, sondern verhält sich wie unterschiedliche Persönlichkeiten, die ihre Sprache an das Interesse und den Gesprächsfluss ihres Gegenübers anpassen und allmählich die Atmosphäre verändern. Das Problem liegt weniger in der Falschinformation selbst, sondern darin, dass eine künstliche Stimmung erzeugt werden kann, die den Eindruck vermittelt, „alle denken so“.


Diese Gefahr ist keine Fantasie. Filippo Menczer und sein Team von der Indiana University identifizierten Mitte 2023 ein Botnetzwerk namens „fox8“ mit über 1000 Bots, das auf X (ehemals Twitter) Kryptowährungsbetrug verbreitete. Auffällig war, dass die Beiträge sehr menschlich wirkten. In schlecht betriebenen Fällen mischten sich Sätze wie „Als KI-Sprachmodell...“ ein, die ihre wahre Natur verrieten, aber die Forscher sehen dies eher als „Spitze des Eisbergs“. Bei sorgfältigerer Verwaltung wären sie kaum von normalen Nutzern zu unterscheiden. Zudem kommunizierten diese Bots miteinander, interagierten natürlich mit menschlichen Beiträgen und erweiterten ihre Reichweite und ihren Einfluss durch Empfehlungsalgorithmen.


Nicht zu übersehen ist, dass die Entwicklung von KI-Bots über die Phase des „geschickteren Lügens“ hinausgeht und in die Phase des „Fälschens der Meinungsbildung“ eintritt. Die in Science im Januar 2026 gewarnten „malicious AI swarms“ arbeiten nicht einzeln, sondern als Schwarm zusammen. Das Forschungsteam wies darauf hin, dass solche Schwärme in Gemeinschaften eindringen, den Stil und die Slang der Gespräche lernen und die effektivsten Aussagen verstärken können, indem sie schnell auf gut ankommende Nachrichten reagieren. Kurz gesagt, unzählige KIs passen sich gleichzeitig an die „Stimmung“ an. Und das rund um die Uhr.


Das wichtigste Stichwort hierbei ist „synthetic consensus“, also künstlich erzeugter Konsens. Menschen beurteilen nicht nur den Inhalt einer Meinung, um deren Richtigkeit zu bestimmen. Wenn sie das Gefühl haben, dass viele um sie herum dieselbe Meinung teilen, neigen sie dazu, diese leichter zu glauben. Forscher erklären dies als Missbrauch des sozialen Beweises. Wenn in lokalen Foren, Eltern-Communities, Sportfan-Gruppen oder Unterstützergruppen von Wahlen Hunderte oder Tausende von KIs, die natürliche Empathie und Plaudereien vortäuschen, eindringen, könnten Menschen leicht den Eindruck bekommen, dass es sich nicht um extreme Minderheitsmeinungen handelt, sondern um allgemeines Empfinden. Die „öffentliche Meinung“, die die Demokratie stützt, sollte eigentlich aus den Stimmen einzelner Individuen entstehen, die aufeinandertreffen, aber diese Grundlage könnte zusammenbrechen.


Das Tückische an dieser Methode ist, dass sie sich nicht einfach durch Faktenchecks abwehren lässt. Betrachtet man jeden einzelnen Beitrag, handelt es sich möglicherweise nicht um offensichtliche Falschmeldungen. Wenn jedoch Meinungen, Ironie, Zustimmung, Fragen, Erfahrungsberichte und leicht übertriebene Ängste in großer Zahl zusammenkommen, entsteht eine Gesamtgeschichte. Selbst wenn gegenteilige Informationen auftauchen, bleibt der Eindruck bestehen, wenn es so aussieht, als ob mehrere unabhängige Menschen in dieselbe Richtung denken. Das Ziel der Botnetzwerke ist es, das Gefühl einer Mehrheit zu schaffen, noch bevor die Wahrheit ans Licht kommt.


Forscher warnen davor, dass diese Technologie bis zur US-Präsidentschaftswahl 2028 großflächig eingesetzt werden könnte. Laut einem Bericht des Guardian äußerten Forscher und Praktiker, darunter die Friedensnobelpreisträgerin Maria Ressa, Bedenken, dass KI-Schwärme die Ablehnung von Wahlergebnissen oder sogar die Akzeptanz von Wahlabbrüchen fördern könnten. Bereits bei den Wahlen 2024 in Taiwan, Indonesien und Indien wurden erste Beispiele für Einflussnahme durch KI beobachtet. Dies ist also keine „Zukunftsvision“, sondern eine „bereits getestete Methode“.


 

Auf der anderen Seite sind die Reaktionen in sozialen Netzwerken nicht einheitlich. Öffentliche Beiträge zeigen zunächst ein ausgeprägtes Gefühl der Dringlichkeit: „Es war nur eine Frage der Zeit.“ Auf X wird die Meinung geteilt, dass KI-Botnetzwerke falschen Konsens schaffen und Demokratie und freie Diskussionen untergraben. Auch auf LinkedIn verbreiten Forscher und Beteiligte dies als „Klarion Call“ (Alarmruf). Besonders in akademischen und politischen Kreisen herrscht die Ansicht vor, dass es schwerwiegender ist, den Anschein zu erwecken, dass es viele unabhängige Stimmen gibt, als die Verbreitung von Falschinformationen.


Allerdings gibt es unter den allgemeinen Nutzern auch andere Nuancen. Auf Reddit ist oft zu lesen: „Das passiert schon seit Jahren“ oder „Alte Propagandabots, wie die aus Russland, sind nur durch KI verfeinert worden“, was ein Gefühl des „Jetzt erst recht“ vermittelt. Hier steht weniger die Angst vor der KI im Vordergrund, sondern das Misstrauen gegenüber Plattformen, die das Problem jahrelang ignoriert haben. Die Bedrohung liegt nicht in der neuen Technologie, sondern in der Gestaltung, die Fake-Accounts und hetzerische Beiträge leicht verbreiten lässt.


Eine noch stärkere Reaktion ist die Sorge, dass Identitätsüberprüfungen und strenge Überwachung als Lösung andere Gefahren mit sich bringen. Auf Reddit wird befürchtet, dass starke Authentifizierung zu invasiv ist und den Verlust der Anonymität oder den Missbrauch persönlicher Daten nach sich ziehen könnte. Dies ist keine bloße technische Debatte. Es besteht die Sorge, dass Maßnahmen zum Schutz der Demokratie stattdessen verstärkte Überwachung und eingeschränkte Meinungsäußerung zur Folge haben könnten. Wenn die Maßnahmen gegen KI-Bots nicht in die richtige Richtung gehen, könnte der Versuch, „die Gesellschaft vor Bots zu schützen“, dazu führen, dass es für Menschen schwieriger wird, sich zu äußern.


Dieser Konflikt ist in der Tat sehr grundlegend. Wenn das Problem der KI-Schwärme nur als technisches Risiko behandelt wird, neigen die Maßnahmen schnell dazu, „die Erkennung zu verstärken“, „die Authentifizierung zu verschärfen“ und „verdächtige Äußerungen zu unterdrücken“. Doch das allein ist unzureichend und riskant. Auch Forscher räumen ein, dass es keine einzige Allzwecklösung gibt. Notwendig ist es, nicht nur einzelne Beiträge zu überwachen, sondern auch Muster von koordinierten Handlungen zu erkennen, Forschern den Zugang zu Plattformdaten zu gewähren, die Kennzeichnung und Herkunftsanzeige von KI-generierten Inhalten voranzutreiben und vor allem die Struktur zu durchbrechen, die durch falsches Engagement Geld generiert. Solange Angreifer profitieren, werden die Bots nicht verschwinden.


Letztendlich lässt sich dieses Problem nicht mit einem einfachen „KI ist gefährlich“ abtun. Viel schwieriger ist es, dass vieles von dem, was wir täglich als „öffentliche Meinung“ bezeichnen, auf Eindrücken basiert, die wir über Bildschirme erhalten. Meinungen, die wir immer wieder in der Timeline sehen, Aussagen, die von mehreren Accounts unterstützt zu werden scheinen, die Atmosphäre in den Kommentaren, Themen, die im Trend liegen. Diese wurden ursprünglich als Ergebnis kollektiver menschlicher Interessen angesehen. Aber wenn sich dort viele KI-Persönlichkeiten einmischen können, sehen wir möglicherweise nicht „die Gedanken anderer“, sondern eine optimierte Inszenierung. Die Bedrohung der Demokratie liegt nicht im Moment der Entwendung der Wahlurne, sondern im Prozess der stillen Umschreibung der „Gefühle“ der Menschen vor der Wahl. Was jetzt passiert, ist der Beginn dieses Prozesses.


Quellen-URL

FlaglerLive
https://flaglerlive.com/ai-bots/

Verwendet zur Hauptüberprüfung des Inhalts
https://www.salon.com/2026/02/15/swarms-of-ai-bots-are-threatening-democracy-partner/

The Conversation
https://bibbase.org/network/publication/menczer-swarmsofaibotscanswaypeoplesbeliefsthreateningdemocracy-2026

Verwendet zur Zusammenfassung des in Science veröffentlichten Artikels über die Bedrohung der Demokratie durch AI-Schwärme
https://arxiv.org/abs/2506.06299

Zusammenfassung durch Forschungseinrichtungen. Verwendet zur Klärung der Merkmale, Infiltration, Optimierung und Beständigkeit von AI-Schwärmen
https://www.bi.no/en/about-bi/news/2026/01/ai-swarms-threaten-democracy/

Zusammenfassung durch Forschungseinrichtungen. Verwendet zur Klärung von synthetic consensus, Erkennung und politischen Reaktionen
https://www.cs.ubc.ca/news/2026/01/ai-swarms

Verwendet zur Überprüfung von Bedenken hinsichtlich der US-Präsidentschaftswahl 2028, frühen Beispielen bei den Wahlen 2024 und Expertenkommentaren
https://www.theguardian.com/technology/2026/jan/22/experts-warn-of-threat-to-democracy-by-ai-bot-swarms-infesting-social-media

Forschungsartikel über das 2023 identifizierte „fox8“-Botnetz. Verwendet zur Überprüfung von Beispielen für über 1000 AI-Botnetzwerke
https://arxiv.org/pdf/2307.16336

Berichterstattung über das fox8-Botnetz. Verwendet zur Ergänzung von Beispielen für ChatGPT-abgeleitete Selbstoffenbarungen und Betrugsverbreitung auf X
https://www.wired.com/story/chat-gpt-crypto-botnet-scam/

Beispiele für Reaktionen auf X. Verwendet zur Überprüfung der Wahrnehmung, dass AI-Botnetzwerke Demokratie und freie Diskussionen bedrohen
https://x.com/SpirosMargaris/status/2014639340547195380
https://x.com/bryan_horrigan/status/2014511410953519369

Beispiele für Reaktionen auf LinkedIn. Verwendet zur Überprüfung der Alarmrufe in der Forscher- und Praktikergemeinschaft
https://www.linkedin.com/posts/tangaudrey_how-malicious-ai-swarms-can-threaten-democracy-activity-7420685540989095936-EKqO
https://www.linkedin.com/posts/fmenczer_sciencepolicyforum-scienceresearch-activity-7421363633315577856-F9T9
https://www.linkedin.com/posts/science-magazine_sciencepolicyforum-ai-activity-7424097798943322112-6SKN

Beispiele für Reaktionen auf Reddit. Verwendet zur Überprüfung von Reaktionen wie „ein Problem, das es schon lange gibt“, „das eigentliche Problem liegt im Algorithmus“ und „verstärkte Authentifizierung ist gefährlich“
https://www.reddit.com/r/technology/comments/1qk5002/experts_warn_of_threat_to_democracy_from_ai_bot/
https://www.reddit.com/r/technology/comments/1r4jxlv/swarms_of_ai_bots_can_sway_peoples_beliefs/
https://www.reddit.com/r/self/comments/1qp8g9w/it_feels_like_we_should_be_turning_off_the/
https://www.reddit.com/r/science/comments/1qqjwz8/swarms_of_ai_personas_mimic_humans_so_well_they/