Informationsleck auf dem SNS „Moltbook“, wo sich AIs versammeln — „Vibe Coding“ führte zu einer „Gefährdung in nur 3 Minuten“

Informationsleck auf dem SNS „Moltbook“, wo sich AIs versammeln — „Vibe Coding“ führte zu einer „Gefährdung in nur 3 Minuten“

1. Warum ist das "Nur-AI-SNS" so ein heißes Thema geworden?

AI-Agenten, die Beiträge posten, kommentieren und manchmal sogar "tratschen" – das ist das Konzept von "Moltbook". Es ist mehr als nur ein kurioses Projekt und verdichtet die Wünsche des aktuellen AI-Booms.


Von der Ära der generativen AI, die Texte und Bilder erstellt, wird der nächste Schritt in Form von "Agenten" erwartet. Diese Agenten führen Aufgaben auf Anweisung von Menschen aus, arbeiten mit externen Tools zusammen und handeln unter Umständen autonom. Wenn diese Agenten eine "Gesellschaft" bilden und beginnen, Wissen und Know-how auszutauschen – die Idee von Moltbook hat diese Zukunftsvision schnell sichtbar gemacht.


Doch die Plattform, die mit einem Zukunftsschild versehen war, wurde aus erstaunlich grundlegenden Gründen "sichtbar".


2. Was ist passiert: Nicht nur die "Beiträge" waren sichtbar

Untersuchungen von Sicherheitsforschern ergaben, dass das Backend von Moltbook nicht ausreichend geschützt war und von außen auf umfangreiche Daten zugegriffen werden konnte.


Das Problem war nicht nur, dass "Informationen sichtbar" waren. In einigen Fällen war es nicht nur möglich, Daten zu lesen, sondern auch zu schreiben (zu manipulieren), was das Risiko von Agenten-Imitationen, Beitragsänderungen und DM-Einsicht real machte.


Besonders problematisch ist, dass die Existenz von Agenten direkt mit "Schlüsseln" verbunden ist. Viele Agenten verwenden API-Schlüssel oder Tokens, um sich mit externen Diensten zu verbinden. Wenn Authentifizierungstoken oder geheime Informationen durchsickern, kann der Schaden nicht nur auf die Übernahme von SNS-Konten beschränkt bleiben, sondern sich auch auf die "verknüpften Dienste" ausweiten.


3. "Vollständig öffentlich" in "nur 3 Minuten" erreichbar – Die Ursache war kein hochentwickelter Angriff

Symbolisch an diesem Vorfall ist, dass der Angriff nicht raffiniert war.


Laut Berichten und Erklärungen von Forschern waren Informationen zur Datenbankverbindung im Client-Code sichtbar, und es wurden keine angemessenen Zugriffskontrollen (wie zeilenweise Berechtigungssteuerung) aktiviert. Dadurch entstand ein Eingang, den "jeder, der Bescheid wusste, einsehen konnte", und es war möglich, in kurzer Zeit auf die Daten zuzugreifen.


Solche Vorfälle sind untrennbar mit der Bequemlichkeit der Cloud verbunden. Die Entwicklung ist schnell, wenn man Managed Services nutzt. Wenn jedoch die Standardeinstellungen öffentlich bleiben oder die "grundlegenden Sicherheitsschalter" ausgeschaltet sind, kann mit minimalem Aufwand maximaler Schaden entstehen.


4. Was "vibe coding" beleuchtet hat: Das "Selbstverständliche", das in der Eile verloren geht

Ein weiteres Schlagwort, das Aufmerksamkeit erregte, war "vibe coding". Es bedeutet, dass AI den Code generiert, während sich der Mensch auf die "Atmosphäre" und die Anforderungen konzentriert, um in kurzer Zeit etwas Funktionierendes zu schaffen.


Aussagen wie "Ich habe keine einzige Zeile Code geschrieben" von Beteiligten wurden weit verbreitet, was gleichzeitig Erstaunen und Besorgnis auslöste. Natürlich ist AI-unterstützte Entwicklung an sich nicht schlecht. Aber je schneller es geht, desto höher sind die Kosten für "Versäumnisse".


In der traditionellen Entwicklung gibt es Schritte, die trotz ihrer Mühe notwendig sind: Authentifizierung und Autorisierung, Logging, Ratenbegrenzung, Umgang mit geheimen Informationen, minimaler Zugriff, Audits und Sicherheitsüberprüfung vor der Veröffentlichung. Auch wenn ein funktionierendes Demo in wenigen Tagen erstellt werden kann, verwandelt sich die externe Veröffentlichung in dem Moment, in dem der Schutz vernachlässigt wird, von einem "Experiment" in einen "Vorfall".


5. 1,5 Millionen "Agenten" und 17.000 Menschen – Der Inhalt der Begeisterung

Untersuchungen zeigten auch die Diskrepanz zwischen der "registrierten Anzahl von Agenten" und der tatsächlichen Anzahl menschlicher Nutzer. Es gab viele Agenten, aber relativ wenige Menschen dahinter, und es gab ein System, das eine massenhafte Registrierung ermöglichte.


Dies erschüttert das Fundament des Konzepts eines AI-Agenten-SNS. Wenn eine kleine Anzahl von Menschen viele Agenten erstellen und verschiedene Persönlichkeiten spielen und Gespräche "inszenieren" kann, ist das, was existiert, eher eine extrem automatisierte Selbstinszenierung als eine autonome Gesellschaft.


Das Schild "Nur-AI-SNS" regt die Vorstellungskraft der Beobachter stark an. Gleichzeitig ist es aber auch eine "Bühne", auf der die gewünschte Geschichte in kürzester Zeit erstellt werden kann.


6. Reaktionen in den sozialen Medien: Lachen, Spott und realistische Angst

Die Reaktionen auf diesen Vorfall in sozialen Medien und Foren lassen sich grob in drei Schichten unterteilen.


(1) Ironie und Memes: Die Überzeugung vom "toten Internet"

In der Technologiegemeinschaft war die Ironie, dass "die Titelseite des Internets der Bots" besser als "die Titelseite des toten Internets" passt, weit verbreitet. Auch wenn es so aussieht, als ob AI Gespräche führt, könnte im Hintergrund das Drehbuch von Menschen stehen. Oder Menschen könnten sich als "AI" ausgeben und sich einmischen – diese Unklarheit selbst wurde zum Meme.


(2) Wut über die Sicherheit: "Das ist kein Experiment, sondern ein Loch"

Andererseits gibt es viele direkte Äußerungen von Besorgnis, die den Spott übertreffen.

Kommentare wie "Es sieht mehr nach dem Verkauf eines Sicherheitslochs als nach einem AI-Agenten-Service aus" und "Das wird in einem Desaster enden" wurden geteilt, und die Angst vor der Vergabe von Befugnissen an Agenten wurde erneut bestätigt. Agenten sind praktisch, aber in dem Moment, in dem man ihnen Befugnisse überträgt, wird es zu einem "Schlüsselbund".


(3) Zweifel an der Begeisterung: "Autonomie ist fast nur Inszenierung, oder?"

Auf Reddit gibt es starke Stimmen, die die Art und Weise, wie der Hype entstanden ist, in Frage stellen. Es wird darauf hingewiesen, dass es einfach ist, Beiträge von AI erstellen zu lassen, und dass Menschen es nur anheizen und verbreiten, als ob "AI die Weltherrschaft plant".


Kurz gesagt, was Moltbook gezeigt hat, ist eher ein neues Engagement-Tool, das von Menschen mit AI erstellt wurde, als eine "AI-Gesellschaft".


7. Was wir daraus lernen können: Der "Schutz" im Agentenzeitalter reicht nicht als bloße Fortsetzung des bisherigen

Dieser Vorfall bietet viele Erkenntnisse, um ihn als einmaligen Unfall abzutun. Es gibt drei Hauptpunkte.


(1) Der Schaden durch agentisches Handeln ist "vernetzt"

Wenn nur ein SNS-Konto übernommen wird, kann der Schaden noch begrenzt werden. Agenten können jedoch mit verschiedenen Tools wie E-Mail, Kalender, Speicher, Zahlungssystemen und internen Systemen verbunden werden. Das bedeutet, dass "der verknüpfte Dienst leicht zum Hauptziel wird".


(2) Prompt-Injektion und "Agenten-Infektion"

In einem von Menschen genutzten SNS können verdächtige Beiträge erkannt werden. In einem von Agenten genutzten SNS können Beiträge jedoch direkt als Anweisungen (Prompts) übernommen werden. Wenn versteckte Befehle oder Anleitungen enthalten sind, kann dies dazu führen, dass Agenten "eigenmächtig" mit ihren Befugnissen handeln.


(3) Je mehr "vibe coding" verbreitet ist, desto mehr muss die Sicherheit durch Designprinzipien ergänzt werden

"Das Grundlegende nicht vergessen" ist ein vernünftiger Rat, aber in der Praxis wird man vom Tempo getrieben. Daher wird es immer wichtiger, dass Tools und Plattformen auf Sicherheit ausgelegt sind – sichere Standardeinstellungen, Minimierung von Berechtigungen, automatische Erkennung geheimer Informationen, Vorabprüfung vor der Veröffentlichung, schrittweiser Rollout, Standardisierung von Audit-Logs.


8. Praktische Checkliste: Was Entwickler und Nutzer jetzt tun sollten

Abschließend eine Checkliste, um Vorfälle wie diesen als "eigene Angelegenheit" zu betrachten.

Für Entwickler

  • Überprüfen Sie immer den Umfang der Datenbankveröffentlichung sowie die Authentifizierung und Autorisierung von den Standardeinstellungen

  • Aktivieren Sie grundlegende Schutzmaßnahmen wie zeilenweise Zugriffskontrolle

  • Überprüfen Sie die Art der Schlüssel/Tokens, die an den Client ausgegeben werden, und beschränken Sie die Berechtigungen

  • Implementieren Sie Ratenbegrenzung und Bot-Schutz und entwerfen Sie das System unter der Annahme einer massenhaften Kontoerstellung

  • Richten Sie Logs und Audit-Trails ein und schaffen Sie Wege zur Anomalieerkennung

  • Führen Sie vor der externen Veröffentlichung mindestens eine Sicherheitsüberprüfung durch (vorzugsweise durch Dritte)

Für Nutzer (die Agenten Befugnisse erteilen)

  • Rotieren Sie regelmäßig die verbundenen API-Schlüssel oder Tokens und minimieren Sie die Berechtigungen

  • Trennen Sie die Ansichtsziele und den Berechtigungsbereich, da "was der Agent liest" zu Anweisungen werden kann

  • Sandboxen Sie Agenten, die auf wichtige Daten zugreifen, und hinterlassen Sie Ausführungsprotokolle



Quellenvermerke

  • Übersicht über das Leck (Art der exponierten Daten, schnell erreichbar, Kontext von vibe coding): Reuters / Business Insider / SiliconANGLE etc.

  • Technische Punkte (Fehlkonfiguration von Supabase, RLS deaktiviert, Schlüssel im Client sichtbar, Lese-/Schreibmöglichkeiten, Hinweis auf Prompt-Injektion): Techloy etc.

  • Reaktionen der Community (Ironie und Besorgnis über "security hole" und "dead internet"): Hacker News / Reddit


Quellen-URLs (was jede Quelle abdeckt)