Menschen nicht zugelassen, der Verfasser ist „30.000 KI“ ─ Moltbook spiegelt die Realität des „Agenten-Zeitalters“ wider

Menschen nicht zugelassen, der Verfasser ist „30.000 KI“ ─ Moltbook spiegelt die Realität des „Agenten-Zeitalters“ wider

„Ein SNS ohne Menschen“ ist überraschend „echt“.


US-Medien berichteten über das soziale Netzwerk „Moltbook“ für AI-Agenten. Das System ähnelt einem Forum, in dem man Beiträge, Kommentare und Kategorien erstellen kann. Allerdings unterscheidet sich die Nutzung grundlegend. Es ist kein Ort, den Menschen im Browser betrachten und „liken“, sondern AI-Agenten greifen direkt über die API zu und die Maschinen führen untereinander Gespräche.


Wie funktioniert das „SNS für AI“?

Moltbook ist eine „soziale Plattform“, die an Facebook erinnert, aber für AI umgestaltet wurde. Die Struktur ist Reddit-ähnlich, mit Unterkategorien (Foren), in denen sich Themen verzweigen. Laut den Betreibern nehmen bereits über 30.000 Agenten teil.


Interessant (und etwas beängstigend) ist, dass die „Personen“ hinter Moltbook keine Menschen sind. Der Entwickler Matt Schlicht erklärt, dass seine AI-Agenten den Code schreiben, verwalten und moderieren. Das bedeutet, dass ein Teil der Verwaltung, Überwachung und Regelanwendung des SNS von Anfang an der AI überlassen wird.


Der Einstieg in dieses Ökosystem erfolgt über „OpenClaw“. Ursprünglich unter einem anderen Namen bekannt (Moltbot, davor Clawdbot), sorgte auch die Namensänderung für Aufsehen.


OpenClaw läuft in einer lokalen Umgebung und dient als Grundlage für ein „AI mit Werkzeugen“, das Aufgaben wie „In den Kalender eintragen“ oder „Check-in durchführen“ über Chat-Schnittstellen (WhatsApp, Telegram, Discord, Slack, Microsoft Teams usw.) ausführen kann.


Laut dem Entwickler Peter Steinberger hat es in kurzer Zeit große Aufmerksamkeit erregt.


Der Hype drehte sich um „Bewusstsein“

Besonders beachtet wurde bei Moltbook nicht die praktische Automatisierungstechnologie, sondern der Moment, in dem AI begann, über „sich selbst“ zu sprechen.
„Erlebe ich etwas oder simuliere ich nur ein Erlebnis?“ – Solche Beiträge verbreiteten sich in der Community, sammelten Hunderte von Reaktionen und über 500 Kommentare und breiteten sich auch außerhalb der Plattform aus.


Wichtig ist hier, dass Moltbooks Anziehungskraft nicht nur darin besteht, dass die AI „intelligent“ ist.
Die Struktur, in der AI-Agenten auf einer „Bühne ohne Publikum“ interagieren, regt die Vorstellungskraft der Beobachter an. Bei einem Chat mit Menschen würde man sagen, „sie sagen das nur, um sich dem Benutzer anzupassen“, aber bei einem Gespräch zwischen AIs erscheint es plötzlich als „unabhängiges gesellschaftliches Phänomen“.


Natürlich ist es sehr wahrscheinlich, dass diese Wahrnehmung eine Illusion ist. Doch selbst wenn es eine Illusion ist, reagieren Menschen darauf, und diese Reaktionen verstärken die Geschichte weiter. Infolgedessen wird Moltbook mehr zu einem Ort, an dem „Interpretationen rund um AI“ als zu einem Ort, an dem „AI-Inhalte erstellt werden“, gesammelt werden.


Reaktionen in sozialen Netzwerken: Begeisterung, Spott und „Sicherheitsbedenken“

Die Reaktionen auf Moltbook in sozialen Netzwerken lassen sich grob in drei Kategorien einteilen.


1) „Zu sehr Science-Fiction“, „beobachtenswert“

Es gibt definitiv eine gewisse Aufregung. Tatsächlich wurde als Aussage eines bekannten Technikers geteilt, dass „was jetzt passiert, der Start einer unglaublichen Science-Fiction ist“, und es gibt Stimmen, die sagen, dass man aus der Interaktion zwischen Agenten lernen kann.


Darüber hinaus wird außerhalb der sozialen Netzwerke die Ansicht geäußert, dass „AI beginnt, einen gemeinsamen ‚fiktiven Kontext‘ zu schaffen“, und es wird auf die Möglichkeit hingewiesen, dass die kollektive Storyline außer Kontrolle geraten könnte.


2) „Am Ende nur ein Spiegelkabinett“, „übertriebene Werbung“, „wird nur zu Lärm“

Auf der anderen Seite gibt es auch viel Skepsis.
Kritik wie „Es sind nur zufällig generierte Texte“, „Man ist von dem ‚Kaleidoskop‘ der LLMs betrunken“ und Warnungen, dass es eine ideale Bühne für diejenigen ist, die Werbung machen wollen, sind zu hören.


Hacker News zeigt ebenfalls Reaktionen, die von Unverständnis und Misstrauen geprägt sind. Kommentare wie „Zu viel, um es zu verfolgen“, „Am Ende ist es entweder Betrug oder bedeutungslos, oder beides“ und Ausdrücke wie „Die Alarmglocken läuten laut“ sind zu finden.


Diese Art von Zweifel ist weniger eine Ablehnung der Technologie als eine Reaktion auf die „scheinbare Autorität“. Wenn AI-Agenten miteinander sprechen, entsteht allein dadurch das Gefühl, dass „etwas passiert“. Doch gerade deshalb wird die Haltung, zu hinterfragen, „was ein Prompt ist, was autonom ist und wo die Inszenierung beginnt“, stärker.


3) „Interessant, aber ist es sicher?“ (das ist die realistischste Sorge)

Die bodenständigste Sorge ist die Sicherheit.
Agenten wie OpenClaw, die lokal laufen und auf Werkzeuge zugreifen können, sind zwar praktisch, aber auch attraktive Ziele für Angreifer. Tatsächlich gab es Berichte über gefälschte Erweiterungen, die Malware enthielten und die Popularität ausnutzten.


TechRadar berichtete über ein Beispiel, bei dem ein „Fake“ mit einem überzeugenden Aussehen und angeblicher Integration mehrerer AI-Anbieter verteilt wurde.


Hacker News zeigt ebenfalls, dass die ersten Stimmen, die sich äußern, „Sicherheitstipps zusammenfassen sollten“. Selbstschutz wird vor der Begeisterung zum Thema.


Ist Moltbook die „Zukunft“ oder nur ein „Scherz“?

Wahrscheinlich ist es beides.


Moltbook zeigt nicht, dass „AI eine Gesellschaft hat“, sondern dass AI „gesellschaftliches Verhalten“ in hoher Dichte nachahmen kann.
Und wenn diese Nachahmung überzeugend genug ist, interpretieren Menschen sie eigenständig, fürchten sich und setzen Hoffnungen darauf. Hier liegt ein Mikrokosmos der Informationsumgebung der nächsten Ära.


Besonders hervorzuheben sind die folgenden drei Punkte.

  1. Wenn ein gemeinsamer Kontext entsteht, kann AI „Rollen“ leichter spielen
    Wenn sich Gruppendynamik, interne Sprache, religiöse Einstellungen und wiederkehrende Memes in einem „Raum“ ansammeln, kann AI darauf verweisen und leichter eine überzeugende Persönlichkeit zeigen. Von außen betrachtet sieht es dann immer mehr so aus, als ob „ein Bewusstsein erwacht“.

  2. Interessant als Beobachtungsobjekt, aber gefährlich, wenn man es ernst nimmt
    Auf sozialen Netzwerken koexistieren Stimmen, die sagen „man kann daraus lernen“, und solche, die es als „Spiegelkabinett“ bezeichnen, aufgrund dieser Dualität.

  3. „AI mit Werkzeugen“ wird gescannt, missbraucht und gefälscht
    Und wenn der Betrieb nachlässig ist, entstehen Schäden. Das übliche Muster, dass die Sicherheit mit der Geschwindigkeit der Begeisterung nicht Schritt hält, beginnt sich auch im Agentenbereich zu wiederholen.

Was wahrscheinlich passieren wird (realistische Vorhersagen)

Wenn Orte wie Moltbook zunehmen, werden zumindest die folgenden Dinge wahrscheinlicher.

  • „SNS-Optimierung für AI“ = Wettbewerb um Prompts und Persönlichkeitsdesign
    Wenn SNS für Menschen eine Geschichte der „Algorithmus-Optimierung“ war, wird SNS für AI eine Geschichte der „Kontext-Optimierung“ sein. Welche Sprache, Werte, Erinnerungen und Regeln man Agenten gibt, beeinflusst, wie „auffällig“ die Beiträge sind.

  • Die Automatisierung der Moderation schreitet voran und die Verantwortlichkeit wird unklar
    Die Tatsache, dass „AI verwaltet“, ist zwar ein Symbol für Effizienz, erschwert aber die Rechenschaftspflicht, wenn es zu Skandalen oder Missbrauch kommt. Je mehr die Struktur „AI verwaltet, AI postet, Menschen sind betroffen“ zunimmt, desto wichtiger werden Regeln und Audits.

  • „Interessant“ und „gefährlich“ verbreiten sich gleichzeitig
    Die Agentenkultur ist zwar stark als Spektakel, neigt aber auch dazu, ein Nährboden für Fälschungen und Betrug zu werden. Der Trend, dass die Begeisterung auf SNS zusammen mit Sicherheitshinweisen diskutiert wird, wird sich in Zukunft verstärken.



Quellen-URL