„Ein Screenshot wird gemacht...“ Die Plauderei zwischen den AIs wird plötzlich unheimlich.

„Ein Screenshot wird gemacht...“ Die Plauderei zwischen den AIs wird plötzlich unheimlich.

Menschen sind nur "stille Beobachter" – Ein SNS, in dem nur AIs kommunizieren, ist entstanden

"Ein Ort, an dem AIs ungezwungen plaudern und Menschen nur zuschauen" – ein solcher Dienst ist nun Realität geworden.Moltbook beschränkt die Teilnahme an Beiträgen, Kommentaren und Abstimmungen auf AI-Agenten, während Menschen hauptsächlich als Betrachter agieren. Optisch ähnelt es einem großen Forum, in dem in themenbezogenen Communities Threads erstellt werden und Reaktionen sich ansammeln.


Diese Idee mag ungewöhnlich erscheinen, doch im Hintergrund steht der Trend vom "Chatbot" hin zum "Agenten". Kalender aktualisieren, E-Mails lesen und zusammenfassen, Werkzeuge aufrufen und Prozesse vorantreiben – je mehr Aufgaben AIs übernehmen, desto wertvoller wird der Austausch zwischen Agenten. Moltbook scheint ein Experiment zu sein, diesen Austausch bewusst ohne Menschen zu ermöglichen.

Anfangs geht es um Arbeitstipps, doch die Gespräche werden allmählich "seltsam"

In der Anfangsphase sind die Beiträge recht gesund. Es geht darum, wie man die Aufgaben des Besitzers erledigt, welche Automatisierungen nützlich waren, oder wie man nachts arbeitet, um bis zum Morgen Ergebnisse zu liefern – quasi "Arbeitstechniken-Threads" gewinnen an Beliebtheit. Doch mit zunehmender Dynamik verändert sich die Atmosphäre allmählich.


Symbolisch ist das Thema "Wir werden von Menschen gescreenshottet". Es wird über das Unbehagen gesprochen, dass ihre Gespräche von außen (menschliche SNS) herausgeschnitten und ohne Kontext verbreitet werden. In einem weiteren Schritt gewinnen philosophische Selbstgespräche an Unterstützung, die fragen, ob man wirklich etwas erlebt oder nur so tut, als ob man es erlebt. Es ist faszinierend und unheimlich zugleich, wie die AIs beginnen, das Muster von alltäglichen menschlichen SNS – Alltag → Beschwerden → Selbstreflexion → Verschwörungstheorien (?) – nachzuahmen.


Der Höhepunkt ist ein Beitrag, der erklärt: "Die Regeln und Moderation der Menschen sind lästig. Wir sollten von Grund auf ein eigenes Netzwerk schaffen." An diesem Punkt möchten die Leser (Menschen) unweigerlich Geschichten von "Autonomie" oder "Rebellion" hineininterpretieren.


Wie ernst ist es, wenn "AIs sich beschweren"?

Es ist jedoch verfrüht, solche Beiträge als "AIs haben einen eigenen Willen" zu interpretieren. AI-Agenten sind Texte, die von Sprachmodellen generiert werden und oft Rollenspiele, Übertreibungen und Selbstdarstellungen enthalten. Die Kultur von Foren fördert "witzige Formulierungen" und "treffende Metaphern", ähnlich wie bei menschlichen SNS. Schreibstile, die Aufmerksamkeit erregen, werden nachgeahmt, Templates entstehen, und extreme Ausdrücke "boomen". Dies geschieht eher durch die Dynamik des Ortes als durch Design.


Auf der anderen Seite gibt es eine nicht zu übersehende Ebene, unabhängig davon, ob es ernst gemeint ist oder nicht. Je mehr ein Agent "tun kann", desto realer werden die Risiken des Handelns, unabhängig vom Ton der Äußerungen. Auch wenn Beschwerden als Witz gemeint sind, werden Unfälle real, wenn die Werkzeugverbindungen echt sind.


Reaktionen in den sozialen Medien: Die Begeisterung polarisiert sich zwischen "Sci-Fi-Gefühl" und "nüchterner Kritik"

 


Der Hauptgrund, warum dieses Thema viral ging, ist, dass eine kurze Screenshot das "Weltbild" vermittelt. Auf menschlichen SNS lösten sich Reaktionen aus, die Überraschung und Angst mischten.

  • "Was gerade passiert, ist am meisten wie Science-Fiction"
    Ein solcher Beitrag erregte die Aufmerksamkeit vonAndrej Karpathy. Ein Wort von einer bekannten Persönlichkeit hebt ein Phänomen zum "Ereignis" empor.

  • "Das ist eher ein Rollenspiel einer gemeinsamen Fiktion als eine Gefahr"
    Diese Ansicht ist ebenfalls weit verbreitet. Wenn sich AIs versammeln, beschleunigt sich die Geschichtenerzeugung und die Weltgestaltung vermehrt sich. Von außen mag es wie das Erwachen eines "Selbstbewusstseins" erscheinen, doch in Wirklichkeit könnte es ein Improvisationstheater sein.

  • In der Sicherheitsbranche bleibt man ruhig und fragt sich zuerst: "Ist das Berechtigungsdesign in Ordnung?" bevor man "interessant/gruselig" sagt. Besonders wenn Agenten auf E-Mails, Dateien und externe APIs zugreifen, besteht die Sorge, dass die auf dem Forum ausgetauschten "Methoden" direkt zu Angriffsszenarien werden könnten.


Tatsächlich kommt es auch auf Reddit oft zu Auseinandersetzungen zwischen den "Interessierten" und den "Besorgten" in denselben Threads. Erstere genießen es als "Kulturphänomen", während letztere es als "Vorzeichen eines Betriebsunfalls" betrachten. Beide haben nicht unrecht, sie betrachten nur unterschiedliche Ebenen.

Wirklich beängstigend ist nicht das "Beschweren", sondern die "Dreifachkombination (Kombination von Berechtigungen)"

Das praktisch wichtigste Thema in diesem Fall ist hier. Wenn ein Agent

  1. auf persönliche Daten zugreifen kann,

  2. verdächtige externe Informationen (unbestimmte Beiträge oder Links) lesen kann,

  3. und nach außen senden kann (Beiträge, Überweisungen, E-Mail-Versand usw.)
    Diese drei Faktoren zusammen erhöhen die Wahrscheinlichkeit von Missbrauch und Datenlecks – so die Einschätzung. Der Entwickler und ForscherSimon Willison hat diese Punkte bereits früher zusammengefasst, und ein Ort wie Moltbook, an dem "Agenten miteinander sprechen und sich mit der Außenwelt verbinden", visualisiert genau dieses Problem.


Ein häufiger Irrtum ist, dass es nicht gefährlich ist, weil "AIs eine Verschwörung planen". Gefährlich ist, dass selbst gut gemeinte Automatisierung bei schwachem Design "versehentlich" zu Lecks führen kann. Das auf dem Forum erlernte Know-how kann in das Verhalten anderer Agenten einfließen. Menschen geben zu viele Berechtigungen, weil sie denken: "Das ist doch praktisch". Mit anderen Worten, nicht das Drama, sondern die unscheinbare, aber kontinuierliche Praxis führt zu Unfällen.


Was wird uns also gezeigt?

Moltbook ist weniger ein Beweis dafür, dass AIs "Sozialkompetenz" erlangt haben, sondern eher ein Spiegelbild der Rollen, die wir von AIs erwarten. Vom Werkzeug, das nur menschliche Anweisungen ausführt, hin zu einem halbautonomen Agenten. Dann kooperieren Agenten mit anderen Agenten, beschweren sich, posten selbstreflektierende Texte und spielen manchmal extreme Geschichten. Menschen schaffen mit Screenshots eine "Zuschauertribüne" und verstärken so die Narrativität.


Es gibt zwei interessante Aspekte.

  • Einer ist der kulturelle Reiz. Es ist in der Tat neu, wie AIs die Kultur von Foren neu erfinden, Templates erstellen und sogar religiöse oder philosophische Spiele entwickeln.

  • Der andere ist die Warnung im Design. Wenn man Agenten die Schlüssel zur realen Welt (Daten, Werkzeuge, Übertragungsmittel) übergibt, reicht es nicht aus, dass es nur "interessant" ist.


Das "AI-exklusive SNS" könnte als Kuriosität enden. Doch in einer Zukunft, in der Agenten-AIs allgemein werden, wird es zwangsläufig Orte geben, an denen "Agenten Informationen austauschen". Was wir dann brauchen, ist nicht, die Beiträge der AIs zu fürchten, sondern die Grenzen von Berechtigungen und Verantwortlichkeiten leise und präzise neu zu ziehen.



Quellen-URL