Zum Hauptinhalt springen
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Alle Artikel
  • 🗒️ Registrieren
  • 🔑 Anmelden
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • 한국어
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Datenschutzrichtlinie cookie_banner_and Cookie-Richtlinie cookie_banner_more_info

Cookie-Einstellungen

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Zu schön, um wahr zu sein? Die Zukunft von Instagram: "Unvollkommenheit ist das neue Echtheit" beschleunigt sich

Zu schön, um wahr zu sein? Die Zukunft von Instagram: "Unvollkommenheit ist das neue Echtheit" beschleunigt sich

2026年01月03日 10:04

1) Was bedeutet die Erklärung "Mit dem bloßen Auge nicht möglich"

Das Unterscheiden von Echtheit anhand von Unbehagen wie "künstlich" oder "unnatürlich" wird nicht mehr funktionieren. Adam Mosseri, der Instagram leitet, hat praktisch eine Kapitulationserklärung abgegeben, indem er sagte, dass es für die Plattform schwierig wird, weiterhin auf "Sichtprüfung" basierend Fälschungen zu erkennen, da KI-generierte Bilder und Videos beginnen, die Realität präzise zu imitieren. Ein Artikel von NDTV Profit fasst seine Aussage als "Mit dem bloßen Auge kann man AI-Schlopp (minderwertige KI-generierte Inhalte) nicht erkennen" zusammen und berichtet darüber als Wendepunkt, der die Grundlagen der SNS-Nutzung verändert. NDTV Profit


Wichtig ist hier, dass Mosseri nicht nur sagte, dass es schwierig sei, zu unterscheiden. Er vermutet, dass die Erkennung und Kennzeichnung von KI-Inhalten anfangs gut funktionieren könnte, aber je weiter sich die KI entwickelt, desto mehr wird die "Erkennungsseite" benachteiligt. Und er schlug einen Perspektivwechsel vor: Anstatt "Fälschungen zu jagen", sollte man sich darauf konzentrieren, "echte Medien zu kennzeichnen (fingerprint real media)". NDTV Profit


2) "Fingerprinting echter Medien" — Das Konzept der "chain of custody"

Mosseri denkt nicht an eine Methode, bei der irgendwo im "Vertrieb" von Inhalten, die generiert, bearbeitet und erneut gepostet werden, ein Label angebracht wird, sondern daran, die Authentizität im Moment der Aufnahme (capture) zu fixieren. In einem von Engadget zitierten Vorschlag wird beschrieben, dass Kameras (einschließlich Smartphones) beim Fotografieren eine kryptografische Signatur hinzufügen, um eine "chain of custody" zu erstellen, die zeigt, dass nichts manipuliert wurde. Engadget


Wenn dies umgesetzt wird, werden wir in Zukunft nicht mehr nur ein einfaches Label "Ist das KI oder nicht?" sehen, sondern

  • wann, wo und mit welchem Gerät das Bild aufgenommen wurde

  • Wenn es bearbeitet wurde, was ist das Original und was wurde geändert

  • Wer garantiert die Historie nach welchen Standards
    , was Informationen nahe der **Provenienz von Inhalten** sind.


Allerdings ist die Realität nicht einfach. Je mehr signierte "echte" Inhalte es gibt, desto mehr werden Inhalte ohne Signatur als "verdächtig" angesehen. Es gibt viele Materialien, die gesellschaftlich wichtig sind, aber keine Signatur haben, wie alte Fotos, gescannte Bilder, bestehende Videoressourcen und anonyme Enthüllungsvideos. Während die Technologie Vertrauen schafft, kann sie auch **Vertrauensungleichheit** erzeugen.


3) Eine Ära, in der "Je schöner, desto verdächtiger" gilt? Die Theorie, dass "Unvollkommenheit echt ist"

Ein bemerkenswerter Punkt im Artikel von NDTV Profit ist Mosseris Rat an Kreative. KI neigt dazu, "schöne und aufgeräumte Looks" zu erzeugen. Daher könnte es vorerst ein Signal für Echtheit sein, **bewusst "unvollkommen", "unbearbeitet" und "roh"** zu sein. Handheld-Videos, unscharfe Bilder, ungünstige Nahaufnahmen und ungestellte Ausdrücke, wie sie in Instagram Stories zu sehen sind, könnten als Beweis für die Realität an Wert gewinnen. NDTV Profit


Business Insider beschreibt ebenfalls, dass Mosseri das Ende der Ära der "polierten Gitter" (geordnete Post-Reihen) sieht und dass der Fokus auf das Teilen ungeschönter Alltagsmomente verlagert wurde. Business Insider


Allerdings ist dieses "Unvollkommenheit ist echt" nur eine vorläufige Lösung. The Verge zitiert Mosseris Argumentation, die noch weiter in die Zukunft blickt. KI wird irgendwann sogar "Fehler" und "Unvollkommenheiten" nachbilden können. Wenn das passiert, müssen die Menschen ihre Urteilsgrundlage von "Was ist zu sehen?" zu "Wer sagt es?" verlagern. The Verge


Das bedeutet, dass in einer Welt, in der Schönheit billig geworden ist, **die nächste Seltenheit "Authentizität" und "Beziehung"** sein wird.


4) Wir bewegen uns in eine Gesellschaft, die "zuerst zweifelt"

NDTV Profit betont die Veränderung der Haltung auf der Nutzerseite. Bisher haben wir die von Algorithmen empfohlenen Bilder und Videos als "grundsätzlich echt" betrachtet. In Zukunft wird es umgekehrt sein. Zuerst wird Skepsis angebracht, die Motive und Hintergründe der Teilenden überprüft und der Kontext der Informationen gelesen—dieses "zweifelnde Sehen" wird zur Norm werden. NDTV Profit


The Decoder erklärt diesen Punkt, indem er auf die biologische und psychologische Prämisse eingeht, dass "Menschen dazu neigen, das zu glauben, was sie mit ihren Augen sehen", und dass der Übergang zur Standardskepsis "unangenehm und stressig" sein kann. The Decoder


Wenn das Zweifeln standardisiert wird, verwandeln wir selbst leichte Unterhaltung in "Prüfarbeit" während des täglichen Scrollens. Wenn die Kosten für die Echtheitsprüfung steigen, neigen erschöpfte Menschen dazu, entweder "nichts mehr zu glauben" oder "nur das zu glauben, was sie sehen wollen". Hier lauert der Nährboden für gesellschaftliche Spaltung und die Verbreitung von Fehlinformationen.


5) Wie weit reicht die Verantwortung der Plattformen — Das Problem "Wer räumt auf"?

Engadget beschreibt dies kritisch. Während sie die Realität anerkennen, dass die Identifizierung von KI-Generationen schwieriger wird, fragen sie, ob dies nicht eher ein Problem von Meta ist, das zu "jemandes anderem Problem" gemacht wird. Sie berühren die Unzulänglichkeit herkömmlicher Identifikationsmethoden wie Wasserzeichen, die Unklarheit von Labels und die Tatsache, dass Plattformen anerkannt haben, dass sie "nicht erkennen können", und zeigen so die Struktur, in der AI-Schlopp letztendlich gewinnt. Engadget


Die Frage lautet also:

  • Wenn die Zunahme von KI-Generationen unvermeidlich ist,wer trägt die Last der Schäden (Betrug, Identitätsdiebstahl, Fehlinformationen)?

  • Wenn die Signatur den Kameraherstellern überlassen wird, wie weit sollen OS, Apps und SNS zusammenarbeiten?

  • Wer zahlt für die grenzüberschreitende Standardisierung und die Verifizierungsinfrastruktur?

Während "echten Medien Fingerabdrücke zu geben" als Technologie sinnvoll erscheint, sind Implementierung und Betrieb auch politische und wirtschaftliche Fragen.


6) Reaktionen auf SNS: Zustimmung, Ironie und die Diskussion über die "Vertrauensökonomie"

Die Äußerungen wurden im Verlauf ihrer Verbreitung als Nachrichten unterschiedlich aufgenommen. Obwohl es schwierig war, Threads direkt zu betrachten, sind die Reaktionen aus den umliegenden SNS und den Zitaten und Zusammenfassungen der Beiträge erkennbar.


(1) "Labels sind unmöglich, Beweis der Herkunft" — Journalistische Zusammenfassung
Karissa Bell von Engadget fasste Mosseris Argument auf Bluesky zusammen als "Aufgeben des Vorhabens, AI-Labels im Voraus anzubringen, und stattdessen die Kamera beweisen zu lassen, 'was echt ist'". Bluesky Social


(2) Aus der Sicht der Kreativen: "Unvollkommenheit zu suchen ist eine Änderung der Wettbewerbsregeln"
Auf LinkedIn kursiert ein Beitrag, der Mosseris langen Text in "9 Punkte" zusammenfasst und Diskussionen über die "Vertrauensökonomie" anregt, wie "Echtheit = Vertrauen wird zur Währung" und "In der Ära der unendlichen Generierung wird 'wer es gesagt hat' wertvoll". Auch in den Kommentaren wird die Ansicht geäußert, dass persönliche Konsistenz und Urteilsvermögen zu Unterscheidungsmerkmalen werden. LinkedIn


(3) Kritik: "Wird die von der Plattform geschaffene Flut an Externe abgewälzt?"
In den Kommentaren zu Artikeln von Engadget und The Verge sowie deren Weiterverbreitung wird wiederholt die Frage gestellt, wie die Verantwortung verteilt werden soll, wenn die Plattformen die KI-Funktionen gefördert haben und die "Unmöglichkeit der Erkennung" als gegeben ansehen. Engadget


7) Drei bevorstehende Veränderungen (Prognose)

Abschließend, wie die aktuellen Diskussionen die Praxis verändern könnten. Basierend auf dem Inhalt der Artikel und den umgebenden Berichten ist es wahrscheinlich, dass mindestens die folgenden drei Entwicklungen voranschreiten werden.

  1. Wettbewerb um die Standardisierung von "Authentizitäts-Metadaten"
    Es wird ein Wettlauf um die Führung bei den Branchenstandards geben, in welchem Format kryptografische Signaturen, Herkunft und Bearbeitungshistorie gehalten werden. Engadget

  2. Die Art und Weise, wie Kreative kämpfen, wird sich von "Schönheit" zu "Kontext" verschieben
    Es wird schwieriger, sich nur durch Schönheit abzuheben, und alltägliche, relationale, kontinuierliche und narrative Elemente—das "individuelle Aufbauen" einer Person—werden wichtiger. The Verge

  3. Nutzer werden nicht mehr mit den "Augen", sondern mit der "Quelle" urteilen
    Das zweifelnde Sehen wird zur Norm, und Informationen wie das Erstellungsdatum des Kontos, frühere Beiträge, die Motivation zum Teilen und die zugehörige Community werden wichtig. Plattformen werden unter Druck stehen, "Account-Kontext" statt "Medien" zu präsentieren. NDTV Profit


Referenzartikel

"Echtere Medien leichter zu erkennen" — Instagram-Chef gibt zu, dass das bloße Auge AI-Schlopp nicht erkennen kann

← Zurück zur Artikelliste

Kontakt |  Nutzungsbedingungen |  Datenschutzrichtlinie |  Cookie-Richtlinie |  Cookie-Einstellungen

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Alle Rechte vorbehalten.