Zum Hauptinhalt springen
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Alle Artikel
  • 🗒️ Registrieren
  • 🔑 Anmelden
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • 한국어
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Datenschutzrichtlinie cookie_banner_and Cookie-Richtlinie cookie_banner_more_info

Cookie-Einstellungen

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

YouTubes neues KI-Tool bekämpft Deepfakes! Was ändert die Erkennung von KI-ähnlichen Bildern: Der Tag, an dem YouTube in das „Urheberrecht“ von Gesichtern eingreift

YouTubes neues KI-Tool bekämpft Deepfakes! Was ändert die Erkennung von KI-ähnlichen Bildern: Der Tag, an dem YouTube in das „Urheberrecht“ von Gesichtern eingreift

2025年10月23日 00:36

Einführung: Von Labels zu "Erkennung"

Wie schützen Videoplattformen im Zeitalter der KI das "Vertrauen" der Schöpfer? YouTube hat die "Likeness Detection" eingeführt, ein System, das von KI generierte "jemand, der Ihnen sehr ähnlich sieht" erkennt und es dem Betroffenen ermöglicht, eine Meldung oder Löschanfrage zu stellen. Am Einführungstag erhielten die betroffenen Kreativen eine E-Mail, und in YouTube Studio erschien eine "Zu überprüfende" Liste unter "Content Detection" – ein neuer Alltag begann. Die Ankündigung erfolgte am 21. Oktober 2025 US-Zeit und wurde zunächst an einige Teilnehmer des Partnerprogramms verteilt, mit einer Erweiterung in den kommenden Monaten.The Verge


Welche Funktionen? Verifizierung→Erkennung→Meldung

Die Grundzüge der Nutzung sind klar.

  1. Kreative schließen die Verifizierung mit einem von der Regierung ausgestellten Ausweis und einem kurzen Video-Selfie ab (dies kann einige Tage dauern).

  2. YouTube scannt neue Uploads basierend auf dieser Gesichtsvorlage und extrahiert Videos, die eine Ähnlichkeit aufweisen könnten.

  3. Kreative überprüfen dies im Studio und können bei unautorisierter Nutzung durch KI eine Datenschutzmeldung (Löschanfrage) einreichen – so funktioniert der Ablauf. Die Implementierung ähnelt "Content ID", jedoch ist das Ziel nicht das Werk, sondern das "Gesicht der Person". YouTube weist selbst darauf hin, dass es in der Beta-Phase auch zu Fehlalarmen kommen kann, bei denen echte Videos der Person betroffen sind.Google Support


Noch "Gesicht" im Fokus. Was ist mit der Stimme?

In den FAQ wird klargestellt, dass der aktuelle Fokus auf der visuellen Erkennung (Gesicht) liegt und die Erkennung von Sprachklonen nicht umfasst ist. Die umfassende Erkennung einschließlich der Stimme ist die "nächste Aufgabe".Google Support


Zeitplan: Pilotprojekt mit CAA

YouTube begann im Dezember 2024 in Zusammenarbeit mit der Creative Artists Agency (CAA) und prominenten Talenten mit frühen Tests. Auf Basis der gewonnenen Erkenntnisse wurde der erste Rollout im Oktober 2025 erreicht.blog.youtube


Beziehung zu bestehenden "KI-Labels"

Im März 2024 führte YouTube ein Selbstdeklarationslabel für KI-generierte oder -veränderte Inhalte ein. In einigen Fällen fügt die Plattform selbst Labels hinzu – dies ist die "Anzeigefase". Die neue Likeness Detection ist die Phase der "Entdeckung und Handlung", die sich mit tiefen Deepfakes befasst, die verbreitet werden, ohne dass die betroffene Person es bemerkt.The Verge


Vergleich mit anderen Unternehmen und Plattformen

Laut Berichten aus der gleichen Zeit konnten viele der großen sozialen Netzwerke KI-Videos mit eingebetteten Metadaten wie C2PA nicht ausreichend anzeigen. YouTube hingegen bot teilweise Unterstützung durch Anzeigen in der Beschreibung, obwohl die Sichtbarkeit als Herausforderung angesehen wurde. Erst mit "Erkennung und Meldung" wird der Schutz wirklich verstärkt.The Washington Post


Stimmen der Kreativen: Erste Reaktionen in sozialen Medien

In den sozialen Medien unmittelbar nach dem Start waren folgende unterschiedliche Reaktionen zu sehen (Zusammenfassung).

  • Befürworter: "Wir haben auf die 'Gesichtsversion' von Content ID gewartet", "Es ist beruhigend, dass man nach gefälschten Videos suchen kann, die ein Risiko für einen Shitstorm darstellen" – auch die Berichterstattung lobte den Punkt, dass "die Betroffenen selbst in großem Maßstab handeln können".MacRumors

  • Vorsichtige: "Die Einreichung eines Regierungs-ID und eines Video-Selfies ist eine hohe Hürde", "Wenn es in der Beta-Phase Fehlalarme gibt, ist die Betriebslast beängstigend", "Die Nachahmung der Stimme bleibt bestehen" – die Hilfe-Dokumentation selbst spiegelt den Kompromiss zwischen Privatsphäre und betrieblicher Belastung wider.Google Support

  • Realisten: "Es ist ein Schritt vorwärts gegenüber dem 'Label-Vertrauen', aber letztlich liegt die Entscheidung über die Löschung bei der Plattform. Die Abgrenzung von Einwänden und Ausnahmen (z. B. Parodien) ist schwierig" – Bedenken hinsichtlich der "Wirksamkeit der Anzeige", die seit der Einführung von KI-Labels bestehen, tauchen erneut auf.The Verge

In Gemeinschaften wie Reddit wurden bereits zuvor Abneigungen gegen KI-generierte Inhalte und eine Ermüdung gegenüber der "AI-isierung der Timeline" geteilt, wobei einige die aktuelle Entwicklung als "zumindest einen Fortschritt in der Gegenmaßnahme" und andere als "letztlich ein Katz-und-Maus-Spiel" betrachten.Reddit


Konkreter Workflow: So funktioniert es auf Ihrem Kanal

  • Ersteinrichtung: Studio → Content Detection → Likeness → "Start". Nach Zustimmung erfolgt die Verifizierung mit ID und Video-Selfie. Dies kann bis zu mehreren Tagen dauern.Google Support

  • Erkennungsüberprüfung: Sortieren nach Aufrufzahlen oder Kanalgröße und überprüfen. Wenn es sich um "unautorisierte Nutzung durch KI" handelt, weiter zurDatenschutzmeldung. Bei der Nutzung von urheberrechtlich geschütztem Material wählen SieUrheberrechtsmeldung.Google Support

  • Zu beachtende Ausnahmen: Bei Parodien, Satire oder offengelegter KI kann es vorkommen, dass keine Löschung erfolgt.Google Support


Vorteile und Grenzen: Drei Bewertungsachsen

① Skalierung: Da das Gesichtsvorlagenmodell übergreifend gescannt werden kann, erreicht es gefälschte Videos, die die betroffene Person nicht selbst finden konnte. Die "plattforminterne Suche" à la Content ID ist nach wie vor stark.The Verge


② Rationalisierung: Erkennung→Überprüfung→Meldung sind im Studio integriert, sodass auch Einzelpersonen mit begrenzten rechtlichen Ressourcen aktiv werden können.Google Support


③ Risiko: Fehlalarme (Treffer bei echten Videos) und Bedenken hinsichtlich der Datenverwendung und -speicherung bei der Erstellung von Vorlagen bleiben bestehen. Die Daten werden mit Zustimmung intern gespeichert, aber die Dauer der Speicherung und die Möglichkeit der Nutzung zur Modellverbesserung sind Punkte, die stets überwacht werden sollten.Google Support


Neudefinition von "Rechten"

Dies ist auch ein Versuch, über den Schutz des Urheberrechts hinaus in den "Schutz der Persönlichkeit" einzutreten. Die von KI erzeugte "falsche Ähnlichkeit" kann nicht ohne Konflikte mit der Meinungsfreiheit oder Parodien vermieden werden. Die stufenweise Implementierung, die YouTube mit CAA vorangetrieben hat, ist einepraktische Lösung, die zunächst den Schaden für Prominente minimiert und dann auf allgemeine Kreative ausgeweitet wird. Letztendlich wird jedoch eine plattformübergreifende Interoperabilität (wie C2PA oder unsichtbare Wasserzeichen) und die "Portabilität von Löschanfragen" zwischen Plattformen erforderlich sein.blog.youtube


Zusammenfassung: Der nächste Schritt ist "Stimme" und "Visualisierung"

Der erste Schritt ist getan. Der nächste Schritt ist die Erkennung von Stimmnachahmungen und die Verbesserung der "sichtbaren Labels", die für die Nutzer verständlich sind. Solange Labels übersehen werden, verbreiten sich gefälschte Videos wie die Wahrheit. Die Verfeinerung von Erkennung und Visualisierung wird das Vertrauen im KI-Zeitalter bestimmen.Google Support



Referenzartikel

YouTubes KI-Tool zur "Ähnlichkeitserkennung" sucht nach Deepfakes von beliebten Kreativen
Quelle: https://www.theverge.com/news/803818/youtube-ai-likeness-detection-deepfake

← Zurück zur Artikelliste

Kontakt |  Nutzungsbedingungen |  Datenschutzrichtlinie |  Cookie-Richtlinie |  Cookie-Einstellungen

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Alle Rechte vorbehalten.