YouTube erweitert die Deepfake-Erkennung für Hollywood: Gründe für die Mischung aus Begrüßung und Misstrauen

YouTube erweitert die Deepfake-Erkennung für Hollywood: Gründe für die Mischung aus Begrüßung und Misstrauen

YouTube bietet Hollywood ein "Gesichtserkennungstool" an

Es gibt wohl kaum noch jemanden, der nicht schon einmal vor einem von KI generierten Video stand und sich fragte: "Ist das echt?" Videos, in denen Politiker scheinbar Aussagen machen, die sie nie getätigt haben, Szenen aus Filmen, in denen Schauspieler auftauchen, die nie mitgespielt haben, oder Stimmen, die Lieder singen, die sie nie aufgenommen haben. Mit der Weiterentwicklung von generativer KI werden solche "Imitationsvideos", die einst spezielles Fachwissen erforderten, zunehmend für normale Nutzer zugänglich.

In dieser Situation hat YouTube einen neuen, beachtenswerten Schritt unternommen. Die Plattform hat ihre "likeness detection"-Technologie, die Gesichter von durch KI generierten oder veränderten Personen, sogenannte Deepfakes, erkennt, auf Hollywood-Schauspieler, Musiker, Talente und die Agenturen oder Managementfirmen, die sie vertreten, ausgeweitet.

Diese Funktion sucht nach KI-generierten Inhalten auf YouTube, die den registrierten Gesichtern ähneln, damit die betroffenen Personen oder ihre Vertreter diese überprüfen können. Wenn ein Problem festgestellt wird, können Nutzer über den Datenschutzbeschwerdeprozess von YouTube die Entfernung beantragen.

Bisher hat YouTube ähnliche Technologien testweise für einige Creator bereitgestellt und später auf Politiker, Regierungsbeamte und Journalisten ausgeweitet. Mit dieser Erweiterung wird die Zielgruppe nun ernsthaft auf die Unterhaltungsindustrie ausgedehnt.

Wichtig ist, dass diese Funktion auch für Prominente offen ist, die keinen YouTube-Kanal haben. Das bedeutet, dass nicht nur YouTuber oder Streamer, sondern auch Filmschauspieler, Musiker, Models und TV-Persönlichkeiten, die keine offizielle Präsenz auf YouTube haben, überprüfen können, ob ihr "Gesicht" unbefugt genutzt wird.


Das System ähnelt einer "Gesichtsversion von Content ID"

YouTube selbst beschreibt dieses System als ähnlich dem Urheberrechtsverwaltungssystem "Content ID". Allerdings ist das Ziel der Erkennung nicht Musik oder das Werk selbst, sondern das Gesicht der Person. Während Content ID nach Übereinstimmungen von Musik oder Videos sucht, sucht die likeness detection nach KI-generierten oder veränderten Inhalten, die dem Gesicht des Registrierten ähneln.

Für die Nutzung ist eine Identitätsüberprüfung erforderlich. Die betroffene Person muss einen von der Regierung ausgestellten Ausweis und ein kurzes Selfie-Video einreichen. Dieses Selfie-Video dient nicht nur der Identitätsüberprüfung, sondern auch als Referenzdaten für die Erkennung. YouTube erklärt, dass die Gesichtserkennung nur mit Zustimmung des Registrierten erfolgt, um die entsprechenden Videos zu finden.

Derzeit liegt der Hauptfokus auf dem "Gesicht". Auf der YouTube-Hilfeseite wird angegeben, dass die Erkennung von Stimmen in Zukunft erweitert werden soll. Das bedeutet, dass KI-generierte Stimmen, die falsche Aussagen oder Gesang imitieren, noch eine separate Herausforderung darstellen.

Erkannte Videos werden nicht sofort automatisch gelöscht. Die betroffene Person oder ihr Vertreter überprüft die Liste und entscheidet, ob eine Entfernung beantragt werden soll. Anschließend prüft YouTube die Anfrage im Hinblick auf die Datenschutzrichtlinien.

Dies ist ein entscheidender Punkt. Nur weil ein Video erkannt wird, bedeutet das nicht, dass es automatisch gelöscht wird. YouTube berücksichtigt, ob der Inhalt KI-generiert oder verändert wurde, ob dies den Zuschauern offengelegt wird, ob die Person eindeutig identifizierbar ist, ob es realistisch wirkt und ob es sich um Parodie, Satire oder öffentliche Angelegenheiten handelt.

Diese Funktion ist also kein "Schalter, um alle Videos mit Prominentengesichtern zu löschen". Sie ist vielmehr ein Überwachungs- und Verwaltungstool, das es den Betroffenen erleichtert, die Nutzung ihres Bildes zu überwachen und bei problematischen Inhalten Beschwerde einzulegen.


Warum jetzt Hollywood?

Die Unterhaltungsindustrie ist einer der Bereiche, die am stärksten von Deepfakes betroffen sind. Gesichter von Schauspielern werden in andere Filme eingefügt, Stimmen von Sängern werden genutzt, um unveröffentlichte Songs zu erstellen, oder echte Talente werden so dargestellt, als würden sie Produkte oder politische Aussagen unterstützen. Solche Inhalte können im Bereich von Scherzen oder Fan-Kreationen bleiben, aber auch den Ruf, Verträge, Einkommen und sogar die Sicherheit der Betroffenen beeinträchtigen.

Besonders problematisch sind betrügerische Werbungen oder gefälschte Empfehlungsvideos. Videos, die Prominente scheinbar Investitionsprodukte, Nahrungsergänzungsmittel, Kryptowährungen, Apps oder politische Kampagnen unterstützen lassen, können Zuschauer täuschen. Für die Betroffenen geht es um Ehre und Vertrauen, für die Zuschauer besteht die Gefahr finanzieller Schäden.

Zudem betrifft die unbefugte Nutzung von Porträts durch KI auch die Arbeit von Schauspielern, Synchronsprechern und Musikern. Wenn KI in der Lage ist, täuschend echte Bilder oder Stimmen zu erstellen, stellt sich die Frage, wer die Rechte daran besitzt. Ist die Erlaubnis der betroffenen Person erforderlich? Entsteht ein Anspruch auf Vergütung? Was ist erlaubt, wenn verstorbene Schauspieler in neuen Produktionen erscheinen sollen?

Die Erweiterung der YouTube-Funktion ist mehr als nur eine Sicherheitsmaßnahme auf der Plattform. Sie ist Teil eines größeren Trends, der sich mit "Gesichtsrechten", "Stimmrechten" und der kommerziellen Nutzung von Persönlichkeiten im KI-Zeitalter befasst.


Auf sozialen Medien überwiegt Misstrauen gegenüber Zustimmung

 

Auf sozialen Medien gibt es unterschiedliche Reaktionen auf diese Nachricht. Besonders auf Reddit ist eine skeptische Haltung zu beobachten.

Häufig ist der sarkastische Kommentar zu hören: "Die großen Tech-Unternehmen, die das KI-Problem verbreitet haben, bieten nun die Lösung an." Ein Nutzer hinterfragte die Rolle von Unternehmen wie Google und YouTube, die die Verbreitung von KI-Technologien gefördert haben und nun Abwehrmaßnahmen präsentieren. Ein anderer Nutzer verglich die Situation mit dem Goldrausch, bei dem nicht die Goldgräber, sondern die Verkäufer von Werkzeugen am meisten profitierten, und wies darauf hin, dass in der KI-Ära möglicherweise diejenigen, die die Gegenmaßnahmen verkaufen, mehr profitieren als die, die das Problem selbst verursachen.

Es gab auch Reaktionen wie "Es ist wie das Geschäftsmodell alter Antivirensoftware". Das bedeutet, dass einige Menschen das Gefühl haben, dass der Wert von Erkennungstools steigt, je mehr Bedrohungen es gibt.

Gleichzeitig gibt es starke Bedenken hinsichtlich Fehlalarmen. Die Sorge besteht, dass die Gesichtserkennung durch KI auch Fan-Edits von Filmen, Cosplay-Videos, Imitationen, Parodien, Motion-Capture von Spielen und Videos, die eindeutig als Witz gedacht sind, erfassen könnte. Tatsächlich wurde YouTubes Content ID in der Vergangenheit für Fehlalarme und überzogene Urheberrechtsansprüche kritisiert. Wenn diese Funktion auf "Gesichter" angewendet wird, wird der Einfluss auf kreative Ausdrucksformen noch sensibler.

Auf Reddit äußerten einige die Sorge, dass bestimmte Comedy-Kanäle oder Fan-Videos betroffen sein könnten. Wenn Deepfakes eindeutig als Satire oder Parodie verwendet werden, wie weit kann man das zulassen? Der Schutz der Rechte der Betroffenen und die Freiheit der Meinungsäußerung sind nicht mechanisch zu trennen.

Zudem stellt sich die Frage: "Werden am Ende nur Prominente geschützt?" Die aktuelle Zielgruppe sind Hollywood-Stars und Unterhaltungsprofis, aber die Deepfake-Problematik betrifft nicht nur Prominente. Fälle, in denen das Gesicht oder die Stimme von Normalbürgern ohne Erlaubnis verwendet werden, insbesondere bei sexuellen Bild- oder Videomontagen oder betrügerischer Nutzung, sind ernst. Während der Schutz für Prominente voranschreitet, bleibt die Frage, ob die gleiche Unterstützung auch normalen Nutzern zuteilwird, als großes Problem bestehen.


Auch YouTube steht vor einer schwierigen Balance

Aus der Sicht von YouTube ist dieses Problem jedoch nicht einfach zu lösen. Wenn alle KI-generierten Inhalte verboten werden, könnte dies Bildung, Kritik, Parodie, Filmproduktion und Fankultur ersticken. Werden sie hingegen ignoriert, könnten Imitationen, Betrug, Verleumdung, politische Unruhen und Belästigung zunehmen.

YouTube hat bereits Regeln eingeführt, die von den Erstellern verlangen, realistisch wirkende KI-generierte oder veränderte Inhalte offenzulegen. Wenn reale Personen scheinbar Aussagen oder Handlungen machen, die sie nicht gemacht haben, oder wenn realistisch wirkende Ereignisse dargestellt werden, die nicht stattgefunden haben, ist eine Kennzeichnung für die Zuschauer erforderlich.

Ob jedoch ein Offenlegungsetikett ausreicht, ist eine andere Frage. Zuschauer bilden sich oft eine Meinung nur anhand des Titels oder Thumbnails eines Videos und verbreiten es, ohne das Etikett zu beachten. Besonders bei Kurzvideos oder in sozialen Medien geht der ursprüngliche Kontext leicht verloren. Wenn ein gefälschtes Video einmal verbreitet ist, bleibt der Schaden auch nach einer Korrektur bestehen.

Daher hat die likeness detection als Mechanismus zur schnelleren "Entdeckung" einen Sinn. Es ist effizienter, wenn die Plattform potenzielle Kandidaten anzeigt, als wenn die betroffenen Personen oder ihre Vertreter selbst ständig suchen müssen. Wenn es hilft, betrügerische Werbungen oder offensichtliche Imitationen leichter zu finden, kann es die Ausweitung des Schadens eindämmen.

Wenn jedoch die Erkennungsgenauigkeit, die Transparenz der Überprüfung, die Geschwindigkeit der Bearbeitung von Beschwerden und das Einspruchsverfahren unzureichend sind, könnte dies neue Unzufriedenheit hervorrufen. Besonders auf YouTube gab es bereits Fälle, in denen Creator das Gefühl hatten, dass sie ohne ausreichende Erklärung der Gründe für die Deaktivierung der Monetarisierung oder die Löschung von Videos benachteiligt wurden. Wenn dasselbe bei der Gesichtserkennung passiert, könnte es als "System, das Prominenten und großen Agenturen zugutekommt" wahrgenommen werden.


Eine Zeit, in der "Echtheit" an Wert gewinnt

Diese Nachricht zeigt, dass im KI-Zeitalter "Echtheit" selbst an Wert gewinnt. Früher hatten Videos als Beweismittel eine starke Wirkung. Doch wenn jeder in der Lage ist, hochentwickelte synthetische Videos zu erstellen, verlieren Videos allein ihre Glaubwürdigkeit.

Wichtig werden daher die Identitätsüberprüfung, der Herkunftsnachweis, die Offenlegung der KI-Nutzung und die Erkennung durch Plattformen. YouTubes Bemühungen sind nur ein Teil davon. In Zukunft müssen die Echtheitsprüfung zum Zeitpunkt der Aufnahme, die transparente Anzeige durch die Ersteller, die Medienkompetenz der Zuschauer, der gesetzliche Schutz von Persönlichkeitsrechten und die Regelsetzung durch Branchenverbände kombiniert werden.

Doch egal, wie weit die Technologie fortschreitet, eine vollständige Lösung ist schwer zu erreichen. Wenn sich die Erkennungstechnologie weiterentwickelt, wird sich auch die Generierungstechnologie weiterentwickeln. Selbst wenn Inhalte auf einer Plattform gelöscht werden, können sie auf anderen Websites oder sozialen Medien erneut veröffentlicht werden. Auch wenn die betroffene Person eine Löschung beantragt, kann dies als Parodie oder Kritik anerkannt werden.

Deshalb sollte die neue Funktion von YouTube als "Eingang" und nicht als "Endpunkt" betrachtet werden. Das System zur Erkennung von Deepfakes bei Prominenten könnte sich in Zukunft auf Politiker, Journalisten, Creator und normale Nutzer ausweiten. Dabei stellt sich die Frage, wessen Gesicht geschützt wird, wer über die Löschung entscheidet und wo die Grenze zwischen KI-generierter Kreativität und Rechteverletzung gezogen wird.


Es geht nicht nur um Prominente

Ein Tool zum Schutz von Hollywood-Stars mag für normale Nutzer weit entfernt erscheinen. Doch es betrifft letztlich jeden.

Wenn generative KI noch zugänglicher wird, könnten unbefugte Nutzungen von Gesichtern und Stimmen auch in Schulen, am Arbeitsplatz, in lokalen Gemeinschaften und in familiären Beziehungen zum Problem werden. Videos, die zeigen, dass jemand Dinge sagt, die er nie gesagt hat, Bilder, die jemanden in nicht existierenden Szenen zeigen, oder Anrufe mit Stimmen, die täuschend echt klingen, sind bereits reale Risiken.

Das Tool, das YouTube nun Hollywood zur Verfügung stellt, ist nur deshalb zunächst auf Prominente ausgerichtet, weil es ein Mikrokosmos der Herausforderungen ist, denen sich die gesamte Gesellschaft gegenübersieht. Ein Gesicht ist nicht nur ein Bilddatensatz. Es ist mit Vertrauen, Beruf, Ruf, Persönlichkeit und dem gesamten Leben verbunden.

Die kühle Reaktion auf sozialen Medien zeigt nicht nur das Misstrauen gegenüber YouTube. Viele Menschen sind besorgt darüber, dass die Grenze zwischen Realität und Fälschung durch KI verschwimmt. Gleichzeitig gibt es Widerstand dagegen, die Lösung allein den großen Plattformen zu überlassen.

Das Deepfake-Erkennungstool von YouTube ist sicherlich ein notwendiger Schritt. Doch damit dieser Schritt Vertrauen gewinnt, muss klarer gezeigt werden, wen es schützt, was gelöscht wird und wie Einsprüche eingelegt werden können. Der Kampf um das "Gesicht" im KI-Zeitalter hat gerade erst begonnen.


Quellen-URL

G1 Globo: Der Bericht, der als Ausgangspunkt für diesen Artikel diente und über YouTubes Angebot eines Deepfake-Erkennungstools für Hollywood-Prominente berichtet.
https://g1.globo.com/tecnologia/noticia/2026/04/24/youtube-lanca-ferramenta-de-deteccao-de-deepfakes-para-celebridades-de-hollywood.ghtml

YouTube offizieller Blog: Offizielle Ankündigung der Erweiterung der likeness detection auf die Unterhaltungsindustrie und die Zusammenarbeit mit CAA, UTA, WME, Untitled Management und anderen.
https://blog.youtube/news-and-events/youtube-likeness-detection-ai-protection/

YouTube Hilfe: Erklärung zur Funktionsweise der likeness detection, Identitätsüberprüfung, Gesichtserkennung, Löschanträge und dass derzeit hauptsächlich visuelle Gesichtsübereinstimmungen behandelt werden.
https://support.google.com/youtube/answer/16440338?hl=en

YouTube Hilfe: Offenlegungsregeln für KI-generierte oder veränderte Inhalte und die Bedingungen, unter denen realistisch wirkende synthetische Inhalte gekennzeichnet werden müssen.
https://support.google.com/youtube/answer/14328491

YouTube Hilfe: Löschanträge für Inhalte, die einer Person ähneln, und die bei der Überprüfung berücksichtigten Elemente wie Parodie, Satire und öffentliche Angelegenheiten.
https://support.google.com/youtube/answer/2801895?hl=en

The Verge: Artikel über die Erweiterung der likeness detection von YouTube auf Prominente, den Ablauf der Identitätsüberprüfung und Löschanträge sowie die Unterschiede zu Content ID.
https://www.theverge.com/ai-artificial-intelligence