YouTube étend la détection des deepfakes pour Hollywood, entre accueil favorable et méfiance.

YouTube étend la détection des deepfakes pour Hollywood, entre accueil favorable et méfiance.

L'outil de détection de visages que YouTube a offert à Hollywood

Il n'est plus rare que des personnes se demandent, même un instant, si une vidéo générée par l'IA est réelle. Des vidéos montrant des politiciens disant des choses qu'ils n'ont jamais dites, des acteurs apparaissant dans des scènes de films où ils n'ont jamais joué, ou des chanteurs semblant interpréter des chansons qu'ils n'ont jamais chantées. Avec l'évolution de l'IA générative, les vidéos de "fausse identité" qui nécessitaient autrefois des compétences techniques spécialisées deviennent de plus en plus accessibles au grand public.

Dans ce contexte, YouTube a pris une nouvelle mesure notable. La plateforme a élargi sa technologie de "détection de ressemblance", qui détecte les visages générés ou modifiés par l'IA, appelés deepfakes, pour inclure les acteurs, musiciens, célébrités d'Hollywood, ainsi que les agences et sociétés de gestion qui les représentent.

Cette fonctionnalité permet de rechercher sur YouTube du contenu généré par l'IA qui ressemble aux visages des personnes enregistrées, afin que les intéressés ou leurs représentants puissent le vérifier. Si un problème est identifié, les utilisateurs peuvent demander la suppression via le processus de réclamation de confidentialité de YouTube.

Jusqu'à présent, YouTube avait testé cette technologie avec certains créateurs, puis élargi son champ d'application aux politiciens, fonctionnaires et journalistes. Avec cette extension, elle s'étend désormais pleinement à l'industrie du divertissement.

Il est important de noter que cette fonctionnalité est également accessible aux célébrités qui ne possèdent pas de chaîne YouTube. Cela signifie que non seulement les YouTubers et diffuseurs, mais aussi les acteurs de cinéma, musiciens, mannequins et personnalités de la télévision qui n'ont pas de présence officielle sur YouTube peuvent vérifier si leur "visage" est utilisé sans autorisation.


Un système proche de la version faciale de Content ID

YouTube décrit ce système comme similaire à son système de gestion des droits d'auteur, "Content ID". Cependant, la cible de la détection n'est pas la musique ou les œuvres audiovisuelles elles-mêmes, mais les visages des personnes. Alors que Content ID recherche des correspondances de musique ou de vidéos, la détection de ressemblance recherche du contenu généré ou modifié par l'IA qui ressemble aux visages des personnes enregistrées.

L'utilisation de cette fonctionnalité nécessite une vérification d'identité. Les personnes concernées doivent soumettre une pièce d'identité émise par le gouvernement et une courte vidéo selfie de leur visage. Cette vidéo selfie est utilisée non seulement pour la vérification d'identité, mais aussi comme donnée de référence pour la détection. YouTube explique qu'elle n'utilisera les caractéristiques faciales pour rechercher des vidéos correspondantes qu'avec le consentement de la personne enregistrée.

Pour l'instant, la cible principale est le "visage". La page d'aide de YouTube indique que l'extension à la détection vocale est prévue pour l'avenir. Cela signifie que l'IA vocale qui crée de fausses déclarations ou chansons avec une voix ressemblant à celle de la personne reste un autre défi à relever.

Les vidéos détectées ne sont pas automatiquement supprimées. La personne concernée ou son représentant examine la liste et décide de demander ou non la suppression. Ensuite, YouTube examine la demande en fonction de sa politique de confidentialité.

C'est un point crucial. Le fait qu'une vidéo soit détectée ne signifie pas qu'elle sera automatiquement supprimée. YouTube prend en compte si le contenu est généré ou modifié par l'IA, si cette information est divulguée aux spectateurs, si la personne est identifiable de manière unique, si cela semble réaliste, et si cela relève de la parodie, de la satire ou de l'intérêt public.

En d'autres termes, cette fonctionnalité n'est pas un "bouton pour supprimer en masse les vidéos utilisant le visage de célébrités". Elle est avant tout un outil de surveillance et de gestion pour permettre aux personnes concernées de comprendre comment leur image est utilisée et de faciliter les réclamations pour les contenus problématiques.


Pourquoi Hollywood maintenant ?

L'industrie du divertissement est l'un des secteurs les plus vulnérables aux effets des deepfakes. La superposition du visage d'un acteur sur un autre film, la création de morceaux inédits avec la voix d'un chanteur, ou faire croire qu'une célébrité soutient un produit ou une déclaration politique. Ces contenus peuvent rester dans le domaine de la plaisanterie ou des créations de fans, mais ils peuvent aussi affecter la réputation, les contrats, les revenus, voire la sécurité des personnes concernées.

Les publicités frauduleuses et les fausses vidéos de soutien sont particulièrement préoccupantes. Les vidéos montrant des célébrités soutenant des produits d'investissement, des compléments alimentaires, des cryptomonnaies, des applications ou des campagnes politiques auxquels elles ne sont pas réellement associées peuvent tromper les spectateurs. Pour les personnes concernées, c'est une question d'honneur et de crédibilité, et pour les spectateurs, cela peut entraîner des pertes financières.

De plus, l'utilisation non autorisée de l'image par l'IA touche directement le travail des acteurs, doubleurs et musiciens. Si l'on peut créer des vidéos ou des voix ressemblant à celles des personnes concernées, qui détient ces droits ? L'autorisation de la personne est-elle nécessaire ? Une rémunération est-elle due ? Jusqu'où peut-on aller en faisant apparaître un acteur décédé dans une nouvelle œuvre ?

L'extension de cette fonctionnalité par YouTube ne se limite pas à une simple mesure de sécurité sur la plateforme. Elle fait partie d'une tendance plus large concernant les "droits d'image", les "droits de voix" et l'utilisation commerciale de la personnalité à l'ère de l'IA.


La méfiance prédomine sur les réseaux sociaux

 

Cette nouvelle a suscité diverses réactions sur les réseaux sociaux. Sur Reddit en particulier, les avis sceptiques ont été nombreux.

L'ironie la plus courante est que "les grandes entreprises technologiques qui ont propagé le problème de l'IA proposent maintenant des solutions". Un utilisateur a remis en question le fait que des entreprises comme Google et YouTube, qui ont favorisé la diffusion de la technologie IA, proposent maintenant des mesures de défense. Un autre utilisateur a comparé cela à la ruée vers l'or, où ceux qui ont le plus profité n'étaient pas les chercheurs d'or, mais ceux qui vendaient les outils, suggérant que dans l'ère de l'IA, ce sont ceux qui vendent les outils de solution qui en tireront profit.

Il y a également eu des réactions comparant cela au modèle commercial des anciens logiciels antivirus, où plus la menace augmente, plus la valeur des outils de détection augmente, ce qui crée un malaise.

D'autre part, les inquiétudes concernant les fausses détections sont fortes. Il y a une crainte que la détection faciale par l'IA englobe les montages de fans, les vidéos de cosplay, les imitations, les parodies, les captures de mouvements de jeux, et même les vidéos clairement conçues comme des blagues. En effet, le Content ID de YouTube a déjà été critiqué pour des fausses détections et des revendications excessives par le passé. Si cette fonctionnalité est appliquée aux "visages", l'impact sur l'expression créative sera encore plus délicat.

Sur Reddit, certains s'inquiètent de l'impact sur des chaînes de comédie spécifiques ou des vidéos de fans. Dans les cas où les deepfakes sont clairement utilisés comme satire ou parodie, jusqu'où peut-on les tolérer ? La protection des droits des personnes et la liberté d'expression ne peuvent pas être délimitées de manière mécanique.

En outre, la question "Est-ce que seuls les célébrités seront protégées ?" a également été soulevée. Bien que la cible actuelle soit les célébrités d'Hollywood et les professionnels du divertissement, les dommages causés par les deepfakes ne se limitent pas aux célébrités. L'utilisation non autorisée des visages et des voix de personnes ordinaires, en particulier dans des images ou vidéos synthétiques à caractère sexuel ou pour des escroqueries, est un problème grave. Alors que la protection pour les célébrités progresse, il reste à voir si le même niveau de soutien sera disponible pour les utilisateurs ordinaires.


YouTube doit également trouver un équilibre difficile

Cependant, du point de vue de YouTube, ce problème n'est pas simple. Interdire tout contenu généré par l'IA pourrait étouffer l'éducation, la critique, la parodie, la production audiovisuelle et la culture des fans. À l'inverse, ignorer le problème pourrait entraîner une augmentation des usurpations d'identité, des escroqueries, de la diffamation, des troubles politiques et du harcèlement individuel.

YouTube a déjà introduit des règles exigeant des créateurs qu'ils divulguent les contenus générés ou modifiés par l'IA qui semblent réalistes. Lorsqu'une vidéo montre une personne réelle faisant des déclarations ou des actions qu'elle n'a pas réellement faites, ou dépeint des événements réalistes qui ne se sont pas réellement produits, une divulgation est nécessaire pour les spectateurs.

Cependant, la question de savoir si une simple étiquette de divulgation est suffisante reste ouverte. Les spectateurs se forgent souvent une opinion à partir du titre ou de la vignette de la vidéo, et il est possible qu'ils la partagent sans voir l'étiquette. En particulier dans le cas des vidéos courtes ou des reposts sur les réseaux sociaux, le contexte original peut facilement être perdu. Une fois qu'une fausse vidéo est diffusée, même une correction ultérieure ne peut pas toujours réparer les dommages.

C'est pourquoi la détection de ressemblance a du sens en tant que mécanisme pour accélérer la "découverte". Il est plus rapide pour la plateforme de proposer des candidats que pour la personne concernée ou son représentant de continuer à chercher par eux-mêmes. Si cela permet de repérer plus facilement les publicités frauduleuses ou les usurpations d'identité évidentes, cela pourrait aider à limiter l'ampleur des dommages.

Cependant, si la précision de la détection, la transparence de l'examen, la rapidité de réponse aux réclamations et le mécanisme de contestation sont insuffisants, cela pourrait engendrer de nouvelles insatisfactions. En particulier sur YouTube, il y a eu des cas où les créateurs ont ressenti qu'ils subissaient des préjudices sans comprendre pleinement les raisons de la suspension de la monétisation ou de la suppression de vidéos. Si la même chose se produit avec la détection faciale, cela pourrait être perçu comme un système favorisant les célébrités et les grandes agences.


L'époque où "l'authenticité" devient une valeur

La nouvelle montre que dans l'ère de l'IA, "être authentique" devient une valeur en soi. Autrefois, les vidéos avaient un pouvoir fort en tant que preuve. Cependant, à mesure que tout le monde peut créer des vidéos de synthèse avancées, les vidéos seules ne suffisent plus à convaincre.

C'est pourquoi l'authentification, la preuve de l'origine, la divulgation de l'utilisation de l'IA et la détection par les plateformes deviennent cruciales. L'initiative de YouTube n'est qu'une partie de cet effort. À l'avenir, il sera nécessaire de combiner la certification de l'authenticité au moment de la prise de vue, l'affichage transparent du côté des créateurs, l'éducation des spectateurs à la littératie médiatique, la protection des droits à l'image par la loi et l'élaboration de règles par les associations professionnelles.

Cependant, peu importe les avancées technologiques, une solution complète reste difficile. À mesure que la technologie de détection évolue, la technologie de génération évolue également. Même si une vidéo est supprimée de la plateforme, elle peut être repostée sur d'autres sites ou réseaux sociaux. Même si la personne concernée demande la suppression, cela peut être reconnu comme une parodie ou une critique.

C'est pourquoi la fonctionnalité de YouTube doit être vue comme une "entrée" plutôt qu'un "point final". Le système de détection des deepfakes pour les célébrités pourrait s'étendre à l'avenir aux politiciens, journalistes, créateurs et utilisateurs ordinaires. Dans ce processus, les questions de savoir qui est protégé, qui décide des suppressions, et où se situe la frontière entre création par l'IA et violation des droits seront posées.


Ce n'est pas qu'une affaire de célébrités

Entendre parler d'un outil pour protéger les célébrités d'Hollywood peut sembler éloigné pour les utilisateurs ordinaires. Cependant, cela ne concerne pas seulement les célébrités.

À mesure que l'IA générative devient plus accessible, l'utilisation non autorisée des visages et des voix pourrait devenir un problème dans les écoles, les lieux de travail, les communautés locales et même les relations familiales. Des vidéos montrant des personnes disant des choses qu'elles n'ont pas dites, des images les montrant dans des situations inexistantes, ou des appels frauduleux avec une voix ressemblant à la leur sont déjà des risques réels.

L'outil que YouTube propose à Hollywood n'est qu'une première étape, mais il représente une réduction miniature des défis auxquels la société dans son ensemble est confrontée. Un visage n'est pas simplement une donnée d'image. Il est lié à la confiance, à la profession, à la réputation, à la personnalité et à la vie elle-même.

La réaction froide sur les réseaux sociaux n'est pas seulement due à la méfiance envers YouTube. Beaucoup de gens sont préoccupés par le fait que l'IA brouille la frontière entre la réalité et le faux. Et en même temps, ils résistent à l'idée de laisser cette solution uniquement aux grandes plateformes.

L'outil de détection de deepfake de YouTube est certainement un pas nécessaire. Cependant, pour que ce pas soit digne de confiance, il est essentiel de clarifier qui est protégé, ce qui est supprimé, et comment les contestations peuvent être faites. La bataille pour le "visage" à l'ère de l'IA ne fait que commencer.


Source URL

G1 Globo : Le rapport qui a servi de point de départ pour cet article, concernant l'offre par YouTube d'un outil de détection de deepfake pour les célébrités d'Hollywood.
https://g1.globo.com/tecnologia/noticia/2026/04/24/youtube-lanca-ferramenta-de-deteccao-de-deepfakes-para-celebridades-de-hollywood.ghtml

Blog officiel de YouTube : Annonce officielle de l'extension de la détection de ressemblance à l'industrie du divertissement, en collaboration avec CAA, UTA, WME, Untitled Management, etc.
https://blog.youtube/news-and-events/youtube-likeness-detection-ai-protection/

Aide YouTube : Explication du fonctionnement de la détection de ressemblance, vérification d'identité, détection de visage, demande de suppression, et traitement principalement des correspondances visuelles pour le moment.
https://support.google.com/youtube/answer/16440338?hl=en##HTML_TAG_126