YouTube amplía la detección de deepfakes para Hollywood, razones de bienvenida y desconfianza se entrelazan

YouTube amplía la detección de deepfakes para Hollywood, razones de bienvenida y desconfianza se entrelazan

La herramienta de detección facial que YouTube ofreció a Hollywood

Es probable que muchas personas ya hayan experimentado la confusión al ver un video generado por IA y preguntarse, aunque sea por un momento, "¿es esto real?". Videos que muestran a políticos diciendo cosas que nunca dijeron, imágenes de actores apareciendo en escenas de películas en las que no actuaron, o voces de cantantes interpretando canciones que nunca cantaron. Con la evolución de la IA generativa, lo que antes requería habilidades técnicas especializadas, ahora está al alcance de los usuarios comunes.

En este contexto, YouTube ha tomado una nueva medida destacada. Ha ampliado su tecnología de "detección de semejanza", que detecta rostros generados o alterados por IA, conocidos como deepfakes, para actores de Hollywood, músicos, talentos y las agencias o compañías de gestión que los representan.

Esta función busca contenido generado por IA en YouTube que se asemeje a los rostros de las personas registradas, permitiendo que ellos o sus representantes lo verifiquen. Si se determina que hay un problema, los usuarios pueden solicitar su eliminación a través del proceso de reclamación de privacidad de YouTube.

Hasta ahora, YouTube había ofrecido esta tecnología de prueba a algunos creadores, y luego amplió su alcance a políticos, funcionarios gubernamentales y periodistas. Con esta expansión, el enfoque se extiende de manera significativa a la industria del entretenimiento.

Lo importante es que esta función también está disponible para celebridades que no tienen un canal de YouTube. Es decir, no solo para YouTubers o streamers, sino también para actores de cine, músicos, modelos y presentadores de televisión que no tienen una presencia oficial en YouTube, permitiéndoles verificar si su "rostro" está siendo utilizado sin permiso.


El sistema es similar a una versión facial de "Content ID"

YouTube describe este sistema como similar al sistema de gestión de derechos de autor "Content ID". Sin embargo, el objetivo de detección no son las obras musicales o audiovisuales en sí, sino los rostros de las personas. Mientras que Content ID busca coincidencias de canciones o videos, la detección de semejanza busca contenido generado o alterado por IA que se asemeje a los rostros de los registrados.

Se requiere verificación de identidad para su uso. Los sujetos deben presentar una identificación emitida por el gobierno y un breve video selfie de su rostro. Este video selfie se utiliza no solo para la verificación de identidad, sino también como referencia para la detección. YouTube explica que solo utilizará las características faciales para buscar videos relevantes si el registrado da su consentimiento.

Por ahora, el objetivo principal es el "rostro". La página de ayuda de YouTube indica que se espera expandir la detección de voz en el futuro. Es decir, la cuestión de las voces de IA que crean declaraciones o canciones falsas sigue siendo un desafío aparte.

Los videos detectados no se eliminan automáticamente. La persona o su representante revisa la lista y decide si solicita su eliminación. Luego, YouTube evalúa el caso a la luz de su política de privacidad.

Este es un punto clave. No todo lo que se detecta es automáticamente objeto de eliminación. YouTube considera si el contenido es generado o alterado por IA, si se revela ese hecho a los espectadores, si la persona es identificable de manera única, si parece realista, y si tiene elementos de parodia, sátira o interés público.

En resumen, esta función no es un "interruptor para eliminar en masa videos que usan el rostro de celebridades". Es una herramienta de monitoreo y gestión diseñada para que las personas comprendan cómo se utiliza su imagen y puedan presentar reclamaciones sobre contenido problemático.


¿Por qué Hollywood ahora?

La industria del entretenimiento es uno de los sectores más vulnerables a los efectos del deepfake. Fusionar el rostro de un actor en otra película, crear pistas de audio no publicadas usando la voz de un cantante, o hacer que una celebridad parezca apoyar productos o declaraciones políticas. Estos contenidos pueden quedarse en el ámbito de la broma o el fanmade, pero también pueden afectar la reputación, contratos, ingresos e incluso la seguridad de las personas involucradas.

Particularmente graves son los anuncios fraudulentos o los videos de recomendaciones falsas. Los videos que muestran a celebridades apoyando productos de inversión, suplementos de salud, criptomonedas, aplicaciones o campañas políticas con las que no están realmente asociadas tienen el potencial de engañar a los espectadores. Para las celebridades, es una cuestión de honor y credibilidad, y para los espectadores, puede llevar a pérdidas económicas.

Además, el uso no autorizado de imágenes por IA afecta directamente el trabajo de actores, dobladores y músicos. Si se puede crear una imagen o voz que se asemeje a la de una persona, ¿quién posee esos derechos? ¿Es necesario el permiso de la persona? ¿Se debe pagar una compensación? ¿Hasta qué punto es aceptable usar la imagen de un actor fallecido en una nueva producción?

La expansión de esta función por parte de YouTube no es solo una medida de seguridad en la plataforma. Debe verse como parte de una tendencia más amplia sobre los "derechos de imagen", "derechos de voz" y el "uso comercial de la personalidad" en la era de la IA.


En las redes sociales predomina la desconfianza más que la bienvenida

 

Esta noticia ha generado diversas reacciones en las redes sociales. En particular, en Reddit, se ha notado una perspectiva escéptica.

Lo que destaca es el sarcasmo de que "las grandes empresas tecnológicas que expandieron el problema de la IA ahora están ofreciendo la solución". Un usuario cuestionó la estructura donde empresas como Google y YouTube, que promovieron la difusión de la tecnología de IA, ahora presentan medidas defensivas. Otro usuario utilizó la metáfora de que en la fiebre del oro, los que más ganaron fueron los que vendieron herramientas, sugiriendo que en la era de la IA, quienes venden herramientas de solución podrían beneficiarse más que del problema en sí.

También hubo reacciones que compararon esto con el modelo de negocio de los antiguos programas antivirus. Es decir, algunas personas sienten incomodidad con la estructura donde el valor de las herramientas de detección aumenta a medida que crecen las amenazas.

Por otro lado, hay una fuerte preocupación por las detecciones erróneas. Existe el temor de que la detección facial por IA pueda involucrar ediciones de fans de películas, videos de cosplay, imitaciones, parodias, captura de movimiento de juegos, y videos claramente hechos como bromas. De hecho, el Content ID de YouTube ha sido criticado en el pasado por detecciones erróneas y reclamos excesivos de derechos. Si esta función se aplica a "rostros", el impacto en la expresión creativa será aún más delicado.

En Reddit, también hubo preocupaciones de que ciertos canales de comedia o videos de fans podrían verse afectados. Si los deepfakes se utilizan claramente como sátira o parodia, ¿hasta dónde se permitirá eso? La protección de los derechos de las personas y la libertad de expresión no son límites que puedan trazarse mecánicamente.

Además, surgió la pregunta de si "al final, solo las celebridades serán protegidas". Aunque el enfoque actual está en las celebridades de Hollywood y personas del entretenimiento, el daño de los deepfakes no se limita a las celebridades. Los casos de uso no autorizado de rostros o voces de personas comunes, especialmente en imágenes o videos sintéticos de contenido sexual o fraude, son graves. Mientras el enfoque de protección avanza hacia las celebridades, queda la gran cuestión de si el mismo nivel de apoyo llegará a los usuarios comunes.


YouTube también enfrenta un difícil equilibrio

Sin embargo, desde la perspectiva de YouTube, este problema no es sencillo. Si se prohíbe todo el contenido generado por IA, se corre el riesgo de reprimir la educación, la crítica, la parodia, la producción audiovisual y la cultura de los fans. Por otro lado, si se deja sin control, el fraude, la suplantación, la difamación, el caos político y el acoso personal pueden proliferar.

YouTube ya ha introducido reglas que requieren que los creadores revelen el contenido generado o alterado por IA que parece realista. Si un video muestra a una persona real diciendo o haciendo algo que en realidad no hizo, o representa eventos realistas que no ocurrieron, se requiere una indicación para los espectadores.

Sin embargo, si solo las etiquetas de divulgación son suficientes es otra cuestión. Los espectadores a menudo forman impresiones solo a partir del título o la miniatura del video y pueden compartirlo sin ver la etiqueta. En particular, en videos cortos o en contenido compartido en redes sociales, el contexto original puede perderse fácilmente. Una vez que un video falso se difunde, el daño puede persistir incluso después de una corrección posterior.

Por lo tanto, la detección de semejanza tiene sentido como un mecanismo para acelerar el "descubrimiento". Es más rápido que la plataforma sugiera candidatos a que la persona o su representante busquen continuamente por su cuenta. Si se pueden identificar anuncios fraudulentos o suplantaciones obvias, se puede esperar un efecto de contención del daño.

Por otro lado, si la precisión de detección, la transparencia de la revisión, la velocidad de respuesta a las reclamaciones y el sistema de apelaciones son insuficientes, se generarán nuevas insatisfacciones. Especialmente en YouTube, ha habido casos en los que los creadores han sentido que sufrieron perjuicios sin comprender completamente las razones de la desmonetización o eliminación de videos. Si ocurre lo mismo con la detección facial, podría percibirse como un sistema que favorece a las celebridades o grandes agencias.


Una era en la que el "parecer real" tiene valor

Lo que esta noticia indica es que en la era de la IA, el "ser auténtico" en sí mismo se convierte en un valor. En el pasado, los videos tenían un gran poder como evidencia. Sin embargo, si cualquiera puede crear videos compuestos de alta calidad, los videos por sí solos ya no serán creíbles.

Aquí es donde se vuelven importantes la verificación de identidad, la prueba de origen, la divulgación del uso de IA y la detección por parte de la plataforma. El esfuerzo de YouTube es solo una parte de esto. En el futuro, será necesario combinar la autenticación en el momento de la grabación, la divulgación transparente por parte de los creadores, la alfabetización mediática de los espectadores, la protección legal de los derechos de imagen y la creación de reglas por parte de organizaciones de la industria.

Sin embargo, por mucho que avance la tecnología, la solución completa es difícil. Si la tecnología de detección avanza, también lo hará la tecnología de generación. Incluso si se elimina de la plataforma, puede ser compartido en otros sitios o redes sociales. Incluso si la persona solicita su eliminación, puede ser aceptado como parodia o crítica.

Por eso, la función de YouTube no debe verse como un "punto final", sino como una "entrada". El sistema para detectar deepfakes de celebridades podría expandirse en el futuro a políticos, periodistas, creadores y usuarios comunes. En ese proceso, se plantean preguntas sobre quiénes serán protegidos, quién decidirá las eliminaciones y dónde se trazará la línea entre la creación por IA y la infracción de derechos.


No es solo un tema de celebridades

Al escuchar sobre una herramienta para proteger a las celebridades de Hollywood, los usuarios comunes podrían pensar que es un tema lejano. Sin embargo, esto no es irrelevante para nadie.

A medida que la IA generativa se vuelve más accesible, el uso no autorizado de rostros y voces podría convertirse en un problema en escuelas, lugares de trabajo, comunidades locales y relaciones familiares. Videos que muestran a alguien diciendo cosas que nunca dijo, imágenes que los muestran en situaciones inexistentes, o llamadas fraudulentas usando voces que suenan como las suyas. Estos ya son riesgos reales.

La herramienta que YouTube ofrece ahora a Hollywood es solo el primer objetivo, pero es un microcosmos de un desafío que enfrenta toda la sociedad. Un rostro no es solo un dato de imagen. Está vinculado a la confianza, la profesión, la reputación, la personalidad y la vida misma.

La reacción fría en las redes sociales no se debe solo a la desconfianza hacia YouTube. Muchas personas sienten ansiedad por la difuminación de la línea entre la realidad y lo falso debido a la IA. Y al mismo tiempo, sienten resistencia a dejar la solución solo en manos de grandes plataformas.

La herramienta de detección de deepfakes de YouTube es ciertamente un paso necesario. Sin embargo, para que ese paso sea confiable, es necesario aclarar a quién se protege, qué se elimina y cómo se pueden presentar apelaciones. La batalla por el "rostro" en la era de la IA apenas ha comenzado.


Fuente URL

G1 Globo: El informe que originó este artículo sobre YouTube ofreciendo herramientas de detección de deepfakes a celebridades de Hollywood.
https://g1.globo.com/tecnologia/noticia/2026/04/24/youtube-lanca-ferramenta-de-deteccao-de-deepfakes-para-celebridades-de-hollywood.ghtml

Blog oficial de YouTube: Anuncio oficial sobre la expansión de likeness detection a la industria del entretenimiento, en colaboración con CAA, UTA, WME, Untitled Management, entre otros.
https://blog.youtube/news-and-events/youtube-likeness-detection-ai-protection/

Ayuda de YouTube: Explicación sobre el funcionamiento de likeness detection, verificación de identidad, detección facial, solicitudes de eliminación, y que actualmente trata principalmente coincidencias visuales de rostros.
https://support.google.com/youtube/answer/16440338?hl=en

Ayuda de YouTube: Reglas de divulgación para contenido generado o alterado por IA, condiciones para la etiqueta de contenido compuesto que parece realista.
https://support.google.com/youtube/answer/14328491

Ayuda de YouTube: Solicitudes de eliminación cuando el contenido generado o compuesto por IA se asemeja a la persona, elementos considerados en la revisión como parodia, sátira, interés público, etc.
https://support.google.com/youtube/answer/2801895?hl=en

The Verge: Artículo sobre la expansión de likeness detection de YouTube a celebridades, el flujo de verificación de identidad y solicitudes de eliminación, y las diferencias con Content ID.
https://www.theverge.com/ai-artificial-intelligence/915872/celebrities-will-be-able-to-find-and-request-removal-of-ai-deepfakes-on-youtube

TechCrunch: Artículo sobre la expansión de la tecnología de likeness detection de YouTube a la industria del entretenimiento, agencias de talentos y compañías de gestión.
https://techcrunch.com/2026/04/21/youtube-expands-its-ai-likeness-detection-technology-to-celebrities