Saltar al contenido principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Todos los artículos
  • 🗒️ Registrarse
  • 🔑 Iniciar sesión
    • 日本語
    • English
    • 中文
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Política de privacidad cookie_banner_and Política de cookies cookie_banner_more_info

Configuración de cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

¿Cuanto más favorecedor, más sospechoso? El futuro de Instagram donde "lo auténtico es lo imperfecto" se acelera

¿Cuanto más favorecedor, más sospechoso? El futuro de Instagram donde "lo auténtico es lo imperfecto" se acelera

2026年01月03日 10:02

1) Lo que significa la declaración de "imposible a simple vista"

Distinguir entre lo real y lo falso por una sensación de "parece de AI" o "es antinatural" —— eso dejará de ser posible. Adam Mosseri, quien lidera Instagram, ha emitido una declaración de derrota al reconocer que, con la capacidad de las imágenes y videos generados por AI para imitar la realidad con precisión, será difícil para la plataforma seguir identificando falsificaciones basándose en la "observación visual". Un artículo de NDTV Profit resume su declaración como "imposible detectar la baja calidad de contenido generado por AI a simple vista", y lo reporta como un punto de inflexión que cambia el supuesto básico de la gestión de redes sociales. NDTV Profit


Lo importante aquí es que Mosseri no solo dijo que es "difícil de distinguir". Él predice que, aunque inicialmente la detección y etiquetado de contenido de AI pueda funcionar, cuanto más evolucione la AI, más "desventaja tendrá el lado de la detección". Y propuso un cambio de enfoque radical —— en lugar de "perseguir lo falso", se trata de "marcar lo real (fingerprint real media)". NDTV Profit


2) "Marcar lo real" —— el concepto de "cadena de custodia"

Lo que Mosseri tiene en mente no es un sistema para etiquetar el contenido en algún punto de su "distribución", ya sea durante su creación, edición o re-publicación, sino fijar la autenticidad en el momento de la captura. En una propuesta citada por Engadget, se sugiere que las cámaras (incluidos los fabricantes de smartphones) otorguen una firma criptográfica en el momento de la captura, creando una "cadena de custodia" que permita rastrear que no ha sido alterado. Engadget


Si esto se implementa, lo que veremos en el futuro no será una simple etiqueta de "¿es AI o no?", sino

  • dónde, cuándo y con qué dispositivo fue tomada la imagen

  • si fue editada en algún punto, qué parte es original y qué ha sido cambiado

  • quién garantiza ese historial y bajo qué criterios
    , proporcionando información más cercana a la **proveniencia del contenido**.


Sin embargo, la realidad no es sencilla. Cuantos más "reales" firmados haya, más se asociarán los contenidos sin firma al lado "sospechoso". Hay muchas fuentes importantes socialmente, como fotos antiguas, imágenes escaneadas, activos de video existentes y videos de denuncia anónimos, que carecen de firma. Mientras la tecnología puede generar confianza, también puede crear una **"brecha de confianza"**.


3) ¿Una era en la que "cuanto más perfecto, más sospechoso"? La teoría de que "lo imperfecto es lo real"

Un punto destacado en el artículo de NDTV Profit es el consejo de Mosseri para los creadores. La AI tiende a producir "apariencias limpias y pulidas". Por lo tanto, por ahora, acercarse deliberadamente a lo **"imperfecto", "sin editar", "crudo"** podría ser una señal de autenticidad. Elementos como videos con movimiento de cámara, desenfoques, ángulos desfavorables y expresiones no posadas, como los de las Stories de Instagram, podrían tener valor como "pruebas de lo real". NDTV Profit


Business Insider también ha señalado que Mosseri menciona el fin de la era de "grillas pulidas" y el cambio hacia compartir lo cotidiano sin editar. Business Insider


Sin embargo, esta idea de que "lo imperfecto es lo real" es solo una solución temporal. The Verge cita la perspectiva de Mosseri de que la AI eventualmente podrá replicar incluso "defectos" e "imperfecciones". Cuando eso suceda, las personas tendrán que cambiar su enfoque de "qué se muestra" a "quién lo dice". The Verge


En otras palabras, **en un mundo donde la belleza se ha vuelto barata, lo que se volverá escaso será la "autenticidad" y las "relaciones"**.


4) Nos estamos moviendo hacia una sociedad donde "primero dudamos"

NDTV Profit enfatiza el cambio de actitud del usuario. Hasta ahora, hemos recibido imágenes y videos recomendados por algoritmos como "básicamente reales". Pero en el futuro será al revés. La duda inicial, verificar las motivaciones y el contexto del compartidor, y leer el contexto de la información se convertirán en la norma. NDTV Profit


The Decoder aborda este punto al mencionar que la transición a una duda por defecto puede ser "incómoda y estresante", aludiendo a la premisa biológica y psicológica de que los humanos tienden a creer lo que ven. The Decoder


Cuando la duda se convierte en la norma, incluso el entretenimiento ligero en nuestra navegación diaria puede transformarse en un "trabajo de verificación". Si el costo de verificar la autenticidad aumenta, las personas agotadas pueden inclinarse hacia "no creer en nada" o "creer solo en lo que quieren ver". Aquí es donde reside el potencial para la división social y la propagación de desinformación.


5) ¿Hasta dónde llega la responsabilidad de las plataformas? —— El problema de "quién se hace cargo"

Engadget es crítico en su enfoque. Aunque reconoce la dificultad de identificar contenido generado por AI, plantea la cuestión de si Meta está tratando de desviar el problema hacia "alguien más". Se menciona la insuficiencia de las estrategias de identificación tradicionales como las marcas de agua, la confusión de las etiquetas y el reconocimiento por parte de la plataforma de la "incapacidad para detectar", lo que resulta en una victoria para el contenido de baja calidad generado por AI. Engadget


En resumen, el punto es este:

  • Dado que el aumento del contenido generado por AI es inevitable,¿quién asumirá la carga de los daños (fraude, suplantación, desinformación)?

  • Si se deja la firma a los fabricantes de cámaras, ¿hasta dónde deben colaborar los sistemas operativos, las aplicaciones y las redes sociales?

  • ¿Quién pagará por la estandarización y la infraestructura de verificación a nivel internacional?

Aunque "marcar lo real" parece una buena solución técnica, su implementación y operación también son cuestiones políticas y económicas.


6) Reacciones en redes sociales: apoyo, ironía y la discusión sobre la "economía de la confianza"

Las declaraciones han sido recibidas de diversas maneras a medida que se difundieron como noticia. Aunque fue difícil acceder directamente a Threads, las reacciones se pueden observar a través de redes sociales circundantes y resúmenes de publicaciones.


(1) "Las etiquetas no son suficientes, se necesita prueba de origen" — Resumen periodístico
Karissa Bell, periodista de Engadget, resumió en Bluesky la postura de Mosseri como "renunciar a etiquetar contenido de AI por adelantado y permitir que las cámaras prueben 'qué es real'", clarificando los puntos de discusión. Bluesky Social


(2) Perspectiva del creador: "Buscar lo imperfecto es cambiar las reglas del juego"
En LinkedIn, se ha compartido un resumen de "9 puntos clave" del extenso mensaje de Mosseri, destacando que "la autenticidad = confianza se convierte en moneda" y que en la era de generación infinita, "quién lo dice" adquiere valor. En los comentarios, se sugiere que la consistencia y el juicio personal se convertirán en factores diferenciadores. LinkedIn


(3) Crítica: "¿Las plataformas están trasladando el problema que crearon a otros?"
En los comentarios de artículos de Engadget y The Verge, y en su difusión secundaria, se cuestiona repetidamente cómo las plataformas, que han promovido funciones de AI, planean abordar la responsabilidad si asumen que la "detección es imposible". Engadget


7) Tres cambios que probablemente ocurrirán (predicciones)

Finalmente, ¿cómo cambiarán las operaciones en el terreno a raíz de estos puntos de discusión? Basado en el contenido del artículo y los informes circundantes, al menos tres cosas probablemente avanzarán:

  1. La competencia por la estandarización de los "metadatos de autenticidad"
    La lucha por el liderazgo en el estándar industrial sobre cómo se deben manejar las firmas criptográficas, la proveniencia y el historial de edición. Engadget

  2. La forma de competir de los creadores cambiará de "belleza" a "contexto"
    Será más difícil diferenciarse solo por crear contenido bonito, y el peso recaerá en la cotidianidad, las relaciones, la continuidad y el estilo narrativo, que son "acumulaciones únicas de la persona". The Verge

  3. Los usuarios juzgarán no por "lo que ven" sino por "de dónde viene"
    La duda como premisa, y la importancia de la fecha de creación de la cuenta, publicaciones pasadas, motivación para compartir y comunidades relacionadas. Las plataformas sentirán presión para ofrecer "contexto de cuenta" más que "contenido de medios". NDTV Profit


Artículos de referencia

"Más fácil distinguir medios reales" — El jefe de Instagram admite que a simple vista no se puede detectar la baja calidad de AI
Fuente: https://www.ndtvprofit.com/technology/easier-to-fingerprint-real-media-instagram-head-admits-naked-eye-not-enough-to-spot-ai-slop

← Volver a la lista de artículos

Contacto |  Términos de servicio |  Política de privacidad |  Política de cookies |  Configuración de cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Todos los derechos reservados.