¿Hasta qué punto pueden los periodistas utilizar la IA? ¿La transparencia puede ser contraproducente? El "dilema de la divulgación" en las noticias de la era de la IA

¿Hasta qué punto pueden los periodistas utilizar la IA? ¿La transparencia puede ser contraproducente? El "dilema de la divulgación" en las noticias de la era de la IA

La IA se ha convertido en el "editor invisible" de las salas de redacción. Transcripción de notas de entrevistas, organización de documentos extensos, resúmenes, propuestas de titulares, asistencia con imágenes... Procesos que antes requerían mano de obra y tiempo, ahora se realizan en cuestión de minutos. Para la industria de los medios, que enfrenta dificultades financieras, la IA es una herramienta atractiva para "reducir costos y aumentar la velocidad". Sin embargo, esta conveniencia también difumina la "responsabilidad" y sacude la confianza.


Esta tensión finalmente ha emergido como un "punto de conflicto laboral". Los periodistas de ProPublica, conocidos por su periodismo de investigación independiente, han adoptado una postura firme en las negociaciones sobre el uso de la IA, atrayendo la atención como un conflicto laboral en la industria de las noticias donde la implementación de la IA es un tema central.



1) Lo que está sucediendo en el campo: La IA es "útil", pero también aumentan los errores

La razón por la que el campo no puede prescindir de la IA es clara. En el periodismo orientado a datos, la IA simplifica tareas complejas y ahorra tiempo. La transcripción de audio ya se ha automatizado y los servicios de búsqueda han comenzado a incorporar resúmenes de IA.


Por otro lado, los "errores" resultantes de una implementación apresurada también han salido a la luz. Casos de corrección de errores en resúmenes de IA, publicaciones con nombres de autores inexistentes, y casos donde los productos generados fabrican hechos. Un caso emblemático fue cuando Ars Technica publicó un artículo que contenía "citas fabricadas" generadas por herramientas de IA, que luego fue retractado y se ofrecieron disculpas. Una institución en el periodismo tecnológico cayó en la típica debilidad de la IA (mezclar mentiras que parecen plausibles).


En otras palabras, la IA puede ser tanto un "ángel de eficiencia" como un "demonio de la erosión de la confianza". El problema radica en que las organizaciones de noticias aún no han decidido "dónde colocar las barreras de seguridad" considerando esta dualidad.



2) ¿Por qué hay conflicto?: El debate sobre la gobernanza de la IA se centra más en "autoridad" que en "texto"

Reducir el punto de conflicto a "si escribir artículos con IA o no" es un error. La disputa real es mucho más amplia.

  • Divulgación (Disclosure): Cómo comunicar a los lectores los hechos generados por IA

  • Participación humana (Human-in-the-loop): En qué procesos es esencial el juicio humano

  • Empleo y habilidades (Jobs): Cuando la IA reemplaza trabajos, quién es protegido y quién es reubicado

  • Responsabilidad editorial (Accountability): Cuando ocurren errores, ¿es responsable el periodista, el editor o el implementador de la herramienta?


La parte de ProPublica (gestión) sostiene que "es arriesgado fijar la operación de una tecnología de rápido cambio en un contrato que obliga por varios años", mientras que el sindicato argumenta que "sin fijación, no hay freno". Es un verdadero tira y afloja de gobernanza.


Lo importante aquí es que el alcance del uso de la IA se está expandiendo de un "punto" a una "línea". Desde el inicio de la investigación hasta la publicación, la IA puede involucrarse en innumerables procesos. Por lo tanto, una regla simple de "siempre mostrar cuando se usa IA" a veces no captura adecuadamente la realidad del campo.



3) ¿Es una ilusión que "la divulgación aumente la confianza"?—El dilema de la notificación

Los lectores generalmente dicen que "quieren saber si se usó IA". Sin embargo, cuando se indica claramente el uso de IA, tiende a disminuir la confianza, una contradicción que preocupa a los profesionales de los medios.


¿Por qué? Se pueden considerar varias razones.
Una es que los lectores asocian la IA directamente con "herramientas de reducción de costos" o "símbolos de pereza". Otra es que las "alucinaciones" de la IA generativa son bien conocidas, reforzando la percepción de "IA = fuente de errores". El incidente de retractación de Ars Technica reforzó precisamente esa desconfianza.


Además, un número significativo de personas piensa que "en primer lugar, no deberían usar IA en el periodismo". Para ellos, la divulgación se convierte en una "etiqueta de advertencia".


En última instancia, la divulgación puede ser una "prueba de honestidad", pero también conlleva el riesgo de evocar "disminución de calidad" o "ausencia de periodistas". Aquí es donde reside el "Catch-22".



4) Las reglas no pueden seguir el ritmo: La velocidad del cambio "corrompe" las regulaciones

La afirmación de que la evolución de la IA es demasiado rápida se escucha comúnmente en la industria. Un ensayo que se volvió viral recientemente afirmaba que "si no has interactuado con la IA en los últimos meses, la IA actual es irreconocible", lo que se difundió ampliamente. Esto también impulsó el argumento de que "incluso si se escriben regulaciones ahora, pronto se volverán obsoletas".


Sin embargo, precisamente porque el cambio es rápido, también se necesita "principios fundamentales". Por ejemplo,

  • La responsabilidad de la verificación de hechos recae en los humanos

  • Las citas, nombres propios y cifras deben estar vinculados a fuentes verificables

  • Las partes donde la IA ha estado involucrada deben dejar un registro auditable
    Se debería poder crear una "estructura operativa" que sea aplicable incluso si cambian los tipos de herramientas.


De hecho, Trusting News está promoviendo la creación de directrices sobre la transparencia y la forma de explicar el uso de la IA.



5) ¿Debería intervenir la "ley"?: La NY FAIR News Act de Nueva York lanza una onda expansiva

El debate finalmente ha llegado a la política. En el estado de Nueva York, se ha propuesto un proyecto de ley (NY FAIR News Act) que exige una exención clara y divulgación para el contenido de noticias en el que participa la IA generativa, y requiere revisión por parte de editores humanos, lo que ha generado opiniones divididas.


Los partidarios citan "garantizar la transparencia", "proteger a los trabajadores" y "los derechos de los lectores" como razones. Los opositores y preocupados advierten que "el gobierno podría intervenir en las decisiones editoriales" y que podría "afectar la independencia de los medios y la libertad de expresión".


Lo que se ve aquí es la realidad de que la gobernanza de la IA está comenzando a convertirse en un debate sobre el diseño de sistemas sociales, más allá de la "operación interna de las empresas".



6) Reacciones en redes sociales: Las voces del campo comienzan a pedir "gobernanza" más que "transparencia"

Es interesante notar que el enfoque del debate en las redes sociales ha comenzado a cambiar de la simple dicotomía de "IA es buena o mala" a "cómo gobernarla".


(A) Lado del sindicato y periodistas: Exigen no solo empleo, sino también "barreras de confianza"

En las publicaciones relacionadas con NewsGuild, se percibe la negociación de ProPublica como un "dique contra el abuso de la IA", y se destacan publicaciones que adoptan una postura firme, incluso dispuestos a ir a la huelga. En Bluesky, también se observa un tono de solidaridad con el movimiento de ProPublica.


La implicación es esta: "La IA llegará de todos modos. Entonces, asegúrate de que la transparencia, la participación humana y la minimización del impacto en el empleo estén restringidas por contratos y procesos".


(B) Comunidad tecnológica/lectores: Exigen "auditoría" y "¿quién lo hizo?" tras la retractación de Ars Technica

En torno a la retractación de las "citas fabricadas" de Ars Technica, en foros y comunidades se observan muchas reacciones que piden "¿por qué no se verificó?", "¿quién usó la herramienta y dónde no se detuvo?", exigiendo una auditoría del proceso.


Esto se ve más como una "falla en la gestión del proceso" que como una crítica emocional a la IA. Si se trata la salida de la IA como "material", se requiere un responsable de la inspección del material y estándares, una demanda obvia.


(C) Reacciones al proyecto de ley regulatorio: "La divulgación" no es suficiente / "Demasiada intervención"

Las reacciones al NY FAIR News Act están divididas. En LinkedIn, se discute que "la IA no es solo una cuestión de implementación de herramientas o redacción de divulgaciones, sino una 'gobernanza del ciclo de vida' que incluye acceso a datos, derechos de aprobación y registro".


Por otro lado, persisten críticas sobre cómo podría afectar la independencia de los medios. Hay dudas sobre si la ley puede garantizar la transparencia sin influir en el "contenido editorial", lo cual es difícil en la realidad.



7) Entonces, ¿cómo debería "gobernar" la sala de redacción?: Tres soluciones prácticas

La respuesta práctica a la pregunta planteada por este artículo no es "usar o no usar IA", sino que se resume en los siguientes tres puntos.

① Definir el "uso importante de la IA" y restringirlo fuertemente

La divulgación uniforme en todos los procesos es propensa a fallar en la operación. Por eso,

  • Generación de texto

  • Resúmenes importantes (que sustituyen los puntos clave de las noticias)

  • Generación o alteración de imágenes y videos

  • Generación de citas (esto se trata casi como una prohibición)
    Definir áreas "importantes" como aquellas que "influyen en el juicio del lector y donde los errores pueden causar grandes daños", y llevar a cabo auditorías y divulgaciones fuertes es un enfoque sensato.

② Diseñar la participación humana no como "edición" sino como "responsabilidad"

"Alguien lo revisó" es débil. ¿Quién verificó qué y bajo qué estándares? El diseño de registros y autoridad se convierte en el centro de la gobernanza. El caso de Ars Technica mostró que la debilidad no estaba en las palabras de las reglas, sino en el diseño operativo.

③ La explicación al lector debe ser "ayuda para la comprensión" y no un "salvoconducto"

La divulgación no es una panacea para aumentar la confianza. Entonces, en lugar de simplemente poner "Se usó IA",

  • Para qué se usó (ejemplo: transcripción, organización de documentos)

  • No se usó en partes donde no debería (ejemplo: no se generaron citas)

  • Procedimiento de corrección en caso de errores
    Debe diseñarse como una "explicación" que incluya todo esto.



Conclusión: La IA se ha convertido en un "objeto de gobernanza" más que en una "herramienta"

La IA aumenta la eficiencia en las salas de redacción. Pero al mismo tiempo, aumenta las vías para la introducción de errores y disuelve los límites de la responsabilidad. Los sindicatos exigen cláusulas de IA, los proyectos de ley exigen transparencia, y las comunidades de lectores exigen auditorías, porque la IA ya no es una "herramienta conveniente", sino un "objeto de gobernanza".


Las noticias del futuro no se centrarán en si incluir o no IA, sino en "cómo mantener la confianza en un mundo donde la IA está presente". Lo que decidirá el resultado no será el rendimiento del modelo, sino el diseño de la gobernanza