¿Derechización solo por ver "recomendaciones" durante unas semanas? El impacto "difícil de revertir" del algoritmo de X

¿Derechización solo por ver "recomendaciones" durante unas semanas? El impacto "difícil de revertir" del algoritmo de X

"Recomendaciones": ¿Realmente influyen en nuestras opiniones?

La línea de tiempo de las redes sociales no es solo una lista de publicaciones. Qué publicaciones vemos y cuáles se pierden pueden influir en nuestros intereses, emociones e incluso en nuestras opiniones políticas; esta intuición es compartida por muchos. Sin embargo, hay sorprendentemente pocos estudios que hayan experimentado en plataformas a gran escala para verificar cuánto pueden los algoritmos cambiar las actitudes políticas.


El estudio que ha sido tema de discusión utilizó la función de feed de X para realizar un experimento aleatorizado en el campo, mostrando que la diferencia entre "Para ti (recomendaciones)" y "Siguiendo (cronológico)" podría influir en las prioridades políticas y la percepción de problemas internacionales. Un punto destacado es que la influencia podría persistir incluso después de cambiar de nuevo.


¿Qué hizo el estudio?: Un experimento de 7 semanas con aproximadamente 5,000 personas

El equipo de investigación asignó a unos 5,000 usuarios activos en EE.UU. a dos condiciones de visualización de feeds.

  • Feed de recomendaciones (Para ti): Incluye publicaciones de cuentas que el usuario no sigue, ordenadas por la probabilidad de recibir reacciones

  • Feed cronológico: Muestra publicaciones de cuentas seguidas en orden cronológico


El experimento se llevó a cabo durante 7 semanas en 2023. Durante este tiempo, se rastrearon las actitudes políticas de los participantes (qué consideran temas prioritarios, evaluación de eventos políticos específicos, percepción de conflictos internacionales, etc.) y su comportamiento en la plataforma (cambios en las cuentas seguidas, etc.).


Resultados: El feed de recomendaciones fortaleció las "prioridades de derecha"

Uno de los principales resultados fue que los participantes que cambiaron del feed cronológico al de recomendaciones mostraron una tendencia creciente a priorizar temas que el Partido Republicano suele considerar importantes (crimen, inflación, inmigración, etc.). También se observó un cambio hacia evaluaciones más conservadoras y alineadas con los republicanos en relación con ciertos eventos políticos (como investigaciones sobre la política estadounidense).


Además, en temas internacionales, se reportó un cambio hacia una disminución del apoyo hacia Ucrania y un aumento relativo en el índice pro-Rusia en el contexto de la guerra entre Rusia y Ucrania.


Lo importante aquí es que el estudio no se limita a decir que "los usuarios ya eran así", sino que demuestra, mediante asignación aleatoria, que cambiar la estructura del feed puede mover las actitudes promedio.


¿Por qué ocurrió?: Aumento de publicaciones de derecha y disminución de noticias

El equipo de investigación no solo observó cambios en las actitudes, sino que también comparó el contenido que fluía en los feeds. En el feed de recomendaciones, en comparación con el cronológico,

  • aumenta la proporción de contenido de tendencia derechista

  • disminuyen las publicaciones de organizaciones de noticias tradicionales

  • se elevan las publicaciones de activistas políticos o con posturas fuertes
    se observaron estas tendencias.


Esto sugiere que no solo es más fácil que las publicaciones de derecha se expongan, sino que la base común de hechos proporcionada por los medios de noticias se debilita, y las publicaciones de movimientos ganan protagonismo, lo que podría ser el terreno para el cambio de opinión.


El punto más preocupante: No siempre "volverá a la normalidad" al cambiar

La razón por la que este estudio ha captado especial atención es esta. El feed de recomendaciones no solo cambia la exposición diaria, sino que también altera el comportamiento de seguimiento de los usuarios, y estos cambios tienden a persistir.


Mientras usan el feed de recomendaciones, los participantes son más propensos a ser guiados hacia seguir cuentas más derechistas. Una vez que cambian las relaciones de seguimiento, incluso si vuelven al cronológico, el conjunto de cuentas seguidas permanece alterado, por lo que el mundo que el usuario ve (su entorno informativo) no "vuelve completamente".


El estudio muestra que la influencia del algoritmo no se limita a "reordenar en el momento", sino que reconfigura el entorno informativo del usuario, lo que es un punto de vista importante.


Reacciones en redes sociales: Bienvenida, precaución y oposición

 

Las reacciones en redes sociales sobre este estudio se dividen en cuatro corrientes principales.


1) Investigadores y comunicadores científicos: El valor de demostrar lo "obvio" experimentalmente
En plataformas como Bluesky, destacan comentarios como "lo intuíamos, pero su demostración en un experimento a gran escala es significativa" y "es una refutación a la afirmación de que las actitudes no cambian". Más que sorpresa, hay una fuerte valoración de que se ha incrementado la evidencia utilizable para debates políticos.


2) Medios y comentaristas: Cuestionamiento sobre la estructura que "reduce las noticias"
Muchos se centran en cómo las recomendaciones hunden a las organizaciones de noticias y elevan las publicaciones de activistas. Antes que el sesgo político, la preocupación es que la calidad de la información y su verificabilidad disminuyen, distorsionando la formación de actitudes.


3) Usuarios generales: "Lo siento así", "¿No es lo mismo en otras redes?"
En Reddit, hay reacciones basadas en la experiencia como "no me sorprende" y "parece similar en Facebook", mientras que también se escuchan voces que dicen "muchos no usan las redes con fines políticos" y "hay que ser cautelosos al extrapolar a quienes no ven publicaciones políticas". Es decir, junto con la empatía hacia los resultados del estudio, también se discute la distancia con el uso personal.


4) Defensa y oposición a la plataforma: Debate sobre la interpretación del "giro a la derecha"
Hay contraargumentos como "hacerse más conservador no es intrínsecamente malo", "el estudio se centra en el contexto político de EE.UU. y no se aplica directamente a otros países", y "incluso el cronológico tiene sesgos". Especialmente, se mezclan discusiones que vinculan el feed de recomendaciones con "censura" y precauciones sobre el fortalecimiento de regulaciones, mostrando cómo la interpretación del estudio se convierte en un tema político.


En el ámbito japonés, a partir de artículos de medios extranjeros, se extienden fácilmente puntos de discusión como "las recomendaciones agudizan los debates" y "volver al cronológico no es una solución mágica". Además, en Japón, más allá del eje derecha-izquierda, se tiende a hablar en el contexto de problemas internacionales, teorías conspirativas y movilizaciones incendiarias, con una tendencia a fortalecer la perspectiva de **"¿quién se beneficia del diseño?"**.


¿Qué se puede concluir?: Más allá de la configuración personal, "diseño y transparencia"

La pregunta que plantea este estudio va más allá de los ajustes individuales en el uso. Por supuesto, es posible defenderse eligiendo el cronológico, revisando a quién se sigue, y ajustando conscientemente la exposición a temas políticos. Sin embargo, la esencia es que va más allá del "alcance que puede compensar el esfuerzo individual", y el diseño de la plataforma crea el entorno informativo de la sociedad.


Especialmente, mientras el algoritmo

  • aprenda qué considera "buenas reacciones"

  • eleve o hunda categorías de publicaciones

  • y la medida en que induce el comportamiento de seguimiento
    mientras el contenido del diseño sea opaco, solo veremos los resultados (división, radicalización, sesgo) y nos moveremos sin rumbo.


Investigadores y algunos artículos de análisis argumentan que se debe exigir institucionalmente la transparencia y la rendición de cuentas del algoritmo. Si influye en la toma de decisiones de la sociedad como infraestructura pública, se necesita la idea de **"no dejarlo como una caja negra"**.


Nota: No es una conclusión universal

Por otro lado, al leer el estudio, hay algunas reservas a considerar. Por ejemplo, el objetivo son usuarios activos en EE.UU., y no necesariamente se aplica directamente a países con culturas políticas y estructuras de temas diferentes. Además, los efectos son promedios, y la influencia puede variar según los atributos del usuario y el propósito de uso.


Aun así, el significado de haber demostrado en plataformas a gran escala que "las diferencias en los feeds mueven actitudes y comportamientos" y que "pueden persistir después del cambio" es significativo. La discusión debería avanzar hacia "qué recomendaciones, bajo qué condiciones, afectan a qué personas".



Fuentes