« Recommander » peut-il entraîner un glissement vers la droite en quelques semaines seulement ? L'impact « difficilement réversible » de l'algorithme X

« Recommander » peut-il entraîner un glissement vers la droite en quelques semaines seulement ? L'impact « difficilement réversible » de l'algorithme X

« Recommandations » : influencent-elles nos opinions ?

La timeline des réseaux sociaux n'est pas simplement une liste de publications. Quels posts attirent notre attention et lesquels sont ignorés peuvent influencer nos intérêts, nos émotions et même nos opinions politiques—c'est une intuition que beaucoup partagent. Cependant, peu d'études ont réellement testé par des expériences à grande échelle dans des plateformes réelles l'impact des algorithmes sur les attitudes politiques.


L'étude récemment discutée utilise la fonctionnalité de flux de X pour une expérience randomisée sur le terrain, montrant que la différence entre « Pour vous (recommandé) » et « Abonnements (chronologique) » peut influencer les priorités politiques et la perception des questions internationales. Un point d'intérêt est que l'impact peut persister même après le changement de flux.


Ce que l'étude a fait : une expérience de 7 semaines avec environ 5 000 participants

L'équipe de recherche a assigné deux conditions d'affichage de flux à environ 5 000 utilisateurs actifs aux États-Unis.

  • Flux recommandé (Pour vous) : Affiche les publications, y compris celles que l'utilisateur ne suit pas, classées par probabilité de susciter une réaction

  • Flux chronologique : Affiche les publications des comptes suivis dans l'ordre chronologique


La période d'expérimentation a duré 7 semaines en 2023. Pendant ce temps, les attitudes politiques des participants (quelles questions sont considérées comme prioritaires, évaluation d'événements politiques spécifiques, perception des conflits internationaux, etc.) et leurs comportements sur la plateforme (changements dans les abonnements, etc.) ont été suivis.


Résultats : le flux recommandé renforce une « priorité de droite »

Les résultats principaux montrent que les participants passant du flux chronologique au flux recommandé ont tendance à accorder plus d'importance aux questions souvent mises en avant par le Parti républicain (criminalité, inflation, immigration, etc.). De plus, un changement vers une évaluation plus conservatrice et alignée sur le Parti républicain a été observé concernant certains événements politiques spécifiques (comme les enquêtes sur la politique américaine).


En ce qui concerne les questions internationales, il a été rapporté que la sympathie envers l'Ukraine a diminué, tandis que l'indice pro-russe a augmenté dans le contexte de la guerre Russie-Ukraine.


L'importance ici est que l'étude ne se contente pas de rejeter l'idée que « les utilisateurs étaient déjà ainsi », mais montre que changer la structure du flux peut modifier les attitudes moyennes, démontré par une assignation aléatoire.


Pourquoi cela se produit-il : augmentation des publications de droite et diminution des nouvelles

L'équipe de recherche a comparé non seulement les changements d'attitude, mais aussi le contenu qui apparaît dans le flux. Dans le flux recommandé, par rapport au chronologique,

  • la proportion de contenu orienté à droite augmente

  • les publications des organisations de presse traditionnelles diminuent

  • les publications d'activistes politiques ou aux opinions fortes sont mises en avant
    ces tendances ont été observées.


Cela signifie que non seulement « les publications de droite sont plus visibles », mais que la base commune de faits fournie par les médias d'information s'amenuise, et les publications militantes prennent le devant de la scène, ce qui pourrait être le terreau du changement d'opinion.


Le point le plus inquiétant : « couper ne garantit pas un retour »

La raison pour laquelle cette étude a particulièrement attiré l'attention est ici. Le flux recommandé ne change pas seulement l'exposition quotidienne, mais modifie les comportements de suivi des utilisateurs, et ces changements ont tendance à persister.


Pendant qu'ils utilisent le flux recommandé, les participants sont plus susceptibles de suivre des comptes plus orientés à droite. Une fois que les relations de suivi changent, même en revenant au flux chronologique, les ensembles de suivi restent modifiés, de sorte que le monde que l'utilisateur voit (environnement d'information) ne « revient pas complètement ».


L'étude montre que l'impact des algorithmes ne se limite pas à « l'organisation du jour », mais reconstruit l'environnement d'information de l'utilisateur, ce qui est un point de vue important.


Réactions sur les réseaux sociaux : accueil, prudence et opposition

 

Les réactions sur les réseaux sociaux à cette étude se divisent en quatre grandes tendances.


1) Chercheurs et communicateurs scientifiques : la valeur de démontrer l'« évidence » par l'expérience
Sur des plateformes comme Bluesky, on remarque des commentaires tels que « c'était intuitif, mais la démonstration par une expérience à grande échelle sur le terrain est significative » et « cela réfute l'idée que les attitudes ne changent pas ». Plus que la surprise, l'accent est mis sur l'augmentation des preuves utilisables pour les débats politiques.


2) Médias et commentateurs : questionnement sur la structure qui « diminue les nouvelles »
Beaucoup de réactions se concentrent sur le fait que les recommandations diminuent la visibilité des organisations de presse et augmentent celle des publications d'activistes. Avant même le biais politique, la baisse de la qualité de l'information et de sa vérifiabilité est perçue comme un facteur de distorsion de la formation des attitudes.


3) Utilisateurs généraux : « Cela correspond à mon ressenti », « Les autres réseaux sociaux sont-ils différents ? »
Sur Reddit, on trouve des réactions basées sur l'expérience personnelle, telles que « cela ne surprend pas » et « cela semble similaire sur Facebook ». Cependant, il y a aussi des voix qui disent « beaucoup de gens n'utilisent pas les réseaux sociaux à des fins politiques » et « il faut être prudent avec les extrapolations vers ceux qui ne voient pas de publications politiques ». En d'autres termes, en plus de l'empathie avec les résultats de l'étude, la distance par rapport à leur propre utilisation est également discutée.


4) Défenseurs et opposants des plateformes : contestation autour de l'interprétation de la « droitisation »
Il y a aussi des contre-arguments tels que « devenir conservateur n'est pas nécessairement mauvais », « l'étude est dans le contexte de la politique américaine et ne s'applique pas directement à d'autres pays », et « même le flux chronologique peut être biaisé ». En particulier, des discussions lient le flux recommandé à la « censure » et expriment des inquiétudes quant au renforcement de la régulation, montrant comment l'interprétation de l'étude devient un enjeu politique.


Dans la sphère japonaise, les articles de presse étrangers ont déclenché des discussions sur le fait que « les recommandations polarisent les débats » et que « revenir au chronologique n'est pas une solution universelle ». Au Japon, en plus de l'axe droite-gauche, les questions internationales, les théories du complot et les contextes de mobilisation par la controverse sont souvent abordés, avec une tendance à se demander **« qui profite de cette conception ? »**


Ce que cela implique : plus que les réglages individuels, l'« architecture et la transparence »

Les questions soulevées par cette étude ne se limitent pas à l'amélioration de l'utilisation individuelle. Bien sûr, il est possible de choisir le chronologique, de revoir ses abonnements, ou d'ajuster consciemment son exposition aux sujets politiques. Cependant, l'essentiel dépasse « ce que l'effort individuel peut compenser » et réside dans le fait que la conception des plateformes façonne l'environnement informationnel de la société.


En particulier, tant que les algorithmes

  • apprennent ce qu'ils considèrent comme une « bonne réaction »

  • quels types de publications sont mises en avant ou diminuées

  • et dans quelle mesure les comportements de suivi sont influencés
    ne sont pas clairs, nous ne pourrons que réagir aux résultats (division, radicalisation, biais).


Les chercheurs et certains articles de commentaires soutiennent qu'il est nécessaire de demander institutionnellement la transparence et la responsabilité des algorithmes. Si ces derniers influencent les décisions sociétales comme une infrastructure publique, l'idée de ne pas les laisser dans une **« boîte noire »** devient nécessaire.


Points à noter : ce n'est pas une conclusion universelle

Cependant, il y a quelques réserves à garder à l'esprit lors de la lecture de l'étude. Par exemple, elle cible les utilisateurs actifs aux États-Unis, et il n'est pas garanti que cela s'applique directement à des pays avec des cultures politiques et des structures de questions différentes. De plus, les effets sont des moyennes, et l'impact peut varier selon les caractéristiques des utilisateurs et leurs objectifs d'utilisation.


Néanmoins, l'importance de montrer que « les différences de flux influencent les attitudes et les comportements » sur une plateforme à grande échelle, et que « l'effet peut persister après le changement » est significative. Le débat devrait maintenant évoluer vers « quelles recommandations fonctionnent, dans quelles conditions, et pour quelles personnes ».



Références