Aller au contenu principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Tous les articles
  • 🗒️ S'inscrire
  • 🔑 Connexion
    • 日本語
    • English
    • 中文
    • Español
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Politique de confidentialité cookie_banner_and Politique des cookies cookie_banner_more_info

Paramètres des cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Une grande minorité obscurcit le monde : le problème du "nombre" et de "l'exposition" des commentaires toxiques

Une grande minorité obscurcit le monde : le problème du "nombre" et de "l'exposition" des commentaires toxiques

2025年12月18日 00:44

1)Le sentiment que "les réseaux sociaux sont trop chaotiques" n'est pas dû à votre hypersensibilité

Ouvrez votre fil d'actualités, et vous verrez des déclarations en colère, des moqueries, des attaques personnelles, des théories du complot bâclées——. En quelques minutes, votre humeur peut en être affectée. Si cette expérience se répète, vous pourriez en venir à penser que "l'internet est irrécupérable" ou que "tout le monde est devenu agressif".


Cependant, prenons un moment pour décomposer le problème.
Ce que nous voyons quotidiennement, c'est la "quantité totale de publications" ou "l'exposition visible", et non nécessairement le "nombre de personnes qui publient ce type de contenu".


Une étude de PNAS Nexus, présentée par Phys.org, a montré que cette estimation du "nombre de personnes" pourrait être bien plus erronée que nous le pensions. Phys.org



2)L'étude ne s'est pas concentrée sur la "quantité de toxicité" mais sur "combien de personnes produisent cette toxicité"

L'équipe de recherche a mené une enquête auprès de 1 090 adultes américains (à l'aide de CloudResearch Connect) pour comparer l'estimation des participants sur la "proportion d'utilisateurs publiant des contenus nuisibles" avec les "données réelles de la plateforme" issues de recherches à grande échelle existantes. Phys.org


Voici le point crucial.
Cette recherche ne nie pas que "les réseaux sociaux semblent chaotiques".
Au contraire, elle vérifie si cette "perception de chaos" ne s'est pas transformée en une croyance que "beaucoup de gens sont chaotiques".



3)Un écart frappant : 43% contre 3%, 47% contre 8,5%

Les résultats étaient assez extrêmes.

  • Les participants ont estimé que la proportion d'utilisateurs publiant des "commentaires extrêmement toxiques" sur Reddit était en moyenne de **43%.
    Cependant, selon les données existantes, elle est en réalité proche de
    environ 3%**. Phys.org

  • Les participants ont également estimé que la proportion d'utilisateurs partageant des "fausses nouvelles" sur Facebook était de **47%.
    En revanche, les recherches existantes indiquent qu'elle est d'environ
    8,5%**. Phys.org

Selon l'étude, cette surestimation est environ 13 fois plus élevée pour Reddit et 5 fois plus élevée pour Facebook. Phys.org


C'est ici que la structure "même une minorité peut sembler être une majorité si elle est très active" entre en jeu.
Si les sources de toxicité sont concentrées parmi une "minorité de super-posteurs", le nombre de rencontres augmente, et notre cerveau en déduit qu'"il y a beaucoup de gens comme ça".



4)Ce qui est intéressant, c'est que même si l'on peut identifier la toxicité, l'estimation du nombre de personnes est erronée

Il est légitime de se demander si les gens ne peuvent tout simplement pas reconnaître les contenus toxiques. Cependant, l'étude a montré que même lorsque les participants pouvaient correctement identifier les publications toxiques dans une tâche de détection de signal, ils continuaient à surestimer le nombre de personnes publiant ces contenus. Phys.org


En d'autres termes, le problème ne réside pas seulement dans la littératie (la capacité à reconnaître),
mais dans le fait que notre mécanisme d'estimation est facilement perturbé dans l'environnement des réseaux sociaux.



5)Pourquoi une minorité peut-elle sembler être une "majorité" : trois mécanismes qui déforment notre perception de la sécurité

Voici une analyse pour relier les résultats de l'étude à notre perception quotidienne.


Mécanisme A : Biais dans le volume de publications (une personne peut sembler être des dizaines)
Beaucoup de gens ne publient pas, tandis qu'une minorité publie énormément. Si la toxicité est concentrée dans ce groupe, même si leur nombre est faible, cela peut donner l'impression d'une "atmosphère constante".


Mécanisme B : Amplification algorithmique de l'exposition
La colère, le conflit et les déclarations catégoriques suscitent des réactions. Plus un contenu suscite de réactions, plus il est affiché, ce qui augmente le "taux de rencontre" même si la proportion est faible.


Mécanisme C : Biais de mémoire (les expériences désagréables marquent davantage)
Un seul commentaire blessant peut laisser une impression plus forte que cent interactions ordinaires. En conséquence, notre échantillon mental est biaisé, conduisant à l'estimation qu'il y en a "beaucoup".



6)Corriger les malentendus peut réellement changer notre humeur et notre perception sociale

Ce qui est encore plus important, c'est que lorsque l'étude a informé les participants des proportions réelles (les auteurs de publications nuisibles sont minoritaires), ils ont

  • ressenti un sentiment plus positif,

  • et leur perception que "la société est en déclin moral" a diminué,

  • et les malentendus connexes tels que "la plupart des gens ne veulent pas de contenu nuisible" ont également diminué

selon le rapport. Phys.org


Les discussions sur les réseaux sociaux tendent à se polariser entre "il faut réguler" et "c'est la liberté d'expression", mais avant cela, il existe un mécanisme selon lequel **"nos suppositions (estimation du nombre) assombrissent notre perception sociale"**——c'est le point central de cette étude.



7)Réactions sur les réseaux sociaux : un débat sur les "proportions" qui suscite à la fois l'accord et la contestation

Ce sujet a suscité des discussions animées sur les réseaux sociaux, divisant les opinions entre ceux qui trouvent cela "éclairant" et ceux qui pensent que "ce n'est pas le problème".


Réaction ① "Bien sûr. Une minorité très active crée l'atmosphère"

Sur Hacker News, un commentaire affirmant que "la majorité des mauvais contenus provient d'une minorité toxique et active (plus des bots), c'est pourquoi la modération fonctionne" a été largement soutenu. Hacker News


Sur LinkedIn, un commentaire soulignant que "la différence entre 43% et 3% est énorme. Si une personne publie beaucoup, cela peut sembler que des dizaines de personnes différentes sont en colère" a également été partagé. LinkedIn


Réaction ② "Le problème, c'est l'exposition, pas le nombre"

D'un autre côté, sur HN, certains ont souligné que "si un nœud (minorité) est connecté à l'ensemble du réseau, même une faible proportion peut donner l'impression que tout est toxique. Ce qui compte, c'est 'à quel point c'est imposé'". Hacker News


En d'autres termes, plus que "minorité ou majorité",c'est la conception de la distribution et de la diffusion qui est le véritable enjeu, selon cette critique.


Réaction ③ "La définition est-elle trop étroite ?"

Sur HN, certains ont également remis en question si la définition de la "toxicité" dans l'étude, centrée sur des insultes ou des menaces flagrantes, ne pouvait pas expliquer l'ensemble de la "mauvaise ambiance" que nous ressentons. Hacker News


Réaction ④ "Cela mène à des discussions sur la vérification d'identité (KYC) et la gouvernance"

Les suggestions de réduire les perturbateurs par KYC ont suscité des contre-arguments concernant la vie privée et l'abus de pouvoir, entraînant un débat typique sur ces questions. Hacker News



8)Les implications "réalistes" de cette étude

Cette étude ne dit pas que "les réseaux sociaux vont bien". Même une minorité peut causer de grands dommages, et la désinformation peut être fatale dans certains domaines.


Cependant, les suggestions suivantes sont au moins pratiques.

  • Individus : Ne pas confondre rencontres et majorité (réduire l'épuisement mental).

  • Plateformes : Comment gérer les comptes à haute fréquence (visualisation de la fréquence des publications, signalement moins épuisant, révision de la conception de la portée).

  • Société : Le pessimisme "l'internet est fini" peut lui-même créer un cercle vicieux en favorisant le silence et en mettant en avant les "voix chaotiques". C'est pourquoiles interventions éducatives partageant la réalité des proportions pourraient avoir un effet inattendu. Phys.org


Articles de référence

Les trolls en ligne ne sont pas aussi nombreux que les gens le pensent
Source: https://phys.org/news/2025-12-online-trolls-people.html

← Retour à la liste d'articles

Contact |  Conditions d'utilisation |  Politique de confidentialité |  Politique des cookies |  Paramètres des cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Tous droits réservés.