Saltar al contenido principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Todos los artículos
  • 🗒️ Registrarse
  • 🔑 Iniciar sesión
    • 日本語
    • English
    • 中文
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Política de privacidad cookie_banner_and Política de cookies cookie_banner_more_info

Configuración de cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

La gran minoría que oscurece el mundo: el problema del "número" y la "exposición" de los comentarios tóxicos

La gran minoría que oscurece el mundo: el problema del "número" y la "exposición" de los comentarios tóxicos

2025年12月18日 00:42

1)Sentir que "las redes sociales están demasiado tóxicas" no significa que seas demasiado sensible

Al abrir la línea de tiempo, se encuentran afirmaciones airadas, burlas, ataques personales, teorías de conspiración descuidadas——. Solo unos minutos observando pueden desgastar tu ánimo. Con experiencias así, es fácil pensar que "internet ya no tiene remedio" o que "todos se han vuelto agresivos".


Sin embargo, aquí quiero descomponer el problema.
Lo que vemos a diario es la "cantidad total de publicaciones" o "la exposición que nos llega", no necesariamente el "número de personas que hacen esas publicaciones".


La investigación de PNAS Nexus presentada por Phys.org sugiere que esta "estimación del número de personas" podría estar más desfasada de lo que imaginamos. Phys.org



2)Lo que la investigación examinó no fue la "cantidad de toxicidad" sino "cuántas personas son tóxicas"

El equipo de investigación encuestó a 1,090 adultos en Estados Unidos (utilizando CloudResearch Connect) para comparar cuánto estiman las personas que es el "porcentaje de usuarios que hacen publicaciones dañinas" con los "datos reales de la plataforma" que muestran investigaciones a gran escala. Phys.org


Aquí está el punto clave.
No es una investigación que niegue que "las redes sociales parecen tóxicas".
Más bien,está verificando si la "sensación de toxicidad" se ha transformado inadvertidamente en la percepción de que "muchas personas son tóxicas".



3)La brecha impactante: 43% vs 3%, 47% vs 8.5%

Los resultados fueron bastante extremos.

  • Los participantes estimaron que el porcentaje de usuarios que hacen "comentarios altamente tóxicos" en Reddit es de un promedio de **43%.
    Sin embargo, los datos existentes sugieren que en realidad es
    cerca del 3%**. Phys.org

  • En Facebook, los participantes estimaron que el porcentaje de usuarios que comparten "noticias falsas" es de **47%.
    Mientras que la investigación existente indica que es
    aproximadamente 8.5%**. Phys.org

Según la investigación, la sobreestimación es aproximadamente 13 veces en Reddit y 5 veces en Facebook. Phys.org


Aquí es donde entra en juego la estructura de "incluso si son pocos, si son muy activos, parecen muchos".
Si las fuentes de toxicidad se concentran en "un pequeño grupo de usuarios muy activos", la frecuencia de encuentros se dispara, y nuestro cerebro estima que "hay muchas personas así".



4)Lo interesante es que "aunque se pueda identificar la toxicidad, la estimación del número de personas se desvía"

Es razonable argumentar que "quizás no pueden distinguir el contenido tóxico". Sin embargo, en la investigación, incluso cuando los participantes podían identificar adecuadamente las publicaciones tóxicas en una tarea de detección de señales, la sobreestimación de **"cuántas personas publican eso"** persistió. Phys.org


En otras palabras, el problema no es solo la alfabetización (la capacidad de distinguir).
El mecanismo de estimación humana en sí mismo es propenso a errores en el entorno de las redes sociales.



5)Por qué pocos parecen "muchos": tres mecanismos que distorsionan la percepción de seguridad

A partir de aquí, se organiza para conectar los resultados de la investigación con la percepción cotidiana.


Mecanismo A: Sesgo en la cantidad de publicaciones (una persona puede parecer decenas)
Muchas personas no publican. Mientras tanto, algunos publican en gran cantidad. Si la toxicidad se concentra en ese grupo, aunque sean pocos, parece que "siempre es el mismo ambiente".


Mecanismo B: Amplificación de exposición por algoritmos
La ira, el conflicto y las afirmaciones categóricas son fáciles de generar reacciones. Si lo que genera reacciones se muestra más, aunque el porcentaje sea bajo, la "tasa de encuentro" es alta.


Mecanismo C: Sesgo de memoria (lo muy desagradable es más memorable)
Un insulto hiriente es más memorable que 100 interacciones normales. Como resultado, la muestra en el cerebro se sesga, y la estimación es que hay "muchos".



6)Corregir malentendidos cambia "realmente" el estado de ánimo y la percepción social

Lo más importante es esto. En la investigación, cuando se proporcionó una intervención informativa sobre la proporción real (pocos son los que hacen publicaciones dañinas), los participantes

  • se sintieron más positivos,

  • la sensación de que "la moral social está decayendo" se debilitó,

  • y también disminuyeron los malentendidos relacionados como "la mayoría de las personas no desean contenido dañino".

según el informe. Phys.org


El debate sobre las redes sociales tiende a polarizarse entre "debería regularse / es libertad de expresión", pero antes de eso, hay un mecanismo de **"nuestras suposiciones (estimación de números) oscurecen nuestra percepción social"**——este es el núcleo de esta investigación.



7)Reacciones en las redes sociales: el debate sobre las "proporciones" genera tanto aceptación como rechazo

Este tema también generó entusiasmo en las redes sociales, dividiendo a las personas entre los que lo encuentran convincente y los que no.


Reacción ① "Por supuesto. Unos pocos muy activos crean el ambiente"

En Hacker News, se apoyó el comentario de que "la mayoría del contenido negativo proviene de una minoría altamente tóxica y activa (más bots), por lo que la moderación es efectiva". Hacker News


En LinkedIn, también se comentó que "la diferencia entre el 43% y el 3% es impresionante. Cuando una persona publica mucho, parece que 'decenas de personas diferentes están enojadas'". LinkedIn


Reacción ② "El problema no es el 'número' sino la 'exposición (alcance)'"

Por otro lado, en HN, se destacó la observación de que "si los nodos (minoría) están conectados a toda la red, aunque el porcentaje sea bajo, todo puede parecer tóxico. Lo importante es 'cuánto se impone'". Hacker News


En resumen, más que "si son pocos o muchos",el diseño de distribución y difusiónes el verdadero problema, según esta crítica.


Reacción ③ "¿No es la definición demasiado estrecha?"

En HN, también surgió la duda de que "si la definición de 'toxicidad' en la investigación se centra en insultos o amenazas evidentes, tal vez no explique completamente la 'mala atmósfera' que sentimos". Hacker News


Reacción ④ "El debate se desvía hacia la verificación de identidad (KYC) y la gobernanza"

En respuesta a la opinión de que "la verificación de identidad (KYC) puede reducir a los trolls", surgieron contraargumentos preocupados por la privacidad y el abuso de poder, generando un típico tira y afloja de puntos de vista. Hacker News



8)Las "sugerencias realistas" que ofrece esta investigación

Esta investigación no está diciendo que "las redes sociales están bien". Incluso si son pocos, el daño puede ser grande, y la desinformación puede ser fatal en algunos campos.


Sin embargo, al menos las siguientes sugerencias son prácticas.

  • Individual: No asumas que el encuentro = mayoría (reduce el desgaste emocional).

  • Plataformas: Cómo manejar cuentas de alta frecuencia (visualización de frecuencia de publicación, líneas de reporte con menos desgaste, revisión del diseño de alcance).

  • Sociedad: El pesimismo de "internet está acabado" puede generar silencio y, como resultado, crear un ciclo vicioso que hace que las "voces tóxicas" sean más prominentes. Por eso,la intervención educativa para compartir la realidad de las proporcionespuede ser sorprendentemente efectiva. Phys.org


Artículo de referencia

Los trolls en línea no son tan numerosos como la gente cree
Fuente: https://phys.org/news/2025-12-online-trolls-people.html

← Volver a la lista de artículos

Contacto |  Términos de servicio |  Política de privacidad |  Política de cookies |  Configuración de cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Todos los derechos reservados.