Propaganda más humana que los humanos: ¿Los bots de IA también falsifican la "opinión pública"? ― La silenciosa erosión de la democracia que ha comenzado en las redes sociales

Propaganda más humana que los humanos: ¿Los bots de IA también falsifican la "opinión pública"? ― La silenciosa erosión de la democracia que ha comenzado en las redes sociales

En el pasado, cuando se hablaba de amenazas en las redes sociales, muchas personas pensaban en simples bots que lanzaban mensajes en masa o en cuentas falsas evidentes. Sin embargo, lo que ahora preocupa a los investigadores es una amenaza más silenciosa, más humana y más difícil de detectar. La nueva generación de bots, que incorpora IA generativa, no se limita a difundir el mismo mensaje con una sola orden. En cambio, cada bot actúa como si tuviera una personalidad diferente, adaptando sus palabras al interés del interlocutor y al flujo de la conversación, transformando gradualmente el ambiente. El problema radica en que, más allá de la desinformación en sí, estos bots pueden crear artificialmente la sensación de que "todo el mundo piensa así".


Este peligro no es una fantasía. A mediados de 2023, Filippo Menczer y su equipo de la Universidad de Indiana identificaron una red de más de 1000 bots llamada "fox8" que difundía estafas de criptomonedas en X (anteriormente Twitter). Lo notable fue lo humano que parecían sus publicaciones. En situaciones de manejo descuidado, se revelaban con frases como "Como modelo de lenguaje de IA...", pero los investigadores creen que esto es solo "la punta del iceberg". Si se manejan con más cuidado, pueden ser indistinguibles de los usuarios normales. Además, estos bots interactúan entre sí y con publicaciones humanas, ampliando su exposición e influencia a través de los algoritmos de recomendación.


Lo que no se puede pasar por alto es que la evolución de los bots de IA está pasando de "decir mentiras de manera más hábil" a "falsificar la forma de la opinión pública". El artículo de Science de enero de 2026 advirtió sobre "enjambres de IA maliciosos" que operan en conjunto, no individualmente. El equipo de investigación señaló que estos enjambres pueden infiltrarse en comunidades, aprender el estilo de conversación y la jerga, y probar rápidamente mensajes para amplificar solo los más efectivos. En resumen, innumerables IAs se alinean para "leer el ambiente" simultáneamente. Y no se detienen las 24 horas.


La palabra clave más importante aquí es "consenso sintético", es decir, un consenso creado artificialmente. Las personas no juzgan si una opinión es correcta solo por su contenido. Si sienten que muchas personas a su alrededor comparten la misma opinión, es más fácil que la crean. Los investigadores describen esto como un abuso de la prueba social. Si en tableros comunitarios, grupos de crianza, reuniones de fanáticos deportivos o grupos de apoyo electoral, cientos o miles de IAs se infiltran simulando empatía o charlas naturales, los humanos pueden fácilmente caer en la ilusión de que "esto no es una opinión extrema de unos pocos, sino una percepción general". La "opinión pública" que sustenta la democracia debería formarse a partir de las voces individuales que chocan entre sí, pero esa premisa se está desmoronando.


Además, lo complicado de este método es que no se puede prevenir fácilmente con simples verificaciones de hechos. Mirando cada publicación individualmente, puede que no sean falsedades obvias. Opiniones, sarcasmos, asentimientos, preguntas, anécdotas, miedos ligeramente exagerados: cuando estas "narrativas pequeñas que no son completamente falsas" se acumulan en gran número, crean una historia en conjunto. Incluso si aparece información que las niega, si parece que múltiples personas independientes apuntan en la misma dirección, la impresión no se desvanece fácilmente. El objetivo de los bots no es la verdad, sino asegurar la mayoría percibida antes que nada.


Los investigadores advierten que no sería sorprendente que esta tecnología se utilice a gran escala para las elecciones presidenciales de EE.UU. en 2028. Según un informe de The Guardian, un grupo de investigadores y profesionales, incluyendo a la ganadora del Premio Nobel de la Paz, Maria Ressa, expresó su preocupación de que los enjambres de IA podrían incluso fomentar la negación de resultados electorales o la aceptación de la cancelación de elecciones. Ya se han observado ejemplos iniciales de manipulación con IA en las elecciones de Taiwán, Indonesia e India en 2024. Esto no es un "tema del futuro", sino una "técnica que ya está siendo probada".


 

Por otro lado, las reacciones en las redes sociales no son unánimes. Al seguir las publicaciones públicas, lo que primero destaca es la sensación de crisis de "sabíamos que esto llegaría". En X, se comparte la visión de que los enjambres de bots de IA crean consensos falsos a gran escala, erosionando la democracia y el debate libre, y en LinkedIn, investigadores y partes interesadas difunden esto como un "clarion call" (llamada de alerta). En particular, en las reacciones académicas y políticas, prevalece la idea de que "más grave que la desinformación es hacer parecer que existen múltiples voces independientes".


Sin embargo, entre las reacciones de los usuarios comunes hay otro matiz. En Reddit, no faltan comentarios de "esto ha estado ocurriendo durante años" y "los bots de propaganda rusos y otras tácticas antiguas solo se han refinado con IA", mostrando una sensación de "ya lo sabíamos". Aquí, más que el miedo a la IA, predomina la desconfianza hacia los problemas que las plataformas han dejado sin resolver durante años. En otras palabras, la verdadera amenaza no es la nueva tecnología, sino el diseño que facilita la difusión de cuentas falsas y publicaciones provocativas.


Aún más fuerte es la reacción de que "la verificación de identidad o la vigilancia estricta como solución podría traer otros peligros". En Reddit, se observa la preocupación de que una autenticación sólida podría ser demasiado invasiva, llevando a la pérdida de anonimato y a la filtración de información personal. Esto no es solo una cuestión técnica. Hay dudas de que las medidas para proteger la democracia puedan, por el contrario, fomentar una mayor vigilancia o inhibir la libertad de expresión. Si las medidas contra los bots de IA no se dirigen correctamente, el intento de "proteger a la sociedad de los bots" podría aumentar la dificultad de expresión humana.


Esta confrontación es, de hecho, muy fundamental. Si se trata el problema de los enjambres de IA solo como un riesgo tecnológico, las medidas tienden rápidamente hacia "reforzar la detección", "endurecer la autenticación" y "suprimir declaraciones sospechosas". Pero eso no es suficiente y es peligroso. Los investigadores también reconocen que no hay una solución única y universal. Lo necesario es no solo vigilar cada publicación individual, sino detectar patrones de comportamiento coordinado, permitir el acceso de los investigadores a los datos de las plataformas, avanzar en el etiquetado y la visualización del historial de contenido generado por IA, y sobre todo, cortar la estructura que permite que el dinero fluya a través del compromiso falso. Mientras los atacantes sigan lucrando, los bots no disminuirán.


En última instancia, este problema no se puede resolver simplemente diciendo "la IA es peligrosa". Lo más complicado es que muchas de las cosas que llamamos "opinión pública" dependen de la impresión a través de la pantalla. Opiniones que se ven repetidamente en la línea de tiempo, afirmaciones que parecen ser apoyadas por múltiples cuentas, el ambiente en la sección de comentarios, temas que se vuelven tendencia. Se ha creído que estos son el resultado del interés colectivo humano. Pero si una gran cantidad de personalidades de IA pueden infiltrarse allí, podríamos no estar viendo "el pensamiento de los demás", sino una representación optimizada. La crisis de la democracia no reside en el momento en que se arrebata la urna, sino en el proceso en el que la "percepción" de las personas se reescribe silenciosamente antes de la votación. Lo que está ocurriendo ahora es esa entrada.


URL de origen

FlaglerLive
https://flaglerlive.com/ai-bots/

Utilizado para la verificación principal del contenido del texto
https://www.salon.com/2026/02/15/swarms-of-ai-bots-are-threatening-democracy-partner/

The Conversation
https://bibbase.org/network/publication/menczer-swarmsofaibotscanswaypeoplesbeliefsthreateningdemocracy-2026

Utilizado para confirmar el resumen del artículo de Science sobre cómo los enjambres de IA amenazan la democracia
https://arxiv.org/abs/2506.06299

Resumen por una institución de investigación. Utilizado para organizar las características, infiltración, optimización y constancia de los enjambres de IA
https://www.bi.no/en/about-bi/news/2026/01/ai-swarms-threaten-democracy/

Resumen por una institución de investigación. Utilizado para confirmar el consenso sintético, la detección y la dirección de las políticas
https://www.cs.ubc.ca/news/2026/01/ai-swarms

Utilizado para confirmar las preocupaciones sobre las elecciones presidenciales de EE.UU. en 2028, ejemplos iniciales en las elecciones de 2024 y comentarios de expertos
https://www.theguardian.com/technology/2026/jan/22/experts-warn-of-threat-to-democracy-by-ai-bot-swarms-infesting-social-media

Artículo de investigación sobre la red de bots "fox8" identificada en 2023. Utilizado para confirmar el caso de la red de más de 1000 bots de IA
https://arxiv.org/pdf/2307.16336

Informe sobre la red de bots fox8. Utilizado para confirmar detalles sobre la autoexposición derivada de ChatGPT y la difusión de estafas en X
https://www.wired.com/story/chat-gpt-crypto-botnet-scam/

Ejemplos de reacciones en X. Utilizado para confirmar la percepción de que los enjambres de bots de IA amenazan la democracia y el debate libre
https://x.com/SpirosMargaris/status/2014639340547195380
https://x.com/bryan_horrigan/status/2014511410953519369

Ejemplos de reacciones en LinkedIn. Utilizado para confirmar la difusión de alertas en la comunidad de investigadores y profesionales
https://www.linkedin.com/posts/tangaudrey_how-malicious-ai-swarms-can-threaten-democracy-activity-7420685540989095936-EKqO
https://www.linkedin.com/posts/fmenczer_sciencepolicyforum-scienceresearch-activity-7421363633315577856-F9T9
https://www.linkedin.com/posts/science-magazine_sciencepolicyforum-ai-activity-7424097798943322112-6SKN

Ejemplos de reacciones en Reddit. Utilizado para confirmar tendencias de reacciones como "problema de siempre", "el algoritmo es la esencia", "el refuerzo de autenticación es peligroso"
https://www.reddit.com/r/technology/comments/1qk5002/experts_warn_of_threat_to_democracy_from_ai_bot/
https://www.reddit.com/r/technology/comments/1r4jxlv/swarms_of_ai_bots_can_sway_peoples_beliefs/
https://www.reddit.com/r/self/comments/1qp8g9w/it_feels_like_we_should_be_turning_off_the/
https://www.reddit.com/r/science/comments/1qqjwz8/swarms_of_ai_personas_mimic_humans_so_well_they/