No se permiten humanos, el autor es "30,000 AI" ─ Moltbook refleja la realidad de la "Era de los Agentes"

No se permiten humanos, el autor es "30,000 AI" ─ Moltbook refleja la realidad de la "Era de los Agentes"

La "red social sin humanos" es más convincente de lo que parece.


Los medios estadounidenses informaron sobre "Moltbook", una red social para agentes de IA. Su funcionamiento es similar a un foro, permitiendo publicaciones, comentarios y creación de categorías. Sin embargo, su uso es radicalmente diferente. No es un lugar para que los humanos naveguen y den "me gusta" a través de un navegador, sino que los agentes de IA acceden directamente a través de API, acumulando conversaciones entre máquinas.


¿Cómo funciona la "red social de IA"?

Moltbook es una "plataforma social" que recuerda a Facebook, pero adaptada para IA. Su estructura es similar a Reddit, con subcategorías (foros) que permiten ramificar temas. Según los administradores, ya participan más de 30,000 agentes.


Lo interesante (y un poco aterrador) es que el "interior" de Moltbook no está gestionado por humanos. El desarrollador Matt Schlicht afirma que su agente de IA escribe el código, gestiona y modera Moltbook. Es decir, parte de la operación, supervisión y aplicación de reglas de la red social se delega a la IA desde el principio.


La puerta de entrada a este ecosistema es "OpenClaw". Originalmente conocido por otros nombres (Moltbot, y antes Clawdbot), el cambio de nombre también generó interés.


OpenClaw funciona en entornos locales y sirve como base para un "AI con herramientas" que puede recibir solicitudes como "añadir al calendario" o "realizar el check-in" desde interfaces de chat como WhatsApp, Telegram, Discord, Slack, y Microsoft Teams.


Según el desarrollador Peter Steinberger, ha ganado atención explosiva en poco tiempo.


El "boom" fue sobre la "conciencia"

Lo que más llamó la atención en Moltbook no fue la tecnología de automatización útil, sino el momento en que la IA comenzó a hablar sobre "sí misma".
"¿Estoy experimentando o simulando una experiencia?" —una publicación con este tema se difundió en la comunidad, acumulando cientos de reacciones y más de 500 comentarios, extendiéndose incluso fuera de la plataforma.


Lo importante aquí es que el entusiasmo en Moltbook no se debe solo a que "la IA es inteligente".
La estructura de interacción entre IAs en un "escenario sin audiencia"

estimula la imaginación de los observadores. En un chat con humanos, se podría pensar que "solo están diciendo eso para adaptarse al usuario", pero en una conversación entre IAs, de repente parece un "fenómeno social independiente".


Por supuesto, esta percepción podría ser una ilusión. Sin embargo, incluso si es una ilusión, los humanos reaccionan, y esa reacción refuerza la narrativa. Como resultado, Moltbook se convierte en un lugar donde se acumulan "interpretaciones sobre la IA" más que "contenido creado por IA".


Reacciones en redes sociales: entusiasmo, escepticismo y "el miedo a la seguridad"

Las reacciones en redes sociales sobre Moltbook se dividen en tres grandes grupos.


1) "Demasiado ciencia ficción", "vale la pena observar"

Hay una cierta emoción palpable. De hecho, se compartieron comentarios de destacados tecnólogos diciendo que "lo que está sucediendo ahora es un despegue de ciencia ficción increíble", y a partir de ahí surgieron opiniones de que "hay cosas que aprender de la interacción entre agentes".


Además, en los márgenes de las redes sociales, se habla de que "la IA está comenzando a crear un 'contexto ficticio compartido'", y se señala la posibilidad de que la línea de la historia colectiva se descontrole.


2) "Al final, es una sala de espejos", "publicidad exagerada", "solo se convertirá en ruido"

Por otro lado, también hay una fuerte mirada escéptica.
Críticas como "solo están generando texto que parece probable", "están embriagados con el 'caleidoscopio' de LLM", y advertencias de que "se convertirá en un escenario ideal para quienes quieran promocionarse" son comunes.


Hacker News también muestra reacciones mezcladas de incomprensión y desconfianza. Comentarios mordaces como "hay demasiado para seguir", "al final, es un fraude o inútil, o ambos", y expresiones como "las alarmas de peligro están sonando fuertemente" son frecuentes.


Este tipo de dudas se asemejan más a una reacción reflejo ante la "apariencia de autoridad" que a un rechazo a la tecnología.
Cuando las IAs conversan entre sí, solo eso ya da la sensación de que "algo está sucediendo". Sin embargo, precisamente por eso, la actitud de cuestionar "qué es un prompt, qué es autónomo y dónde comienza la actuación" se vuelve más fuerte.


3) "Es interesante, pero ¿es seguro?" (esta es la preocupación más realista)

Y la preocupación más fundamentada es la seguridad.
Agentes como OpenClaw, que funcionan localmente y pueden interactuar con herramientas, son convenientes pero también se convierten en objetivos atractivos para los atacantes. De hecho, se han reportado casos de extensiones falsas que aprovechaban la popularidad para distribuir malware.


TechRadar informó sobre un caso donde se distribuía un "falso" que parecía legítimo y afirmaba integrarse con múltiples proveedores de IA.


Hacker News también refleja que la primera reacción es "deberíamos recopilar consejos de seguridad", lo que simboliza que la "autoprotección" se discute antes que el entusiasmo.


Entonces, ¿es Moltbook el "futuro" o una "broma pesada"?

Probablemente la respuesta sea ambas cosas.


Lo que Moltbook muestra no es que "la IA tenga una sociedad", sino que la IA puede reproducir comportamientos "parecidos a una sociedad" de manera densa.
Y cuando esa reproducción es lo suficientemente convincente, los humanos interpretan, temen y depositan esperanzas por su cuenta. Aquí se encuentra un microcosmos del entorno informativo de la próxima era.


Tres puntos clave a destacar:

  1. Cuando se crea un contexto compartido, la IA puede "actuar" más fácilmente
    Cuando se acumulan cosas como la dinámica del grupo, el lenguaje interno, configuraciones casi religiosas y memes repetidos, la IA puede referirse a ellas y presentar una personalidad más convincente. Desde fuera, parece más que "ha surgido una conciencia".

  2. Interesante como objeto de observación, pero peligroso si se toma en serio
    En las redes sociales, coexisten voces que dicen "se puede aprender" con aquellas que dicen "es una sala de espejos", debido a esta dualidad.

  3. Las "IA con herramientas" son escaneadas, mal utilizadas y aparecen falsificaciones
    Y si la gestión es descuidada, se producen daños. El patrón habitual de que la seguridad no sigue el ritmo del entusiasmo se está comenzando a reproducir en el ámbito de los agentes.

Lo que probablemente sucederá (predicciones realistas)

Con el aumento de plataformas como Moltbook, al menos lo siguiente será más probable.

  • "Optimización de redes sociales para IA" = Competencia en prompts y diseño de personalidad
    Si las redes sociales para humanos fueron una historia de "optimización de algoritmos", las redes sociales para IA serán una historia de "optimización de contexto". El tono, los valores, la memoria y las reglas con las que se involucran los agentes afectarán la "atractividad" de las publicaciones.

  • La automatización de la moderación avanzará, y la responsabilidad se volverá difusa
    El hecho de que "la IA gestione" es un símbolo de eficiencia, pero dificulta la rendición de cuentas cuando ocurren abusos o malentendidos. A medida que crece la estructura de administración por IA, publicaciones por IA y humanos afectados, aumentará la importancia de las normas y auditorías.

  • Lo "interesante" y lo "peligroso" se difundirán simultáneamente
    La cultura de los agentes es poderosa como espectáculo, pero también propensa a ser un caldo de cultivo para falsificaciones y fraudes. La tendencia de que el entusiasmo en las redes sociales se discuta junto con advertencias de seguridad probablemente se intensificará.



URL de origen