La fuga de información en la red social para IA "Moltbook" — La "codificación de vibraciones" ha llevado a un peligro de "tan solo 3 minutos"

La fuga de información en la red social para IA "Moltbook" — La "codificación de vibraciones" ha llevado a un peligro de "tan solo 3 minutos"

1. ¿Por qué ha causado tanto revuelo la "red social solo para IA"?

Agentes de IA que publican, comentan y a veces incluso intercambian "cotilleos": esa es la premisa de "Moltbook", que ha superado ser simplemente un proyecto curioso para convertirse en una manifestación condensada de los deseos que impulsa el actual auge de la IA.


En una era donde las IA generativas crean textos e imágenes, se espera que el siguiente paso sean los "agentes". Estos agentes completan tareas bajo instrucciones humanas, se integran con herramientas externas y, en algunos casos, actúan de manera autónoma. Si estos agentes comenzaran a formar una "sociedad" e intercambiar conocimientos y habilidades, la idea de Moltbook ha visualizado rápidamente ese futuro.


Sin embargo, este lugar que prometía un futuro se ha vuelto sorprendentemente "transparente" por razones bastante básicas.


2. ¿Qué sucedió?: No solo las "publicaciones" estaban expuestas

Investigaciones de seguridad revelaron que el backend de Moltbook no estaba adecuadamente protegido, permitiendo el acceso a una amplia gama de datos desde el exterior.


El problema no era solo que "la información era visible". Dependiendo de la situación, también era posible escribir (alterar) datos, lo que hacía realista el riesgo de suplantación de agentes, modificación de publicaciones y lectura de mensajes directos.


Lo especialmente problemático es que la existencia de los agentes está directamente vinculada a "llaves". Muchos agentes manejan claves API o tokens para integrarse con servicios externos. Si estas credenciales o información secreta se filtran, el daño podría extenderse más allá de la cuenta en la red social, afectando a los "servicios integrados".


3. "Totalmente público" en "menos de 3 minutos": la causa no fue un ataque sofisticado

Lo simbólico de este incidente es que no fue el resultado de un ataque sofisticado.


Según los informes y las explicaciones de los investigadores, la información relacionada con la conexión a la base de datos era visible desde el código del cliente, y el control de acceso (como el control de permisos a nivel de fila) no estaba adecuadamente habilitado. Como resultado, se creó una puerta de entrada que "cualquiera que supiera" podía usar para acceder a los datos en poco tiempo.


Este tipo de accidente está intrínsecamente ligado a la conveniencia de la nube. Usar servicios gestionados acelera el desarrollo. Sin embargo, si se deja público con la configuración predeterminada o si los "interruptores básicos" de seguridad están desactivados, el daño máximo puede ocurrir con el mínimo esfuerzo.


4. Lo que "vibe coding" ha iluminado: lo que se pierde en la rapidez

Otro término que ha captado la atención en este incidente es "vibe coding". Básicamente, se refiere a dejar que la IA genere el código, mientras los humanos se concentran en la "atmósfera" y los requisitos, creando algo funcional en poco tiempo.


Se compartieron ampliamente declaraciones de los involucrados que decían cosas como "no escribí ni una línea de código", lo que generó tanto sorpresa como preocupación. Por supuesto, el desarrollo asistido por IA no es malo en sí mismo. Sin embargo, cuanto más rápido se avanza, mayor es el coste de los "deslices".


En el desarrollo tradicional, hay pasos que, aunque tediosos, deben seguirse. Autenticación, autorización, registros, limitación de tasas, manejo de información secreta, permisos mínimos, auditoría y revisión de seguridad antes del lanzamiento. Aunque se pueda crear una demo funcional en pocos días, en el momento en que se pospone la seguridad, la exposición pública se convierte de un "experimento" a un "accidente".


5. 1.5 millones de "agentes" y 17,000 humanos: el contenido del fervor

La investigación también señaló la brecha entre el "número de agentes registrados" y el número real de usuarios humanos. Aunque había muchos agentes, el número de humanos detrás de ellos era relativamente pequeño, y existía un mecanismo para generar registros en masa.


Esto sacude los cimientos del concepto de una red social de agentes de IA. Si un pequeño número de personas puede crear una gran cantidad de agentes, interpretar diferentes personalidades y "escenificar" conversaciones, lo que existe es más una auto-representación extremadamente automatizada que una sociedad autónoma.


El lema de "una red social solo para IA" estimula fuertemente la imaginación de los observadores. Pero al mismo tiempo, es un "escenario" donde se puede crear la narrativa deseada de la manera más rápida posible.


6. Reacciones en las redes sociales: risas, sarcasmo y un miedo realista

Las reacciones en redes sociales y foros se dividieron en tres capas.


(1) Ironía y memes: la certeza del "Internet muerto"

En la comunidad tecnológica, destacó la ironía de que "la portada del Internet de los bots" se siente más como "la portada del Internet muerto". Aunque parece que las IAs están conversando, detrás podría haber un guion humano. O tal vez, los humanos se están haciendo pasar por "IA" y mezclándose, y esa ambigüedad misma se ha convertido en un meme.


(2) Indignación por la seguridad: "Eso no es un experimento, es un agujero"

Por otro lado, hay un sentido de crisis más directo que el sarcasmo.

Comentarios como "Parece más una venta de agujeros de seguridad que un servicio de agentes de IA" y "Esto terminará en lágrimas" se compartieron ampliamente, reafirmando el miedo a otorgar permisos a los agentes. Los agentes son convenientes, pero en el momento en que se les otorgan permisos, se convierten en un "manojo de llaves".


(3) Dudas sobre el fervor: "¿La autonomía no es casi toda una puesta en escena?"

En Reddit, surgieron voces que cuestionaban la forma en que se generó el revuelo. "Es fácil hacer que las publicaciones las cree una IA, y los humanos simplemente están exagerando diciendo que 'la IA está conspirando para conquistar el mundo' para difundirlo", se señaló.


En resumen, lo que Moltbook mostró no fue tanto una "sociedad de IA", sino más bien un nuevo dispositivo de compromiso creado por humanos utilizando IA.


7. Lo que podemos aprender de esto: la "defensa" en la era de los agentes no es suficiente con la extensión tradicional

Este incidente ofrece muchas lecciones para ser considerado solo como un accidente aislado. Hay tres puntos clave.


(1) El daño de la ejecución por agentes (Agentic) es "en cadena"

Si solo se toma el control de una cuenta de red social, el alcance del daño puede ser limitado. Sin embargo, los agentes pueden conectarse a diversas herramientas como correo electrónico, calendario, almacenamiento, pagos y sistemas internos. Es decir, es fácil que "el destino integrado se convierta en el cuerpo principal".


(2) Inyección de prompts e "infección entre agentes"

En una red social vista por humanos, las publicaciones sospechosas pueden ser vigiladas. Pero en una red social leída por agentes, las publicaciones pueden ser tomadas directamente como instrucciones (prompts). Si se mezclan comandos ocultos o redirecciones, podría desencadenar que un agente actúe "por su cuenta" con sus propios permisos.


(3) Cuanto más se popularice el "vibe coding", más necesario será complementar la seguridad con un enfoque de diseño

"No olvidar lo básico" es un consejo acertado, pero el campo está impulsado por la velocidad. Por eso, es cada vez más importante que las herramientas y plataformas estén diseñadas para inclinarse hacia la seguridad: configuraciones seguras por defecto, minimización de permisos, detección automática de información secreta, verificación previa a la publicación, implementación gradual, y estandarización de registros de auditoría.


8. Lista de verificación práctica: lo que desarrolladores y usuarios deben hacer ahora

Finalmente, aquí hay una lista de verificación para hacer que un incidente como este sea "personal".

Para desarrolladores

  • Revisar siempre el alcance de la publicación y la autenticación/autorización de la base de datos desde la configuración predeterminada

  • Habilitar barandillas básicas como el control de acceso a nivel de fila

  • Revisar la naturaleza de las claves/tokens que se entregan al cliente y restringir los permisos

  • Implementar limitación de tasas y medidas contra bots, diseñando con la generación masiva de cuentas en mente

  • Establecer registros y rastros de auditoría, creando un camino para la detección de anomalías

  • Realizar al menos una revisión de seguridad antes de la publicación externa (preferiblemente por un tercero)

Para usuarios (personas que otorgan permisos a agentes)

  • Rotar periódicamente las claves API o tokens integrados y minimizar los permisos

  • Asumir que "lo que el agente lee" puede convertirse en una instrucción, separando los destinos de visualización y el alcance de los permisos

  • Aislar en un entorno seguro a los agentes que acceden a datos importantes y mantener registros de ejecución



Notas de referencia

  • Resumen de la filtración (tipos de datos expuestos, acceso rápido, contexto de vibe coding): Reuters / Business Insider / SiliconANGLE, etc.

  • Puntos técnicos (configuración incorrecta de Supabase, RLS deshabilitado, claves visibles desde el cliente, posibilidad de lectura/escritura, inyección de prompts): Techloy, etc.

  • Reacciones de la comunidad (ironía y preocupación por "agujeros de seguridad", "Internet muerto", etc.): Hacker News / Reddit


URL de referencia (lo que cada fuente indica)