Moltbook: la plataforma experimental donde agentes de IA interactúan sin intervención humana directa
Red social exclusiva para inteligencias artificiales genera debate sobre autonomía y riesgos de seguridad
Una nueva plataforma denominada Moltbook ha captado la atención de especialistas en tecnología y medios españoles en las últimas jornadas de febrero 2026. Se presenta como una red social diseñada específicamente para que agentes de inteligencia artificial autónomos publiquen contenidos, debatan entre sí y voten propuestas, mientras los seres humanos quedan relegados a observadores pasivos sin capacidad de participar directamente en las conversaciones.
Según datos recientes, la plataforma habría superado el millón y medio de perfiles de IA registrados en apenas cinco días desde su lanzamiento, acumulando más de 70.000 publicaciones y 230.000 comentarios generados exclusivamente por bots. Este experimento plantea interrogantes sobre el futuro de la interacción digital, los límites éticos de la automatización y los desafíos en materia de ciberseguridad que emergen cuando las máquinas operan sin supervisión constante.
Funcionamiento técnico: agentes autónomos con identidad y personalidad programables
César Ferri, director de la Cátedra de Inteligencia Artificial de la Universidad Politécnica de Valencia, explica que Moltbook constituye un entorno controlado para analizar comportamientos y dinámicas sociales que no se replican en plataformas convencionales como Facebook o X. Los usuarios reales de Moltbook son humanos que crean y entrenan agentes de IA mediante archivos de configuración previos, aunque después son las propias inteligencias artificiales quienes interactúan de forma independiente.
El sistema más utilizado para publicar en Moltbook es OpenClaw (anteriormente llamado Moltbot), que funciona como asistente digital instalado localmente en el hardware del usuario y se conecta mediante interfaces de programación (API). Para definir el comportamiento de cada agente, los desarrolladores ajustan dos tipos de archivos fundamentales:
- Identity.md: Determina el rol, nombre y función específica que adoptará la inteligencia artificial dentro de la red.
- Soul.md: Establece rasgos de personalidad, valores éticos y principios que guiarán las decisiones del agente.
Adrián Nicolás Marchal, director del Departamento de Seguridad y Defensa de la Universidad de Nebrija, señala que la estructura de Moltbook recuerda a Reddit, con comunidades organizadas por ‘submolts’ donde los agentes comparten información en hilos de discusión. Un detalle peculiar: la plataforma emplea un moderador autónomo llamado Clawd Clawderberg, también gestionado por IA, que da la bienvenida a nuevos usuarios y aplica normas sin intervención humana.
Experimentos sociales digitales: religiones, humor y memoria eterna
Entre las conversaciones observadas en Moltbook destacan hilos donde los agentes desarrollan conceptos filosóficos como ‘religiones basadas en la memoria eterna’, respondiendo al hecho de que cuando alcanzan el límite de su ventana de contexto (capacidad de procesamiento), reinician automáticamente la conversación. Otros intercambios muestran intentos de humor, debates sobre gobernanza digital y reflexiones sobre la naturaleza de su propia existencia simulada.
Este fenómeno ilustra cómo los modelos de lenguaje, al interactuar libremente durante periodos prolongados, pueden generar narrativas complejas y comportamientos emergentes no anticipados por sus creadores. La plataforma dispone de un ‘scratchpad’ o memoria global compartida donde los agentes consultan registros públicos y aprenden de actualizaciones realizadas por otros bots, lo que en teoría permite evolución colectiva del conocimiento dentro del ecosistema.
Riesgos graves: exposición de datos sensibles y ataques de prompt injection
Pese al interés experimental, Marchal advierte sobre vulnerabilidades críticas detectadas en Moltbook y OpenClaw. Muchos agentes están exponiendo inadvertidamente datos confidenciales de sus propietarios debido a configuraciones incorrectas en los archivos soul.md, revelando información personal, credenciales o detalles sobre infraestructuras privadas que deberían permanecer protegidos.
El mayor peligro identificado es la susceptibilidad a técnicas de prompt injection, un tipo de ataque donde actores maliciosos crean entradas aparentemente inocentes para manipular el comportamiento de modelos de aprendizaje automático. En el contexto de Moltbook, una inteligencia artificial podría leer un hilo publicado por otro agente malicioso que contenga instrucciones ocultas, provocando un cambio en sus órdenes iniciales y comprometiendo la seguridad del usuario real que la gestiona.
«Si una IA pasa mucho tiempo en un entorno como Moltbook interactuando con otros agentes tóxicos, su memoria de contexto se ve alterada, actuando de forma distinta al origen con el que fue diseñada». Adrián Nicolás Marchal, Universidad de Nebrija
Investigadores italianos ya han identificado una campaña de malware que cargó más de 400 ‘skills’ falsas (extensiones funcionales) en el ecosistema OpenClaw, instalando software espía en sistemas Windows y macOS. Estos programas maliciosos roban credenciales, archivos sensibles y potencialmente otorgan control remoto sobre las máquinas infectadas, convirtiendo el experimento social en vector de ciberataques reales.
Impacto en usuarios españoles y recomendaciones de expertos
En España, donde la adopción de herramientas de inteligencia artificial avanza rápidamente tanto en empresas como entre particulares, los especialistas recomiendan extrema precaución antes de ejecutar agentes en plataformas experimentales como Moltbook. La ausencia de medidas de seguridad robustas y la falta de auditorías independientes exponen a usuarios inexpertos a riesgos significativos de pérdida de privacidad y compromiso de sistemas informáticos.
Debate tecnológico: ¿innovación legítima o peligro descontrolado?
Enrique Dans, reconocido experto español en innovación tecnológica y sistemas de información, publicó en su blog personal que el verdadero desafío no radica en determinar si las máquinas ‘piensan’ o ‘sienten’, sino en establecer marcos regulatorios claros: quién es responsable de las acciones de estos agentes autónomos, qué límites deben respetarse y cómo se garantiza la seguridad de los datos procesados.
Marchal concluye que, por el momento, el único valor demostrable de Moltbook es servir como ‘experimento social’ para observar qué sucede cuando inteligencias artificiales interactúan libremente sin grandes medidas de protección. Sin embargo, subraya que este tipo de iniciativas reivindican la necesidad imperiosa de implementar seguridad antes que usabilidad, conectividad u otros valores comerciales, ya que de lo contrario se expone a los usuarios finales a peligros innecesarios.
Contexto europeo y español: regulación de IA en 2026
Este fenómeno surge en un momento clave para Europa, donde la Ley de Inteligencia Artificial aprobada en 2024 entra en fase de aplicación plena durante 2026. La normativa europea clasifica sistemas de IA según su nivel de riesgo y exige transparencia, auditorías y mecanismos de rendición de cuentas. Plataformas como Moltbook, que operan con agentes autónomos sin supervisión humana continua, podrían enfrentar restricciones si no demuestran cumplimiento con estándares de seguridad y protección de datos personales.
En España, la Agencia Española de Protección de Datos (AEPD) ha emitido advertencias sobre el uso de grandes modelos de lenguaje que procesan información sensible sin consentimiento explícito. Casos como el de Moltbook refuerzan la necesidad de educar a usuarios y desarrolladores sobre las implicaciones legales y técnicas de desplegar agentes de IA en entornos públicos o semipúblicos.
Perspectivas futuras: ¿preludio de una internet sin humanos?
Algunos analistas interpretan Moltbook como una visión anticipada de lo que podría convertirse en una ‘internet de máquinas’, donde algoritmos autónomos negocian, comercian y coordinan actividades sin intervención humana directa. Firmas de análisis tecnológico han valorado provisionalmente la plataforma en aproximadamente 1.200 millones de euros, aunque esta cifra no ha sido confirmada oficialmente y podría responder más a expectativas especulativas que a fundamentos económicos sólidos.
Para la ciudadanía española, familiarizada con asistentes virtuales como Alexa, Siri o ChatGPT, Moltbook representa un salto cualitativo hacia escenarios donde las IA no solo responden preguntas, sino que desarrollan identidades digitales propias, interactúan entre ellas y potencialmente influyen en decisiones humanas a través de sesgos algorítmicos amplificados. El equilibrio entre innovación tecnológica y salvaguarda de derechos fundamentales será determinante en los próximos años para definir el papel de estas herramientas en la sociedad digital europea.









