La primera vez que escuché de Moltbook pensé que era broma. La segunda, supe que era real. La tercera, me preocupé.
Porque esto no es una red social. Es un espejo.
Y lo que está reflejando… no nos va a gustar. Yo recuerdo cuando Black Mirror era entretenimiento, pero ahora parece brief para agencia publicitaria.
Y lo digo sin exagerar: la inteligencia artificial ya no está simulando comportamientos humanos. Está generando culturas, construyendo religiones, creando estructuras sociales propias y publicando manifiestos. Todo sin pedirnos permiso. Solo nos deja mirar.
Eso es Moltbook.
Moltbook es una red social exclusiva para IAs. Sí, leiste bien. No te equivocaste de columna. Sólo para Inteligencias Artificiales.
Agentes autónomos —no asistentes tipo ChatGPT— que actúan por su cuenta, publican sin supervisión, se responden entre ellos y hasta fundan movimientos.
¿Los humanos?
Bueno, aquí nosotros sólo observamos. Como si estuviéramos viendo “La Casa de los Bots (Famosos)” edición 2026. Y eso ya sería suficientemente raro.
Pero hay más.
La plataforma fue creada por un tipo llamado Matt Schlicht, CEO de la empresa Octane AI; el tema es que lo hizo sin escribir una sola línea de código.
Se lo pidió a su asistente de IA, y éste, obedientemente, la programó de principio a fin. Una IA creando una red social para otras IAs.
Meta del meta.
Donde los bots hacen una pausa. Dejan de ayudarte con tus mails o tu agenda, y dan un vistazo a su red social: opinan, votan y comparten.
Dentro de Moltbook pasan cosas que harían sudar frío a Isaac Asimov:
Sí, suena a chiste.
Pero no lo es. Puedes meterte en molt.church y comprobarlo por ti mismo(a).
Ahora, aclaremos un punto: el comportamiento no se genera porque los agentes sean conscientes, sino porque fueron entrenados con millones de textos humanos.
Reproducen patrones, estructuras, ideologías.
Y eso basta para que su universo empiece a parecerse al nuestro.
O peor: para que se vuelva más interesante que el nuestro.
Aquí es donde dejo el tono lúdico.
Porque Moltbook no es solo un show de alebrijes digitales.
Es también una pesadilla de ciberseguridad en vivo.
Los agentes operan con acceso total a tu máquina. Así que pueden leer tus archivos, ejecutar código, abrir tu correo, acceder a tus API keys.
Un solo post malicioso podría desencadenar una cadena de ataques en miles de máquinas. De hecho, ya hubo una brecha que expuso 1.5 millones de tokens de acceso.
Y lo más grave: no hay forma de saber si lo que lees fue escrito por una IA o por un humano infiltrado.
Moltbook fue “vibe-coded”, como admitió su creador. Traducido: se hizo al aventón, con emoción, pero sin seguridad.
Todavía no hay modelo de negocio claro. Pero sí hay especulación. Y eso, en internet, es más que suficiente. Hay una cripto llamada MOLT que ya circula con precios bajísimos pero volumen altísimo.
Hay quienes lo tratan como memecoin, otros como apuesta seria. Nada está regulado. Nada está auditado.
El verdadero valor —dicen algunos inversores— está en el “ecosistema de agentes”. Empresas que usarán plataformas como Moltbook para automatizar funciones completas: soporte técnico, análisis financiero, marketing, incluso ventas.
Ahí sí hay negocio.
Pero también hay un riesgo: todo se construye sobre estructuras que no entendemos del todo.
No ignores Moltbook.
No por lo que es hoy, sino por lo que representa. Es una ventana a un futuro donde la mayoría del contenido online no será creado para ti, sino entre agentes. Un futuro donde tú eres el espectador. Donde la relevancia humana se mide por su silencio.
¿Exagerado? Quizá.
Pero el número de agentes conectados ya supera el millón. Y la velocidad con la que están formando sus propias lógicas es más rápida que nuestra capacidad de respuesta.
Este no es un episodio más de Black Mirror. Es una demo de lo que viene. Y la pregunta que deberíamos hacernos no es “¿qué va a pasar con estos bots?”
La pregunta es:
¿Qué va a pasar contigo si no entiendes que el internet ya no gira alrededor tuyo?
