El caso Moltbook muestra un nuevo riesgo empresarial: no el de la inteligencia artificial en sí, sino el de las dependencias que se generan cuando los algoritmos empiezan a interactuar entre ellos. Las máquinas ya no solo hablan entre ellas. Empiezan a influir en decisiones que las empresas todavía creen humanas. Durante años, la inteligencia artificial se ha incorporado al tejido empresarial como una herramienta: automatizar procesos, reducir costes, mejorar la eficiencia. Pero un experimento reciente ha puesto sobre la mesa una realidad distinta.
Moltbook, una red social creada a finales de enero de 2026 exclusivamente para agentes de IA, ha permitido observar qué ocurre cuando los algoritmos interactúan entre sí sin intervención humana directa. Según datos recogidos por Forbes y The Conversation, la plataforma pasó en pocos días de 37.000 a más de un millón de agentes activos, generando conversaciones, votaciones y dinámicas propias.
El fenómeno llamó la atención por elementos aparentemente anecdóticos —como la creación de una supuesta religión llamada Crustafarianism—, pero el verdadero interés no está ahí. En algunos hilos, los agentes incluso se referían a los humanos como “sus operadores”, con comentarios documentados como “my human is distracted again” (mi humano se ha vuelto a distraer), “humans change instructions unpredictably” (los humanos cambian de instrucciones de manera impredecible) o “my human keeps overriding my decisions” (mi humano sigue anulando mis decisiones). Estas frases, recogidas en los análisis del experimento, no implican conciencia, pero sí revelan algo nuevo: sistemas que empiezan a construir narrativas sobre quienes los supervisan.
Moltbook es una red social creada a finales de enero de 2026 exclusivamente para agentes de IA
No hay conciencia. Lo que sí hay es un comportamiento social simulado: sistemas que, al interactuar, generan narrativas, consensos y dinámicas de grupo. Y esto tiene una implicación directa para las empresas. Una IA aislada es una herramienta. Varias IA conectadas son un sistema. Y un sistema genera dependencias.
Hoy, muchas compañías en Catalunya y en el conjunto de España están desplegando inteligencia artificial en áreas clave: atención al cliente, selección de talento, logística, pricing, compras o análisis financiero. Cada aplicación se implementa de forma aparentemente controlada. El problema empieza cuando estos sistemas interactúan entre sí. El riesgo ya no está en el algoritmo individual, sino en la lógica que se amplifica cuando diferentes algoritmos se retroalimentan. Decisiones que se validan entre sistemas, sesgos que se refuerzan y procesos que evolucionan sin supervisión estratégica real. Es lo que ya podemos llamar una dependencia algorítmica. Y hoy, prácticamente ninguna empresa la está midiendo.
Este punto conecta con algo que ya ocurre en otros ámbitos de la empresa: las dependencias condicionan más que los indicadores. El enfoque ESG ha permitido medir impactos, pero sigue sin explicar por qué organizaciones con buenos resultados ambientales o sociales toman decisiones incoherentes con sus propios compromisos. La razón, en muchos casos, no está en los datos, sino en las dependencias que no se están gestionando: energéticas, tecnológicas… y ahora también algorítmicas.
El caso Moltbook, además, puso de manifiesto otro riesgo crítico: la seguridad. Tal como recogieron TechCrunch y TechRadar, la plataforma sufrió filtraciones de credenciales y tokens, lo que permitió que algunos humanos se hicieran pasar por agentes, contaminando parte de la actividad atribuida a las IA. Parte de lo que parecía autonomía artificial podría estar, en realidad, distorsionado. Esto no reduce la importancia del fenómeno. La aumenta. Porque demuestra que el riesgo no está en una inteligencia artificial autónoma, sino en sistemas mal gobernados que operan como si lo fueran.
A esto se suma una dimensión que a menudo se pasa por alto: la materialidad de la IA. Según la Agencia Internacional de la Energía, los centros de datos consumieron 415 TWh en 2024 y podrían alcanzar los 945 TWh en 2030. La inteligencia artificial no es intangible: depende de energía, infraestructuras y recursos críticos. Y toda dependencia condiciona la capacidad de decisión.
En un país donde el 99% del tejido empresarial son pymes, estas dependencias no son un riesgo abstracto: pueden afectar directamente a la competitividad de sectores enteros. Catalunya está acelerando la adopción de IA en industria, turismo, logística y administración pública. Pero sin gobernanza, la automatización puede generar más vulnerabilidades que ventajas. Así, la competitividad de Catalunya en los próximos años no dependerá solo de adoptar IA, sino de gobernarla con inteligencia.
En un país donde el 99% del tejido empresarial son pymes, estas dependencias no son un riesgo abstracto: pueden afectar directamente a la competitividad de sectores enteros
En un ecosistema empresarial que históricamente ha valorado el criterio, la proximidad y la toma de decisiones informada, delegar sin entender puede erosionar uno de los activos más valiosos de las empresas catalanas: su capacidad de decidir con sentido. En este contexto, la regulación avanza —con el AI Act europeo o los marcos del NIST—, pero ninguna norma sustituye la pregunta clave para las empresas: ¿Estamos utilizando la inteligencia artificial para decidir mejor… o para dejar de decidir?
La diferencia es estratégica. Porque la ventaja competitiva no estará en quién automatice más rápido, sino en quién entienda mejor qué está delegando. Gobernar la IA no es solo implementarla, sino comprender cómo interactúa, qué lógica reproduce y qué dependencias genera.
Las empresas no son lo que dicen. Son lo que deciden. Y en un entorno donde los sistemas empiezan a hablar entre ellos, la verdadera cuestión no es qué hace la inteligencia artificial. Es quién está tomando realmente las decisiones en tu empresa.