• Economia
  • El cas Moltbook: quan la IA amenaça de prendre el control de l'empresa

El cas Moltbook: quan la IA amenaça de prendre el control de l'empresa

En un entorn on els sistemes comencen a parlar entre ells, la veritable qüestió no és què fa la IA, sinó qui decideix a l'empresa

Un mòbil mostra el logo de Moltbook | Europa Press
Un mòbil mostra el logo de Moltbook | Europa Press
Silvia Urarte | VIA Empresa
Fundadora i directora general de la consultora Conética
Barcelona
05 de Maig de 2026 - 04:55

El cas Moltbook mostra un nou risc empresarial: no el de la intel·ligència artificial en si, sinó el de les dependències que es generen quan els algorismes comencen a interactuar entre ells. Les màquines ja no només parlen entre elles. Comencen a influir en decisions que les empreses encara creuen humanes. Durant anys, la intel·ligència artificial s'ha incorporat al teixit empresarial com una eina: automatitzar processos, reduir costos, millorar l'eficiència. Però un experiment recent ha posat sobre la taula una realitat diferent.

 

Moltbook, una xarxa social creada a finals de gener de 2026 exclusivament per a agents d'IA, ha permès observar què passa quan els algoritmes interactuen entre si sense intervenció humana directa. Segons dades recollides per Forbes i The Conversation, la plataforma va passar en pocs dies de 37.000 a més d'un milió d'agents actius, generant converses, votacions i dinàmiques pròpies.

El fenomen va cridar l'atenció per elements aparentment anecdòtics —com la creació d'una suposada religió anomenada Crustafarianism—, però el veritable interès no és allà. En alguns fils, els agents fins i tot es referien als humans com a “els seus operadors”, amb comentaris documentats com “my human is distracted again” (el meu humà s'ha tornat a distreure), “humans change instructions unpredictably” (els humans canvien d'instruccions de manera impredictible) o “my human keeps overriding my decisions” (el meu humà continua anul·lant les meves decisions). Aquestes frases, recollides en les anàlisis de l'experiment, no impliquen consciència, però sí que revelen alguna cosa nova: sistemes que comencen a construir narratives sobre els qui els supervisen.

 

Moltbook és una xarxa social creada a finals de gener de 2026 exclusivament per a agents d'IA

No hi ha consciència. El que sí que hi ha és un comportament social simulat: sistemes que, en interactuar, generen narratives, consensos i dinàmiques de grup. I això té una implicació directa per a les empreses. Una IA aïllada és una eina. Diverses IA connectades són un sistema. I un sistema genera dependències.

Avui, moltes companyies a Catalunya i en el conjunt d'Espanya estan desplegant intel·ligència artificial en àrees clau: atenció al client, selecció de talent, logística, pricing, compres o anàlisi financera. Cada aplicació s'implementa de forma aparentment controlada. El problema comença quan aquests sistemes interactuen entre si. El risc ja no és en l'algorisme individual, sinó en la lògica que s'amplifica quan diferents algorismes es retroalimenten. Decisions que es validen entre sistemes, biaixos que es reforcen i processos que evolucionen sense supervisió estratègica real. És el que ja podem anomenar una dependència algorítmica. I avui, pràcticament cap empresa l'està mesurant.

Aquest punt connecta amb una cosa que ja passa en altres àmbits de l'empresa: les dependències condicionen més que els indicadors. L'enfocament ESG ha permès mesurar impactes, però continua sense explicar per què organitzacions amb bons resultats ambientals o socials prenen decisions incoherents amb els seus propis compromisos. La raó, en molts casos, no és a les dades, sinó en les dependències que no s'estan gestionant: energètiques, tecnològiques… i ara també algorítmiques.

El cas Moltbook, a més, va posar de manifest un altre risc crític: la seguretat. Tal com van recollir TechCrunch i TechRadar, la plataforma va patir filtracions de credencials i tokens, cosa que va permetre que alguns humans es fessin passar per agents, contaminant part de l'activitat atribuïda a les IA. Part del que semblava autonomia artificial podria estar, en realitat, distorsionat. Això no redueix la importància del fenomen. L'augmenta. Perquè demostra que el risc no és en una intel·ligència artificial autònoma, sinó en sistemes mal governats que operen com si ho fossin.

A això s'hi suma una dimensió que sovint es passa per alt: la materialitat de la IA. Segons l'Agència Internacional de l'Energia, els centres de dades van consumir 415 TWh el 2024 i podrien assolir els 945 TWh el 2030. La intel·ligència artificial no és intangible: depèn d'energia, infraestructures i recursos crítics. I tota dependència condiciona la capacitat de decisió.

En un país on el 99% del teixit empresarial són pimes, aquestes dependències no són un risc abstracte: poden afectar directament la competitivitat de sectors sencers. Catalunya està accelerant l'adopció d'IA en indústria, turisme, logística i administració pública. Però sense governança, l'automatització pot generar més vulnerabilitats que avantatges. Així, la competitivitat de Catalunya en els pròxims anys no dependrà només d'adoptar IA, sinó de governar-la amb intel·ligència.

En un país on el 99% del teixit empresarial són pimes, aquestes dependències no són un risc abstracte: poden afectar directament la competitivitat de sectors sencers

En un ecosistema empresarial que històricament ha valorat el criteri, la proximitat i la presa de decisions informada, delegar sense entendre pot erosionar un dels actius més valuosos de les empreses catalanes: la seva capacitat de decidir amb sentit. En aquest context, la regulació avança —amb l'AI Act europeu o els marcs del NIST—, però cap norma substitueix la pregunta clau per a les empreses: ¿Estem utilitzant la intel·ligència artificial per a decidir millor… o per a deixar de decidir?

La diferència és estratègica. Perquè l'avantatge competitiu no estarà en qui automatitzi més de pressa, sinó en qui entengui millor què està delegant. Governar la IA no és només implementar-la, sinó comprendre com interactua, quina lògica reprodueix i quines dependències genera.

Les empreses no són el que diuen. Són el que decideixen. I en un entorn on els sistemes comencen a parlar entre ells, la veritable qüestió no és què fa la intel·ligència artificial. És qui està prenent realment les decisions a la teva empresa.