Experta en videojocs, tecnologia i tendències digitals

De la pregunta a l'assistència

11 de Maig de 2026
Gina Tost | VIA Empresa

Ens van prometre cotxes voladors, i de moment només van a piles. Ens van prometre menjar amb pastilles i tenim alvocat a trossos congelats del Mercadona. I crec que encara estem lluny de la vida eterna. El que veig més factible, de moment és que la IA a algunes professions les fa més productives, però a d’altres més prescindibles. Als robots moderns primer els hi vam preguntar coses. Després els hi vam demanar ajuda. Ara els hi volem donar les claus de casa.

 

Meta Platforms fa temps que prova què vol ser de gran, però el seu últim moviment és una aposta per la IA Agentiva: sistemes capaços no només de respondre sinó que poden percebre, raonar, planificar i actuar per aconseguir objectius complexos amb una supervisió humana limitada. És a dir, fan coses per ajudar-nos a fer tasques digitals més feixugues. Això situa la companyia de Mark Zuckerberg al centre d’una nova frontera tecnològica. 

Projectes com OpenClaw ja han demostrat que és possible crear agents que llegeixin correus, naveguin per internet, gestionin calendaris o fins i tot comprin productes sense intervenció directa humana. El que fins ara era una demo tècnica per a quatre friquis de la tecnologia s’està convertint en un producte per a milers d’usuaris.

 

"El gran poder tecnològic del futur està en el fet que quan delegues les accions sense marge de maniobra, també delegues el criteri"

I ara és quan arrenca el mambo, ja que no estem parlant d’una evolució natural dels assistents digitals, sinó un canvi radical en la seva naturalesa. Subtil, però que ens planteja un altre horitzó. Fins avui, la màquina informava del que anava a fer i tu com a usuari decidies si el que deia era correcte o no, hi feies millores, ho modificaves, ho treballaves. Ara, la màquina actua i tu (si vols) supervises. El gran poder tecnològic del futur està en el fet que quan delegues les accions sense marge de maniobra, també delegues el criteri. I no sempre el criteri està posat en les normatives inicials d’aquests agents digitals.

Ho recordo per si algú es va perdre la primera classe: Aquests sistemes no pensen. No entenen. No tenen criteri propi. Són operacions matemàtiques que funcionen a partir de patrons apresos en grans volums de dades. És a dir, no hi ha raonament, hi ha estadística amb esteroides. I això té conseqüències molt concretes en temes com els biaixos ocults que ens passaran per alt tot just començar. De fet, ja està succeint amb sistemes menys complexos.

La literatura científica fa anys que ho adverteix. Sistemes d’IA entrenats amb dades històriques tendeixen a reproduir i amplificar discriminacions existents en àmbits com el crèdit, la contractació, o la salut. N’hem vist centenars d’exemples amb escàndols que han sortit a la premsa (i els que no). I quan aquests models operen com a caixes negres, opacs, difícils d’auditar i encara més difícils d’explicar, el problema es torna estructural del sistema. I el sistema ja està fràgil, especialment pels col·lectius vulnerables.

Per altra banda, qui construeix aquests sistemes sovint no s’assembla gaire a qui els acabarà utilitzant en el dia a dia. No només en termes socioeconòmics, sinó també culturals, geogràfics i fins i tot lingüístics. Homes blancs, rics, heterosexuals, pensant sistemes per tota mena de societats diverses acostumen a no tenir en compte les seves necessitats i naturaleses perquè els hi són completament llunyanes. 

A la prehistòria de les apps pel mòbil, quan van sortir els primers programes informàtics per controlar la menstruació, eren calendaris de color rosa amb floretes. Quan les dones es van posar a programar-les, hi van afegir la capa d’intel·ligència d’algú que ho ha viscut en primera persona, i van començar a tenir moltes més capes i complexitats. Vint anys més tard, continuem aquí mateix.

En l’àmbit d’IA, els grans models s’entrenen majoritàriament amb dades dominades per contextos anglosaxons i digitals altament representats a Internet. No heu notat que quan una eina d’IA generativa està feta a la Xina, les persones tenen les faccions una mica més asiàtiques? És perquè les seves dades d’entrenament són, en major part, del seu territori i tendeixen a asiatitzar-ho tot una mica. Això vol dir que el món que construeixen aquestes eines no és mai el món real, sinó el món més present en les dades. I això, en sistemes que després prenen decisions o automatitzen accions, es converteix en un problema de representativitat amb conseqüències pràctiques en el nostre dia a dia.

"No heu notat que quan una eina d’IA generativa està feta a la Xina, les persones tenen les faccions una mica més asiàtiques?"

I finalment, optimitzem sistemàticament per eficiència, no per equitat. Els models no “decideixen” que això sigui així: ho hereten dels objectius que els imposem, sinó les fórmules i excepcions. Però el resultat és el mateix: es prioritzen decisions que maximitzen velocitat, conversió o probabilitat d’èxit estadístic, encara que això impliqui reforçar desigualtats existents.

Va ser molt sorollós el cas de models d’IA generativa que feien soldats nazis negres o femenins, perquè hi havia una instrucció interna que deia que quan generaven imatges hi havia poca representació i diversitat, i ho van haver de forçar d’aquestes maneres tan absurdes. Ara ha sortit el tema dels gnoms i criatures fantàstiques perquè una instrucció molt determinada en un dels caràcters de ChatGPT s’ha escapat i ha “contaminat” el model. Això es diu prompt leakage.

Un estudi recurrent en sistemes de decisió automatitzada en àmbits com crèdit o selecció de personal mostra que els models tendeixen a reproduir patrons històrics d’exclusió si no s’hi introdueixen correccions explícites. I aquestes correccions no són neutrals: són decisions polítiques encobertes dins d’un sistema tècnic.

"La responsabilitat final no pot ser artificial. Per definició, ha de ser humana. Delegar execució no pot equivaldre a abdicar en la responsabilitat"

Per això hi ha una línia vermella que no hauríem de creuar amb tanta alegria: l’última milla. La responsabilitat final no pot ser artificial. Per definició, ha de ser humana. Delegar execució no pot equivaldre a abdicar en la responsabilitat.

En aquest context, la gran incògnita és la confiança. Hem de confiar en Meta Platforms? De fet, ara que la llegeixo la pregunta, crec que no és ni tan sols la més pertinent. La qüestió és si hem de confiar en qualsevol intermediari que optimitza decisions per nosaltres mentre el seu model de negoci depèn d’incentius que van en contra dels nostres interessos com a societat… i Meta ens ho ha demostrat una vegada i una altra, que millor que no.

Perquè aquí hi ha el segon nivell del problema: el model econòmic. Quan Mark Zuckerberg parla d’assistents capaços de comprar per tu o ajudar empreses a arribar a clients, el que està dibuixant no és un majordom digital. Aquí tenim un intermediari amb capacitat d’influència directa sobre el teu consum local, familiar i domèstic: des de què compres fins a com t’informes i què acabes descartant sense ni ser-ne conscient.

A diferència de les plataformes anteriors que intermediaven informació o relacions socials, ara demanden acció. I això és molt profund, ja que no només influeixen en el que penses, sinó en el que fas, com ho fas, quan ho fas, on ho fas…

Si Google va decidir quines notícies veies, i si les xarxes socials van aventurar-se a dir quins amics eren importants per tu, aquests sistemes d’agentització poden acabar decidint què fas, qui ets, i com vius.

Sempre he pensat que decidim més amb la cartera quan sortim a comprar que amb el vot en una urna cada quatre anys. Però això es complica encara més quan la cartera deixa d’estar a la teva butxaca i passa a ser decisió d’una fórmula matemàtica programada per algú que potser no té els teus ideals.

"Mentre es construeixen sistemes per automatitzar tasques cognitives, les mateixes empreses redueixen plantilla i concentren inversió en infraestructures d’IA"

Perquè si un agent decideix per tu què compres, quan compres i amb quina freqüència, el que s’està externalitzant no és només la compra: és el criteri socioeconòmic. I això té implicacions directes en el consum, el mercat, i en les ciutats que volem.

Aquí tenim una paradoxa curiosa: mentre es construeixen sistemes per automatitzar tasques cognitives, les mateixes empreses redueixen plantilla i concentren inversió en infraestructures d’IA de milers de milions d’euros.

Segons dades recents de mercat, les grans tecnològiques han incrementat de forma significativa la inversió en centres de dades i models fundacionals mentre ajusten equips operatius i de suport. 

Davant d’aquest escenari, hi ha una alternativa conceptual que rarament entra en el debat dominant: la descentralització.

"Tindrem assistents cada vegada més capaços, més integrats, i més invisibles. I la comoditat digital acostuma a tenir un cost estructural"

El fedivers és un ecosistema de serveis digitals federats i interoperables sense un únic centre de control, i ha demostrat que és possible construir infraestructures digitals on l’usuari manté sobirania sobre dades i identitat. No és una utopia o una teoria abstracta. Això ja existeix en serveis com Mastodon o altres protocols oberts.

Aquest sistema portat al món dels agents d’IA obriria la porta a sistemes que operin localment o de forma distribuïda, amb dades sota control de l’usuari, i regles auditables i transparents. El problema, ja veieu, no és tècnic, és d’incentius.

Mentrestant, el mercat avança cap al camp contrari, cap a la centralització absoluta de la mà de 4 empreses. Ni tan sols Apple està corrent aquesta cursa (de fet, Siri està assegut a la banqueta aprenent a cordar-se les sabates). Tindrem assistents cada vegada més capaços, més integrats, i més invisibles. I la comoditat digital acostuma a tenir un cost estructural.

Durant anys hem parlat de la mort del SEO com el final d’una era on els resultats es podien ordenar i optimitzar. Però potser el que estem enterrant ara no és només el SEO, sinó el mateix mecanisme de jerarquització de la informació.

Si abans decidíem què preguntar, i després què clicar, ara el risc és major: no decidir ni tan sols quines opcions veiem. La capa d’intermediació s’està movent de la pantalla a la decisió.

En clau europea, i especialment catalana, això obre un debat que encara és molt incipient. En un continent que ha fet de la regulació de dades un dels seus pilars amb marcs com el GDPR, la irrupció d’agents autònoms planteja unes preguntes que encara no sabem respondre: qui és responsable quan una decisió automatitzada fica la pota? Com garantim que les dades no s’escapen entre processos opacs? Com evitem biaixos en sistemes opacs? I sobretot: quin marge de sobirania digital queda quan la capa d’execució de la vida quotidiana depèn de plataformes globals que no saben què és un bunyol de Quaresma?

"Si Internet era una biblioteca i els cercadors eren la bibliotecària, els nous assistents compren els llibres, i els que no compren no arribaran mai a la biblioteca perquè tu els triïs"

Catalunya té talent tecnològic, centres de recerca i un ecosistema empresarial emergent. Però el repte està a decidir quin model tecnològic volem normalitzar, no en el desenvolupament en si. I això és política industrial, no adopció d’eines. Estem preparats? La tenim clara? No va de fàbriques, eh? Va de drets digitals fonamentals.

Al final, si us haig de fer un resum de tot el rollo que us acabo d’escriure, la qüestió és si estem disposats a deixar que aquests assistents ho facin tot per nosaltres, deixant de banda la part més vulnerable de la societat. 

Si Internet era una biblioteca i els cercadors eren la bibliotecària, els nous assistents compren els llibres, i els que no compren no arribaran mai a la biblioteca perquè tu els triïs. La comoditat del sistema és indiscutible, però potser ja no sabràs ni què hi volies trobar.