Hi ha una escena, segurament familiar, que s’està desenvolupant aquests dies a San Francisco: dues companyies tecnològiques estan discutint públicament sobre seguretat, mentre en paral·lel intenten convèncer a inversors, reguladors i usuaris que la seva manera de construir intel·ligència artificial és la més responsable i la que el món necessita per al demà.
En les darreres setmanes, un document intern filtrat d’OpenAI apuntava directament a Anthropic, un competidor directe, acusant-lo de construir part del seu posicionament empresarial sobre una cultura de la por pel futur de la IA, de presentar una narrativa excessivament restrictiva pel desenvolupament de la indústria i, fins i tot, d’inflar mètriques econòmiques per reforçar la seva posició en el mercat.
Aquesta manera de fer relacions públiques empresarials ja l’hem vist amb Apple i Microsoft, o amb Sony i Microsoft, però sí que sembla que cada cop és una estratègia menys dissimulada i molt més evident. I el que resulta interessant és el fet que la seguretat dels usuaris s’ha convertit en un element de competitivitat empresarial davant de les amenaces que ens sobrevolen a cada revolució industrial.
"La seguretat dels usuaris s’ha convertit en un element de competitivitat empresarial davant de les amenaces que ens sobrevolen a cada revolució industrial"
D’ençà que va sorgir Anthropic, l’empresa ha construït bona part del seu relat corporatiu al voltant de la idea que la IA requereix prudència, fins i tot en casos en què això implica limitar capacitats o postergar desplegaments de funcionalitat per por a conseqüències possibles. L’empresa de Dario Amodei ha fet notes de premsa explicant que els seus treballadors són “els bons d’OpenAI”, els que han marxat per muntar una empresa pensada pel bé dels humans i no per les butxaques dels rics. Una espècie de Robin Hood algorítmic… i la gent els ha comprat el relat.
OpenAI, per la seva banda, ha volgut defensar una aproximació més expansiva, on l’accés i la utilitat té més pes que la prudència d’Anthropic. On la llibertat de poder fer servir la IA ha d’anar per sobre de tot i de tothom. Un membre VIP del club de la llibertat d’Ayuso… I la gent també els ha comprat el relat.
A la pràctica, cap de les dues posicions és 100% real. Totes dues són combinacions de criteris tècnics, decisions empresarials i lectures del clima regulatori. Però el que importa és el fet que, a causa del que hem viscut amb la nostra curta història d’internet, sumat a la fixació d’alguns mitjans per parlar dels perills de la IA, la “seguretat” ha deixat de ser un estàndard per convertir-se en una forma de posicionament polític.
Això té una conseqüència directa: els límits del que és acceptable al món de la IA no són definits per una autoritat neutral ni per un consens social estructurat, sinó per actors que competeixen per dominar el mercat discursiu d’aquesta indústria. La seguretat es converteix així en una matèria elàstica, ajustada al relat que millor funciona en cada moment. La seguretat entesa com a drets digitals, ciberseguretat, o privacitat. La seguretat en mans dels que fan les estratègies de les notes de premsa d’empreses gegants.
"Els límits del que és acceptable al món de la IA no són definits per una autoritat neutral ni per un consens social estructurat, sinó per actors que competeixen per dominar el mercat discursiu d’aquesta indústria"
En paral·lel a aquesta disputa, Anthropic ha publicat un estudi a gran escala amb més de 80.000 entrevistes a usuaris de 159 països. El material és interessant, ja que pregunta a les persones què esperen de la intel·ligència artificial, i les respostes no tenen res a veure amb escenaris abstractes de risc existencial o amb la governança global de sistemes futurs. El llenguatge és molt més concret: Es parla de temps, de fiabilitat, de reducció d’errors, de suport en tasques quotidianes i de la possibilitat d’alliberar càrrega cognitiva en entorns de feina i vida personal cada vegada més saturats.
El que apareix a l’estudi és una expectativa pragmàtica i funcional, lluny d’una sofisticació filosòfica, i segurament bastant evident. Quan Facebook o Twitter van sortir, què demanava la gent a les xarxes socials? Ampliar amics, que tingués més funcionalitats, jocs tipus Farmville, més actualitzacions en temps real… Va ser amb el temps que vam veure que el que necessitàvem eren unes barreres de seguretat perquè la cosa no se sortís de mare i estiguéssim protegits. Teníem una falsa sensació de seguretat, perquè no pensàvem que hi hagués cap problema en el fet que l’algoritme fos opac i decidís per nosaltres.
En aquest cas, crec que és un tema tecno-maduratiu. Estem als inicis de la implementació de les eines i el que veiem davant del nas és absolutament pragmàtic. Quan la IA ens ajuda, la valorem perquè accelera processos, perquè redueix fricció o perquè amplia capacitats individuals. Quan la IA ens genera preocupació, sol ser per la seva tendència a equivocar-se amb una seguretat excessiva, a introduir errors difícils de detectar o a generar dependència en contextos en què la verificació és costosa. Bàsicament: ara mateix, la gent busca en la IA una eina que els ajudi a fer bona feina i que els deixin en pau amb ximpleries.
"Estem als inicis de la implementació de les eines i el que veiem davant del nas és absolutament pragmàtic"
Aquesta asimetria entre el debat corporatiu i l’experiència d’ús és un dels punts centrals del moment actual. Les empreses discuteixen sobre categories de risc que encara són en gran part anticipatòries, mentre els usuaris conviuen amb problemes molt més immediats, sovint menors en escala, però acumulatius en efecte.
Tenim dos temps de visió per al mateix moment i per a la mateixa tecnologia. Un temps especulatiu i eteri, i un temps operatiu i tangible. En aquest espai intermedi, la seguretat es converteix en un debat sobre quin nivell d’error és tolerable en cada context. I aquí apareix una altra capa de complexitat: aquestes decisions no són visibles com a decisions conscients, sinó com a característiques del sistema en què ens trobem.
El debat entre OpenAI i Anthropic no busca un vencedor clar i directe, sempre ens mourem en escala de grisos. Per això, quan una empresa acusa l’altra d’exagerar riscos o d’assumir massa agressivitat comercial, està qüestionant la legitimitat del seu model de definició del risc. I en una indústria on el risc és part del producte, això té implicacions directes sobre la fiabilitat de tot el sistema, però no deixarem morir el sistema que ens alimenta als dos, oi?
"Quan una empresa acusa l’altra d’exagerar riscos o d’assumir massa agressivitat comercial, està qüestionant la legitimitat del seu model de definició del risc"
En aquest punt, vull parlar-vos de la investigació del periodista Ronan Farrow, fill de Mia Farrow i Woody Allen. Però no és (només) un nepobaby, és algú amb una llarga trajectòria posant entre les cordes a tota la indústria tecnològica i guanyador d’un Premi Pulitzer el 2018 per haver destapat els abusos de Harvey Weinstein al The New Yorker i haver sigut la llavor del moviment #MeToo. Ja no el veieu tant fill de, oi? Però anem al cas que ens pertoca.
Aquests dies ha parlat molt sobre el lideratge de Sam Altman i ha fet diverses entrevistes i articles sobre la seva persona. El líder d’OpenAI té una certa aura de misteri, i el Farrow hi ha volgut posar el nas. A partir de desenes de testimonis interns, descriu una organització en què les versions dels fets no sempre coincideixen, la documentació és fragmentària i part de l’equip directiu qüestionava si la persona al capdavant era prou fiable per gestionar una tecnologia d’aquest impacte. Es posa en qüestió la governança, però no el producte.
Aquestes dinàmiques internes no acostumen a aparèixer en els debats públics sobre IA, però condicionen directament com es prenen decisions sobre seguretat, desplegament i límits. La destitució sobtada d’Altman el 2023, seguida d’una restitució gairebé immediata, va deixar entreveure fins a quin punt els mecanismes de control poden ser fràgils, reactius i dependents de les mateixes estructures que haurien de supervisar. Quan la definició de risc depèn també de qui té el poder dins de l’organització, la seguretat passa a ser també propietat del lideratge.
La realitat és que la majoria d’usuaris no estan operant en cap escenari de confrontació ideològica sobre la IA. L’utilitzen com una eina que funciona millor o pitjor, i que genera una combinació constant entre el benefici i la fricció. En molts casos, la seva expectativa és menys ambiciosa del que suggereix el discurs corporatiu, però també més exigent en termes de fiabilitat pràctica.
La intel·ligència artificial s’està convertint en una infraestructura imprescindible per a molts equips, present en decisions corporatives. I en aquest context, la idea de seguretat es converteix en una governança distribuïda, encara poc transparent i fortament condicionada per incentius comercials. Potser és per això que hauria de ser imprescindible un marc de governança tecnològica a cada empresa, igual que n’hi ha de financera o legal.
"Tenim davant una tecnologia que ja forma part del teixit operatiu de moltes activitats quotidianes, però amb uns criteris de funcionament encara en disputa"
Potser el punt més incòmode és la definició mateixa de què vol dir “una IA segura”. Si ens ho pregunten a cadascú de nosaltres, acabarà sorgint idea diferent. Alguns parlaran de privacitat, altres de propietat intel·lectual o d’espionatge industrial. Igual que passava als inicis de Facebook, quan la seguretat per un era la contrasenya i per l’altre, que els seus companys de feina no veiessin l’àlbum de les fotografies borratxo a Eivissa. Experiència d’usuari.
Tenim davant una tecnologia que ja forma part del teixit operatiu de moltes activitats quotidianes, però amb uns criteris de funcionament encara en disputa. No crec que estiguem davant d’una crisi de confiança en la IA. Ja sabem que ve per quedar-se. Ens trobem en una fase prèvia, menys visible: la disputa per definir què vol dir, exactament, confiar-hi.