Durant molts anys vaig desenvolupar programari de gestió empresarial. Facturació, comptabilitat, ERP: tot això que fa que les empreses funcionin sense que ningú pensi gaire en la part més avorrida de tot plegat.
En aquell món hi havia una frase que tothom acceptava amb absoluta naturalitat: “L’ordinador no em deixa”. La deien administratius, comptables, directius. Ningú s’hi rebel·lava gaire. El programa tenia unes regles i, si intentaves fer una operació que no encaixava amb la lògica del sistema, simplement no et deixava continuar.
La conversa s’acabava aquí. Ningú exigia empatia a l’ordinador. Ningú no es preguntava si la màquina era moral o immoral. Era una eina que aplicava regles pensades per directius. A mi em pagaven perquè l’ordinador fes exactament allò.
I prou.
L’ordinador era una peça més de la maquinària de l’empresa. Podia ser molest, podia ser limitador, però ningú no li atribuïa intencions. Ningú no creia que tingués una agenda pròpia. Era una màquina, i les màquines fan el que estan dissenyades per fer.
Cap més misteri.
Ara, en canvi, sembla que hem entrat en una altra fase cultural digital notablement esbojarrada. Les frases que comencen a circular són unes altres: “la IA m’enganya”, “la IA menteix” o “la IA manipula”. Quan escolto aquestes afirmacions tinc la sensació que estem projectant categories humanes sobre una cosa que no és humana.
"El model d'una IA no té un mapa del món ni un concepte de 'veritat'; només calcula quina combinació de peces de llenguatge és la més versemblant segons els seus càlculs"
Una IA no té consciència, voluntat ni intenció. Tècnicament, és una arquitectura de xarxes neuronals que opera en un espai matemàtic de milers de dimensions, on el seu únic objectiu és trobar la resposta més probable. Això no és una metàfora; és literalment un procés d'optimització estadística. El model no té un mapa del món ni un concepte de 'veritat'; només calcula quina combinació de peces de llenguatge és la més versemblant segons els seus càlculs.
Quan 'al·lucina', no t'enganya: simplement prioritza la coherència del text per sobre de la certesa dels fets.
Si la realitat no hi és, mana la gramàtica.
Són màquines de fer frases que “sonin bé”, siguin o no veritat –vint de cada deu populistes ho comprarien amb els ulls clucs.
"El parany consisteix a confondre la capacitat de simular el llenguatge –cosa que fa la IA– amb la capacitat de tenir una experiència interna"
Mentrestant, el parany consisteix a confondre la capacitat de simular el llenguatge –cosa que fa la IA– amb la capacitat de tenir una experiència interna. Atribuir una 'ànima defectuosa' a un model digital estadístic és un error enorme; significa confondre la partitura amb el músic. La màquina pot reproduir la simfonia a la perfecció, però no hi ha ningú a dins que l'estigui escoltant.
Tot plegat són escenes més pròpies de la música, i el cinema, que de la tecnologia digital. Els humans som així de teatrals.
També hi ha una certa amnèsia en aquest debat carregat de superioritat moral. Durant dues dècades, internet s’ha omplert de textos escrits per a manipular els algoritmes dels cercadors; milions d’articles produïts en massa per capturar trànsit, sense experiència ni responsabilitat intel·lectual. Era un engany deliberat per sortir a la primera pàgina de Google, i el produïen persones.
Als mitjans —així en general— els festivals de fake news són diaris. Populisme a raig per cridar l’atenció, sense gaire ètica ni miraments. Gairebé dos milions d’espanyols creuen que la terra és plana.
Però ara, de cop, el problema són els textos fets amb IA? Perquè ens enganya.
Fem broma?
La IA no té voluntat d’enganyar ningú. Si genera una falsedat és perquè el sistema estadístic ha produït una resposta plausible, no perquè hagi decidit manipular el lector. Un estafador humà sí que té aquesta intenció. I aquesta diferència és colossal.
Els humans, molt pagats de nosaltres mateixos i força porucs, ara ens espantem perquè la IA pot reproduir la nostra autoritat i les nostres estafes amb una productivitat enorme. I li donem la culpa.
Si ens ho mirem amb una mica de perspectiva històrica, les societats sempre han tingut una instància abstracta a la qual atribuir les nostres limitacions incòmodes. Fa segles era “Déu no ho vol”, o “és pecat”. Més tard va ser “la normativa no ho permet”. A l’empresa moderna es va convertir en “l’ordinador no em deixa”.
"La IA no té voluntat d’enganyar ningú. Si genera una falsedat és perquè el sistema estadístic ha produït una resposta plausible, no perquè hagi decidit manipular el lector"
El mecanisme psicològic és sempre el mateix: projectar-nos sobre una entitat abstracta i deixar de mirar les nostres decisions humanes errònies que hi ha al darrere.
Au, resolt!
Però cap algoritme s’escriu sol, ni cap model de llenguatge decideix com s’utilitzarà.
Quan algú fa servir IA per escalar una estafa, el problema no és la IA. El problema és l’estafador. La mateixa persona podria usar el correu postal, el telèfon, un pòster penjat a un fanal, el correu electrònic o una pàgina web. La tecnologia canvia; la naturalesa humana, ai.
"La IA ens fa por perquè reprodueix les nostres misèries i ho fa 'a lo bèstia', amb un ritme exponencial que probablement ens farà caure de cul a tots en els pròxims cinc anys"
La tecnologia amplifica les intencions humanes; no les crea. La IA ens fa por perquè reprodueix les nostres misèries i ho fa a lo bèstia, amb un ritme exponencial que probablement ens farà caure de cul a tots en els pròxims cinc anys.
Des de fa un temps, he adoptat una regla: quan algú parla de la IA amb una superioritat moral marcada, prefereixo no prendre ni un cafè amb aquesta persona. Possiblement ha passat que la IA amplifica les seves pròpies misèries i, de cop, se li ha girat una competència enorme. No vull ser al seu bàndol.
Hem passat de l’ordinador que “no ens deixa” a la IA que “ens enganya”. Però no ens confonguem de gènere: això no és ciència-ficció, és verisme com el de Puccini o Verdi. La tecnologia és només l’escenografia, cada cop més sofisticada, per al nostre drama de sempre. La màquina ha millorat el decorat; la misèria continua sent nostra.