Etnògraf digital

Augmentar l'estupidesa amb IA

11 d'Abril de 2024
Josep Maria Ganyet | VIA Empresa

Ja fa temps que experts i divulgadors advertim que ens fa més por l’estupidesa natural que la intel·ligència artificial. En desconec la paternitat, però si tirem enrere segur que ja deu sortir a l’Antic Testament. Jo el faig servir sovint enfront dels mals auguris sobre la IA; els que presenten com a inevitable una IA superhumana, capaç de mentir-nos per protegir un bé superior, com el HAL de 2001; d’alterar la realitat per subjugar-nos, com els ordinadors de Matrix, o per controlar-nos i exterminar-nos com l’Skynet de Terminator.

 

Sempre són hipòtesis de futur a llarg termini fetes per empresaris, tecnòlegs i filòsofs que, amb previsions apocalíptiques llunyanes, desvien el debat dels problemes actuals de la IA. És com un joc de mans: mentre el mag ens explica una història i desvia la nostra atenció, l’acció és en un altre lloc. El fenomen està tan identificat que els anglòfons utilitzen el terme longterminism, que podríem adaptar en català com a llargterminisime.

"A Silicon Valley parlen mig de broma mig de veres de 'p(doom)', un índex per mesurar la probabilitat de l’Apocalipsi"

Agafeu les prediccions de SamAltman, ElonMusk, del filòsof NickBostrom o de l’historiador YuvalNoahHarari i hi trobareu aquest patró. Altman ens adverteix que el que fan a OpenAI canviarà el món, que és com l’electricitat, i que si no vigilem pot acabar amb la civilització tal com la coneixem. No ho sabem. El que sí que sabem és que mentrestant fan servir material amb drets d’autor per entrenar els seus models i després fan pagar per fer-los servir. La transferència de valor de molts a uns quants, que ja va passar amb l’arribada de les xarxes socials, empal·lideix amb la de la IA generativa.

 

Musk fa el mateix. Mentre, per una banda, porta OpenAI als tribunals i signa cartes contra el desplegament de grans models de llenguatge com GPT-4, crea una empresa per competir-hi. Musk és un dels grans proponents de les set plagues d’Egipte de la IA. Ho diu mentre la posa a les carreteres amb la falsa promesa que els seus vehicles són autònoms. Una promesa d’una conducció autònoma de nivell 5 que no acaba d’arribar mai (els Tesla estan classificats com a 2). Tesla ha arribat a publicar un vídeo d’un vehicle sense conductor on s’assegura que tot el que s’hi veu és real, quan en realitat la conducció havia estat supervisada per enginyers i el vídeo s’ha demostrat manipulat davant d’un tribunal.

Però per molt que tots aquests profetes de l’Apocalipsi tinguin algun mort a l’armari podrien tenir raó. El futur no està escrit i si alguna cosa ens ensenya la història és que l’estupidesa humana no s’ha de subestimar mai. A Silicon Valley parlen mig de broma mig de veres de p(doom), un índex per mesurar la probabilitat de l’Apocalipsi. Va començar com una facècia de freaks de la IA (els AI bros, per analogia amb els cripto bros), però la realitat l’està convertint en un indicador seriós.

"Si alguna cosa ens ensenya la història és que l’estupidesa humana no s’ha de subestimar mai"

La setmana passada vam saber de l’existència de Lavender, un sistema basat en IA de l’exèrcit israelià per identificar sospitosos de terrorisme a la franja de Gaza. Ho ha revelat una excel·lent investigació de la revista israeliana +972 basada en el testimoni de sis oficials d’intel·ligència. Lavender va tenir una importància cabdal en els estadis inicials de la guerra; la seva selecció d’objectius fou tractada com si fos “una decisió humana”. Segons una de les fonts, l'única comprovació que feia un operador humà era assegurar-se que l’objectiu seleccionat fos un home (Hamas i Jihad Islàmica no tenen comandaments dones). Per fer-ho només disposa d'un màxim de 20 segons abans d'autoritzar el llançament del míssil. Lavender té una taxa d’encert nominal del 90% (caldria debatre molt sobre això), vol dir que un de cada deu cops identifica innocents com a objectius. Els objectius són eliminats amb una tolerància de fins a 20 víctimes col·laterals en el cas d’objectius júnior i de fins a 100 en el cas d’un alt comandament. Selecció d’objectius amb IA i eliminació desatesa? Skynet i Terminator?

I per reblar el clau i relacionat amb la guerra de Gaza, tot just avui fa una setmana la notícia que Iran estava bombardejant Tel-Aviv amb míssils pesants arribava al número 1 de les notícies a la xarxa X. Tenia certa lògica; era la resposta a l’atac israelià a l’ambaixada de l'Iran a Síria on van morir dos generals i dos oficials iranians. Segur que no ho sabíeu. Els conspiranoics us diran que és perquè els mitjans tradicionals us amaguen la veritat i que sort en tenim de les xarxes socials. Bé, l’explicació és més senzilla: no en sabíeu res perquè no ha passat. I precisament per això i perquè ha passat a la xarxa X -el mitjà és el missatge- és molt preocupant.

Resulta que amb la seva cursa personal amb Altman d’OpenAI (no es poden veure), Musk va crear un gran model de llenguatge anomenat Grok que ha integrat a X i està disponible pels usuaris de pagament. Ja sabeu que X va eliminar tots els perfils de persones o entitats rellevants que havien estat verificades i va fer accessible la verificació a tothom que pagués, amb el resultat que avui tenir un compte verificat és sinònim de ser un perfil dubtós. Agafeu un exèrcit de trolls, sumeu-hi les eines de generació automàtica de text amb el model Grok, sumeu-hi la detecció de tendències de notícies basada en IA, i sobretot, resteu-hi els editors humans que Musk va fer fora en comprar Twitter. L’analogia amb HAL, l’ordinador que va enganyar els astronautes de 2001 perquè va posar la seva missió per davant de tot és inevitable.

Dos exemples de com no hem de subestimar mai l’estupidesa humana, especialment quan està augmentada amb IA. Ara només falta Matrix.