Quan les màquines prenen decisions

La intel·ligència artificial és una nova gamma de sistemes d’informació amb capacitat d’aprendre de l’experiència. El filòsof hongarès Michael Polanyi va posar de manifest que existia un tipus de coneixement que només es pot extreure de l’experiència. Imaginem, per exemple, que volem explicar a una persona cega (que mai ha vist un color) què és el color blau. Intentem escriure en un paper què li diríem. És impossible. No hi ha paraules (coneixement codificat) per explicar algunes coses que no s’han experimentat, com saber què és un color. Aquesta és la famosa paradoxa de Polanyi: els humans sabem fer coses que no podem explicar. Les fem perquè ens hem entrenat experimentant-les. Aquest principi aplica a tasques com el reconeixement d’imatges, la conducció de vehicles, el reconeixement de veu, o la intuïció estratègica en un entorn de jocs (escacs, go, póker) o de dilemes empresarials.

Les noves tecnologies, com el deep learning (aprenentatge profund) permeten entrenar sistemes digitals en tasques determinades, imitant, fins a cert punt, el funcionament del cervell (mitjançant les anomenades xarxes neuronals). D'acord amb sèries de dades, una xarxa neuronal, sense conèixer els principis físics d’un fenomen pot  autoajustar-se per reconèixer els patrons inherents a aquestes dades i poder predir esdeveniments futurs. Un dels èxits científics més grans dels darrers temps aconseguits amb aquesta tecnologia és la predicció del doblament de les proteïnes. Durant més de mig segle, investigadors de tot el món han treballat per establir analíticament una relació entre el codi genètic d’una determinada proteïna i la geometria que aquesta finalment tindrà. La seva forma física (la manera com es plega) és determinant per conèixer les seves propietats farmacològiques. Recentment, un algoritme (AlphaFold), desenvolupat per DeepMind (startup propietat de Google) va predir amb el 96% d’encert la forma final de una seqüència de proteïnes en base al seu codi genètic. L’algoritme desconeix els principis químics i físics que porten a que les proteïnes es doblin d’una determinada. Fa diagnosis encertades perquè s’ha autoajustat amb entrenament previ, però no hi ha al darrera un codi (en forma d’arbre de decisions lògiques) que expliqui el perquè de les seves diagnosis. Aquest és un dels principals problemes tecnològics de la intel·ligència artificial: la seva manca d’explicabilitat (seguint la paradoxa de Polanyi). Tanmateix, aquest avenç en la predicció de la forma de les proteïnes pot ser absolutament decisiu per accelerar el desenvolupament de nous fàrmacs: enlloc d’haver de provar in vitro, en laboratori, diferents configuracions químiques per aconseguir una geometria final, ara es pot fer de forma molt més ràpida i barata in silico (amb simulació i predicció digital) amb una elevadíssima taxa d’encert.

Un algoritme podria decidir endeutar l’empresa, acomiadar al personal o executar inversions arriscades. Però mai tindrà responsabilitat social, econòmica, civil o penal per això

Sortosament, a la guerra d’Ucraïna no estem veient un desplegament d’armes guiades per intel·ligència artificial. Fa un temps es va fer viral el vídeo slaughterbots, on es representava un futur distòpic on eixams de petits microdrons assassins es deixaven anar sobre ciutats. Els drons, de la mida d’un puny, buscaven persones, les identificaven amb reconeixement facial, i, selectivament, les mataven situant-se sobre el seu cap i activant una càrrega explosiva. El sistema permetia seleccionar a qui mataven: persones amb una ideologia política determinada, per exemple (el dron, un cop reconeguda la cara, podia entrar a les xarxes socials de l’individu i induir les seves tendències polítiques). O es podia determinar assassinar per gènere, religió o edat. Els drons podien actuar cooperativament, agrupant-se per acumular explosius i així fer volar les parets d’un búnker on podien amagar-se ciutadans. El vídeo va ser produït per un professor de Berkeley, molt sensibilitzat pel potencial ús de la intel·ligència artificial a la guerra, i fins i tot va ser projectat a la Convenció de Ginebra de les Nacions Unides. La intel·ligència artificial no ha estat present a gran escala a la guerra d’Ucraïna, més enllà de tenebrosos sistemes de reconeixement facial de cadàvers de soldats russos per informar les seves famílies de la seva mort, i causar desmoralització; o potser per reconeixement d’objectius des de sistemes de vigilància aèria.

Que les màquines prenguin decisions en base al coneixement propi que han generat (sovint, sense intervenció humana), generarà inèdits conflictes ètics. Ja és conegut el dilema del vehicle autoconduït: en cas d’accident, i d’haver de triar cap a on gira el volant, què decidirà? Girar en un sentit i matar, per exemple, un nen? O girar en l’altre sentit i matar el seu tripulant? Un processador d’alta velocitat pot calcular les conseqüències de cada alternativa en mil·lèsimes de segon. I la decisió no és fàcil: hi ha cultures que prioritzarien sempre la vida d’un nadó, però d’altres salvarien en primera instància a un ancià. I si el dilema és entre un pobre i un ric? Entre una persona humil o una molt poderosa? I si els departaments de màrqueting i les assegurances garanteixen sempre la vida de qui pagui més? Com i qui entrena els algoritmes i amb quin criteri?

Pensem, d’altra banda, que la substitució de llocs de treball per algoritmes o robots només afectarà a les ocupacions mecàniques de menys valor. No és cert. Possiblement sigui més senzill reemplaçar una posició de responsabilitat cognitiva (un director d’hotel, per exemple) que la persona que neteja les habitacions (doncs l’algoritme que pren decisions treballa a cost marginal zero: un cop en funcionament, pot treballar 24 hores al dia, 7 dies a la setmana, sense cost; mentre que netejar l’habitació no és a cost marginal zero). Seran les posicions de management substituïdes per algoritmes? Podríem tenir un CEO digital, analitzant constantment variables internes i externes de l’empresa, prenent decisions i llançant directrius a l’estructura. Seríem feliços amb un robot com a cap? Estudis del MIT diuen que potser si.

No obstant, em quedo amb les reflexions d’Erik Brynjolfsson i Andrew McAffee, del Laboratori d’Economia Digital del MIT: “la intel·ligència artificial no reemplaçarà els directius. Però aquells directius que no sàpiguen utilitzar-la seran reemplaçats per aquells que sí que sàpiguen utilitzar-la”. I és que hi ha un principi de responsabilitat: un algoritme podria decidir endeutar l’empresa, acomiadar al personal o executar inversions arriscades. Però mai tindrà responsabilitat social, econòmica, civil o penal per això. La responsabilitat sempre serà humana. Per això, les persones sempre estarem al darrera de les màquines.

Més informació
Projectes estratègics
Per ser com els líders
Catalunya: recerca o innovació
Avui et destaquem
El més llegit