L'ètica digital: la tecnologia és racista?

La regulació i l'educació en la nova era d'Internet són dos reptes pendents, però perquè els algoritmes siguin ètics el més essencial és que siguin transparents

La tecnologia presenta nous desafiaments pel que fa a ètica digital | iStock
La tecnologia presenta nous desafiaments pel que fa a ètica digital | iStock

Fa uns anys, un usuari va descobrir que Google no reconeixia d’igual manera les fotografies de persones de color. Com tampoc ho fan molts altres softwares que no sempre identifiquen a la gent de pell fosca com a persones, cosa que podria provocar un problema d’accidents amb els cotxes autònoms. També Amazon va identificar que el programari que emprava per seleccionar candidats a llocs de feina afavoria els currículums d’homes abans que els de dones. Són racistes els algorismes?

La tecnologia obre un nou món d’oportunitats. Ara bé, oportunitats que no han de discriminar per raça, ètnia o sexe. Els algorismes són capaços d’aprendre per ells mateixos a partir de dades prèvies, però també haurien d’aprendre d’ètica digital. En aquest sentit, quins són els desafiaments ètics que sorgeixen arran de la tecnologia?

HP omple el buit de regulació en l'àmbit tecnològic amb una bona cultura empresarial

La Xina ha desplegat milions de càmeres per totes les ciutats amb algorismes d’intel·ligència artificial que permeten identificar en temps real quina persona està passejant pel carrer. Però la tecnologia es pot portar a l’extrem fins al punt que si una persona es passa un semàfor en vermell, s’emet en una pantalla la foto, el nom i el DNI d’aquell individu. “Ara bé, quan encara no havia arribat la digitalització, aquest control policial a la Xina també existia, tot i que en lloc de publicar en una pantalla la foto del delinqüent, es publicava en els diaris”, puntualitza la CEO i cofundadora de SocialCar, Mar Alarcón.

Més info: Alarcón: "És mentida que l'emprenedor surt de la zona de comfort"

I és que la Xina és un clar exemple de territori on les dades estan en mans del Govern, qui pot tenir un control absolut dels seus ciutadans. En canvi, a Europa, i més encara des de l’aplicació de la RGPD, les dades són de l’individu. El cas intermig és els Estats Units, on són les empreses qui controlen les dades. Tots coneixem ja els escàndols de Facebook i Cambridge Analytics.

“El problema és que la legislació va molt per darrere de la tecnologia”, assenyala la directora d'R+D d’HP, Cristina Estavillo. “Google va néixer el 1998 i la RGPD europea és de l’any passat”, cosa que fa que porti 20 anys recollint les nostres dades. Almenys, però, Europa compta amb una llei, al contrari que la Xina o els Estats Units.

Pel que fa a la intel·ligència artificial, la Comissió Europea s’ha compromès a presentar una recomanació en aquest àmbit. “Estem lluny encara d’un entorn regulat. A HP aquest buit entre la tecnologia i la regulació l’omplim amb la cultura de la companyia”, destaca Estavillo. I quina és la regla de foc per saber si estàs fent alguna cosa bé? “Pensa com quedaria una determinada acció en un titular d’un diari o què et diria la teva àvia si ho escoltés”, afegeix.

Estavillo: "La prova de foc per saber si estàs actuant bé és pensar què diria la teva àvia si ho escoltés"

Per a Alarcón, “entrem en un terreny on l’administració s’interessa per regular, ja que existeix un buit legal”. L’emprenedora posa d’exemple com una vegada la Generalitat va proposar un esborrany de bones pràctiques de les plataformes digitals on afirmava que empreses com SocialCar es comprometien a ser transparents. “Una mesura una mica absurda perquè nosaltres ja érem així, no ser transparent va en contra del nostre model de negoci”, apunta Alarcón. En aquest sentit, considera essencial evitar que es reaccioni de forma prohibitiva quan la regulació va per darrere de la tecnologia. "La tecnologia implica canvis que generen por, i davant la por el regulador és molt conservador, ho veu com un atac", afegeix.

Més info: Sanmartín: "Alliberarem la impressió de la caixa tancada"

I és que precisament un dels valors afegits de SocialCar és l’entorn de confiança que ha generat. La plataforma posa en contacte a persones que tenen un vehicle amb altres que necessiten un cotxe. Més concretament: posa en contacte a desconeguts. És per això que l’única forma perquè el seu model de negoci funcionés era sent molt transparent. I aquí juguen un paper molt important les valoracions dels usuaris, ja que “tenim 20.000 cotxes a tota Espanya i, òbviament, jo no els he vist tots”, apunta la CEO de l’empresa. “És la forma com s’autoregulen les plataformes”.

Educar per decidir

Ha quedat clar que la regulació és el gran repte en el món de la tecnologia, però també hi ha l’educació. En un món digital, qui corren el risc de ser discriminats són els analfabets digitals, és a dir, les persones que no entenen què està passant. “La gent s’està obsessionant amb les dades, però anuncien el seu divorci al Facebook”, bromeja Estavillo. Una contradicció molt habitual que succeeix arran del desconeixement i la manca d’educació en el món digital de les persones.

Alarcón: "La tecnologia implica canvis que generen por, i davant la por el regulador és molt conservador, ho veu com un atac"

Igual passa amb la identitat i la imatge de cada individu a la xarxa. Cada persona ha de saber on posar els límits, i ha de poder decidir, perquè només llavors s’està protegit. El problema és quan no disposem de prou eines per decidir adequadament. I és un error pensar que els més joves són els que més dominen d'Internet: "La generació que ha nascut amb el mòbil no té ni idea de l'impacte que té la tecnologia. Almenys la gent gran ho desconeix però llegeix i s'informa", apunta la directora de Societat Digital de la Generalitat de Catalunya, Joana Barbany. És per això que aposta per la formació en tecnologies digitals per evitar una desigualtat i una bretxa en la societat pel que fa al desconeixement.

L’obscuritat de la tecnologia

Existeix llavors l’algorisme ètic? La clau a la pregunta depèn, un altre cop, de la transparència. “Un algorisme tancat i obscur, mai serà ètic”, afirma Estavillo. La directora d’HP posa com exemple que si en un futur hi haurà algorismes que decideixin si ens donaran un crèdit o no, si anirem a judici o no, han de ser transparents. I això vol dir que ha de ser obert a la ciutadania perquè pugui veure-ho i opinar.

Però el gran dubte és: de qui és la culpa si en una operació quirúrgica en remot el pacient mor, del metge o de la tecnologia? I el cotxe autònom, com decidirà si atropella una persona o es xoca contra un arbre? La resposta es troba en “l’ètica de la persona que ho programa, ja que algú prendrà aquesta decisió”, respon Alarcón. Aquests són els problemes ètics pendents i que fan que el vehicle autònom encara no circuli pels nostres carrers.

Més Informació
Els teus fills no són nadius digitals
Francesca Bria: "Les dades haurien de ser una infraestructura pública, com l'aigua o el transport"
Entre Trump i l'algorisme, em quedo amb l'algorisme
Ganyet: "Encara no sabem digitalitzar el sentit comú"
Avui et destaquem
Comentaris