Qui decideix l’ètica de les màquines?

En menys de 15 anys, els cotxes autònoms representaran el 75% de la circulació total de vehicles

Prototip de vehicle elèctric desenvolupat per Volkswagen Prototip de vehicle elèctric desenvolupat per Volkswagen

L’any 2030, la indústria de cotxes autònoms posarà fi a la venda d’automòbils tradicionals, segons previsions de Mojo Motors. El 2040 representaran entre el 50% i el 75% de la circulació total de vehicles, i arribaran al 75% el 2060. Davant aquest escenari d’automatització, comença a ser imprescindible pensar en proveir d’ètica aquestes màquines. Prenen decisions que poden afectar de manera important béns bàsics, el nostre benestar, la nostra integritat o, en casos extrems, la nostra vida. "Pensem en un vehicle autònom que en una situació en què no pot evitar un accident ha de decidir entre protegir els ocupants del vehicle o protegir els vianants; no solament és aconsellable, sinó també indispensable, que els algoritmes incloguin paràmetres ètics", afirma David Martínez, professor de Filosofia del Dret de la UOC.  

Les màquines s’equivoquen molt menys que els humans, segons un informe de la consultora McKinsey: el vehicle autònom evitaria un 90% dels accidents. En el 85% hi intervé la distracció com a factor determinant. Així i tot, en situacions en què el dany pugui ser inevitable, el cotxe autònom hauria d’aprendre dels patrons majoritaris de la conducta humana al volant. "Tindran l’ètica que els humans conscientment hagin incorporat en el disseny i desenvolupament, basada en regles, normalment a imatge humana", explica la professora dels Estudis d’Informàtica, Multimèdia i Telecomunicació de la UOC Maria Antònia Huertas.

Sembla que, segons afirmen estudis de comportament, els humans estem preparats per a aquest canvi. El 58% dels conductors es deixaria portar per un cotxe autònom segons dades del Fòrum Econòmic Mundial. I a Espanya, el 34% dels espanyols que condueixen se sentiria a gust compartint carretera amb cotxes autònoms, segons un estudi de GoodYear.

El 58% dels conductors es deixaria portar per un cotxe autònom, segons el Fòrum Econòmic Mundial

Però aquesta ètica ha de venir d’instàncies superiors com una autoritat moral, intel·lectual i religiosa? O ha de ser la que majoritàriament accepti una població?, es pregunta la professora. "És important que intervingui el major nombre possible d’implicats en aquest debat ètic, ja que la capacitat de raonament, de justícia i del que és correcte o no és assequible per a tothom", confirma Martínez. Google, en canvi, ha creat un comitè d’ètica per als productes que funcionen amb intel·ligència artificial, en el qual compta amb 25 personalitats independents del món acadèmic.

A la cerca d'una moral universal

"Hem de distingir entre la moral social i la crítica", explica, "la primera és vinculada a grups socials, que poden tenir concepcions molt diverses sobre el que és moralment correcte o incorrecte, per exemple, en tema d’esclavitud, maltractament animal, etc.; la segona prové d’una reflexió teòrica, a la recerca d’un conjunt de criteris, valors i principis morals universals, comuns per a tota l’espècie humana amb independència del context social i històric".  

"Tot i que la pretensió de trobar una 'moral objectivament correcta, universal i immutable' és només un ideal, el que sí que podem observar és que els valors i els principis ètics més fonamentals són molt semblants en tota l’espècie humana, de manera que no és desgavellat pensar en una ètica universalment compartida en el seu nucli més bàsic", considera Martínez.

Bourdin, professor d’Informàtica de la UOC, afirma que és important que l’ésser humà sempre tingui l’última paraula. "La màquina intel·ligent és capaç d’aprendre conductes per si mateixa, copia, analitza accions del comportament humà i les pot arribar a reproduir". Aquest és el cas de cercadors com Google o Flickr programats amb intel·ligència artificial que etiqueten a persones de raça negra, goril·les i ximpanzés seguint exemples racistes. "Aquest és un escenari possible, aquestes intel·ligències artificials poden inferir o desenvolupar regles ètiques pròpies", afirma Huertas, "aquestes intel·ligències artificials poden inferir o desenvolupar regles ètiques pròpies".

Més informació
Amb el vehicle elèctric no n’hi ha prou
“Els humans estan traient molts llocs de feina als robots”
Tesla obrirà a Barcelona la seva primera botiga a Espanya
Avui et destaquem
El més llegit