Quién decide la ética de las máquinas?

En menos de 15 años, los coches autónomos representarán el 75% de la circulación total de vehículos

Prototipo de vehículo eléctrico desarrollado por Volkswagen Prototipo de vehículo eléctrico desarrollado por Volkswagen

El año 2030, la industria de coches autónomos pondrá fin a la venta de automóviles tradicionales, según previsiones de Mojo Motores. El 2040 representarán entre el 50% y el 75% de la circulación total de vehículos, y llegarán al 75% el 2060. Ante este escenario de automatización, empieza a ser imprescindible pensar al proveer de ética estas máquinas. Toman decisiones que pueden afectar de manera importante bienes básicos, nuestro bienestar, nuestra integridad o, en casos extremos, nuestra vida. "Pensamos en un vehículo autónomo que en una situación en que no puede evitar un accidente tiene que decidir entre proteger los ocupantes del vehículo o proteger los peatones; no solamente es aconsejable, sino también indispensable, que los algoritmos incluyan parámetros éticos", afirma David Martínez, profesor de Filosofía del Derecho de la UOC.

Las máquinas se equivocan mucho menos que los humanos, según un informe de la consultora McKinsey: el vehículo autónomo evitaría un 90% de los accidentes. En el 85% interviene la distracción como factor determinante. Aun así, en situaciones en que el daño pueda ser inevitable, el coche autónomo tendría que aprender de los patrones mayoritarios de la conducta humana al volante. "Tendrán la ética que los humanos conscientemente hayan incorporado en el diseño y desarrollo, basada en reglas, normalmente a imagen humana", explica la profesora de los Estudios de Informática, Multimedia y Telecomunicación de la UOC Maria Antònia Huertas.

Parece que, según afirman estudios de comportamiento, los humanos estamos preparados para este cambio. El 58% de los conductores se dejaría traer por un coche autónomo según datos del Foro Económico Mundial. Y en España, el 34% de los españoles que conducen se sentiría a gusto compartiendo carretera con coches autónomos, según un estudio de GoodYear.

El 58% de los conductores se dejaría traer por un coche autónomo, según el Foro Económico Mundial

Pero esta ética tiene que venir de instancias superiores como una autoridad moral, intelectual y religiosa? O tiene que ser la que mayoritariamente acepte una población?, se pregunta la profesora. "Es importante que intervenga el mayor número posible de implicados en este debate ético, puesto que la capacidad de razonamiento, de justicia y del que es correcto o no es asequible para todo el mundo", confirma Martínez. Google, en cambio, ha creado un comité de ética para los productos que funcionan con inteligencia artificial, en el cual cuenta con 25 personalidades independientes del mundo académico.

A la busca de una moral universal

"Tenemos que distinguir entre la moral social y la crítica", explica, "la primera es vinculada a grupos sociales, que pueden tener concepciones muy diversas sobre el que es moralmente correcto o incorrecto, por ejemplo, en tema de esclavitud, maltrato animal, etc.; la segunda proviene de una reflexión teórica, en busca de un conjunto de criterios, valores y principios morales universales, comunes para toda la especie humana con independencia del contexto social e histórico".

"A pesar de que la pretensión de encontrar una 'moral objetivamente correcta, universal e inmutable' es sólo un ideal, el que sí que podemos observar es que los valores y los principios éticos más fundamentales son muy parecidos en toda la especie humana, de forma que no es descabellado pensar en una ética universalmente compartida en su núcleo más básico", considera Martínez.

Bourdin, profesor de Informática de la UOC, afirma que es importante que el ser humano siempre tenga la última palabra. "La máquina inteligente es capaz de aprender conductas por sí misma, copia, analiza acciones del comportamiento humano y las puede llegar a reproducir". Este es el caso de buscadores como Google o Flickr programados con inteligencia artificial que etiquetan a personas de raza negra, gorilas y chimpancés siguiendo ejemplos racistas. "Este es un escenario posible, estas inteligencias artificiales pueden inferir o desarrollar reglas éticas propias", afirma Huertas, "estas inteligencias artificiales pueden inferir o desarrollar reglas éticas propias".

Més informació
Con el vehículo eléctrico no hay bastante
"Los humanos están sacando muchos lugares de trabajo a los robots"
Hoy Destacamos
Lo más leido