La ética digital: ¿la tecnología es racista?

La regulación y la educación en la nueva era de Internet son dos retos pendientes, pero para que los algoritmos sean éticos lo más esencial es que sean transparentes

La tecnología presenta nuevos desafíos en cuanto a ètica digital | iStock
La tecnología presenta nuevos desafíos en cuanto a ètica digital | iStock

Hace unos años, un usuario descubrió que Google no reconocía de igual manera las fotografías de personas de color. Cómo tampoco lo hacen otros muchos softwares que no siempre identifican a la gente de piel oscura como personas, cosa que podría provocar un problema de accidentes con los coches autónomos. También Amazon identificó que el software que empleaba para seleccionar candidatos a lugares de trabajo favorecía los currículums de hombres antes de que los de mujeres. ¿Son racistas los algoritmos?

La tecnología abre un nuevo mundo de oportunidades. Ahora bien, oportunidades que no tienen que discriminar por raza, etnia o sexo. Los algoritmos son capaces de aprender por ellos mismos a partir de datos previos, pero también tendrían que aprender de ética digital. En este sentido, ¿cuáles son los desafíos éticos que surgen a raíz de la tecnología?

HP llena el vacío de regulación en el ámbito tecnológico con una buena cultura empresarial

China ha desplegado millones de cámaras por todas las ciudades con algoritmos de inteligencia artificial que permiten identificar en tiempo real qué persona está paseando por la calle. Pero la tecnología se puede traer al extremo hasta el punto que si una persona se pasa un semáforo en rojo, se emite en una pantalla la foto, el nombre y el DNI de aquel individuo. "Ahora bien, cuando todavía no había llegado la digitalización, este control policial en China también existía, a pesar de que en lugar de publicar en una pantalla la foto del delincuente, se publicaba en los diarios", puntualiza la CEO y cofundadora de SocialCar, Mar Alarcón.

Más info: Alarcón: "Es mentira que el emprendedor sale de la zona de comfort"

Y es que China es un claro ejemplo de territorio donde los datos están en manos del Gobierno, quién puede tener un control absoluto de sus ciudadanos. En cambio, en Europa, y más todavía desde la aplicación de la RGPD, los datos son del individuo. El caso intermedio es los Estados Unidos, donde son las empresas quienes controlan los datos. Todos conocemos ya los escándalos de Facebook y Cambridge Analytics.

"El problema es que la legislación va muy por detrás de la tecnología", señala la directora de I+D de HP, Cristina Estavillo. "Google nació el 1998 y la RGPD europea es del año pasado", cosa que hace que lleve 20 años recogiendo nuestros datos. Al menos Europa cuenta con una ley, al contrario que China o los Estados Unidos.

En cuanto a la inteligencia artificial, la Comisión Europea se ha comprometido a presentar una recomendación en este ámbito. "Estamos lejos todavía de un entorno regulado. En HP este vacío entre la tecnología y la regulación lo llenamos con la cultura de la compañía", destaca Estavillo. ¿Y cuál es la regla de fuego para saber si estás haciendo algo bien? "Piensa como quedaría una determinada acción en un titular de un periódico o qué te diría tu abuela si lo escuchara", añade.

Estavillo: "La prueba de fuego para saber si estás actuando bien es pensar qué diría tu abuela si lo escuchara"

Para Alarcón, "entramos en un terreno donde la administración se interesa para regular, puesto que existe un vacío legal". La emprendedora pone de ejemplo como una vez la Generalitat propuso un borrador de buenas prácticas de las plataformas digitales donde afirmaba que empresas como SocialCar se comprometían a ser transparentes. "Una medida un poco absurda porque nosotros ya éramos así, no ser transparente va en contra de nuestro modelo de negocio", apunta Alarcón. En este sentido, considera esencial evitar que se reaccione de forma prohibitiva cuando la regulación va por detrás de la tecnología. "La tecnología implica cambios que generan miedo, y ante el miedo el regulador es muy conservador, lo ve como un ataque", añade.

Más info: Sanmartín: "Liberaremos la impresión de la caja cerrada"

Y es que precisamente uno de los valores añadidos de SocialCar es el entorno de confianza que ha generado. La plataforma pone en contacto a personas que tienen un vehículo con otros que necesitan un coche. Más concretamente: pone en contacto a desconocidos. Es por eso que la única forma para que su modelo de negocio funcionara era siendo muy transparente. Y aquí juegan un papel muy importante las valoraciones de los usuarios, puesto que "tenemos 20.000 coches en toda España y, obviamente, yo no los he visto todos", apunta la CEO de la empresa. "Es la forma como se autoregulen las plataformas".

Educar para decidir

Ha quedado claro que la regulación es el gran reto en el mundo de la tecnología, pero también está la educación. En un mundo digital, quien corren el riesgo de ser discriminados son los analfabetos digitales, es decir, las personas que no entienden qué está pasando. "La gente se está obsesionando con los datos, pero anuncian su divorcio al Facebook", bromea Estavillo. Una contradicción muy habitual que sucede a raíz del desconocimiento y la carencia de educación en el mundo digital de las personas.

Alarcón: "La tecnología implica cambios que generan miedo, y ante el miedo el regulador es muy conservador, lo ve como un ataque"

Igual pasa con la identidad y la imagen de cada individuo a la red. Cada persona tiene que saber donde poner los límites, y tiene que poder decidir, porque sólo entonces se está protegido. El problema es cuando no disponemos de suficientes herramientas para decidir adecuadamente. Y es un error pensar que los más jóvenes son los que más dominan de Internet: "La generación que ha nacido con el móvil no tiene ni idea del impacto que tiene la tecnología. Al menos la gente mayor lo desconoce pero lee y se informa", apunta la directora de Societat Digital de la Generalitat de Catalunya, Joana Barbany. Es por eso que apuesta por la formación en tecnologías digitales para evitar una desigualdad y una brecha en la sociedad en cuanto al desconocimiento.

La oscuridad de la tecnología

¿Existe entonces el algoritmo ético? La clave a la pregunta depende, otra vez, de la transparencia. "Un algoritmo cerrado y oscuro, nunca será ético", afirma Estavillo. La directora de HP pone como ejemplo que si en un futuro habrá algoritmos que decidan si nos darán un crédito o no, si iremos a juicio o no, tienen que ser transparentes. Y esto quiere decir que tiene que ser abierto a la ciudadanía porque pueda verlo y opinar.

Pero la gran duda es: ¿de quién es la culpa si en una operación quirúrgica en remoto el paciente muere, del médico o de la tecnología? Y el coche autónomo, ¿como decidirá si atropella una persona o se choca contra un árbol? La respuesta se encuentra en "la ética de la persona que lo programa, puesto que alguien tomará esta decisión", responde Alarcón. Estos son los problemas éticos pendientes y que hacen que el vehículo autónomo todavía no circule por nuestras calles.

Más Información
Tus hijos no son nativos digitales
Francesca Bria: "Los datos tendrían que ser una infraestructura pública, como el agua o el transporte"
Entre Trump y el algoritmo, me quedo con el algoritmo
Ganyet: "Todavía no sabemos digitalizar el sentido común"
Hoy Destacamos
Comentarios