Cuando las máquinas toman decisiones

La inteligencia artificial es una nueva gamma de sistemas de información con capacidad de aprender de la experiencia. El filósofo húngaro Michael Polanyi va de manifiesto poner que existía un tipo de conocimiento que solo se puede extraer de la experiencia. Imaginemos, por ejemplo, que queremos explicar a una persona ciega (que nunca ha visto un color) qué es el color azul. Intentemos escribir en un papel qué le diríamos. Es imposible. No hay palabras (conocimiento codificado) para explicar algunas cosas que no se han experimentado, como saber qué es un color. Esta es la famosa paradoja de Polanyi: los humanos sabemos hacer cosas que no podemos explicar. Las hacemos porque nos hemos entrenado experimentándolas. Este principio aplica a tareas como el reconocimiento de imágenes, la conducción de vehículos, el reconocimiento de voz, o la intuición estratégica en un entorno a juegos (ajedrez, go, póker) o de dilemas empresariales.

Las nuevas tecnologías, como el deep learning (aprendizaje profundo) permiten entrenar sistemas digitales en tareas determinadas, imitando, hasta cierto punto, el funcionamiento del cerebro (mediante las llamadas redes neuronales). De acuerdo con series de datos, una red neuronal, sin conocer los principios físicos de un fenómeno puede autoajustarse para reconocer los patrones inherentes a estos datos y poder predecir eventos futuros. Uno de los éxitos científicos más grandes de los últimos tiempos conseguidos con esta tecnología es la predicción del doblado de las proteínas. Durante más de medio siglo, investigadores de todo el mundo han trabajado para establecer analíticamente una relación entre el código genético de una determinada proteína y la geometría que esta finalmente tendrá. Su forma física (la manera cómo se pliega) es determinante para conocer sus propiedades farmacológicas. Recientemente, un algoritmo (AlphaFold), desarrollado por DeepMind (startup propiedad de Google) predijo con el 96% de acierto la forma final de una secuencia de proteínas en base a su código genético. El algoritmo desconoce los principios químicos y físicos que llevan a que las proteínas se doblen de una determinada. Hace diagnosis acertadas porque se ha autoajustado con entrenamiento previo, pero no hay al detrás un código (en forma de árbol de decisiones lógicas) que explique lo porque de sus diagnosis. Este es uno de los principales problemas tecnológicos de la inteligencia artificial: su falta de explicabilidad (siguiendo la paradoja de Polanyi). Aun así, este adelanto en la predicción de la forma de las proteínas puede ser absolutamente decisivo para acelerar el desarrollo de nuevos fármacos: en vez de tener que probar in vitro, en laboratorio, diferentes configuraciones químicas para conseguir una geometría final, ahora se puede hacer de forma mucho más rápida y barata in silico (con simulación y predicción digital) con una elevadísima tasa de acierto.

Un algoritmo podría decidir endeudar la empresa, despedir al personal o ejecutar inversiones arriesgadas. Pero nunca tendrá responsabilidad social, económica, civil o penal por eso

Por suerte, en la guerra de Ucrania no estamos viendo un despliegue de armas guiadas por inteligencia artificial. Hace un tiempo se hizo viral el vídeo slaughterbots, donde se representaba un futuro distópico donde enjambres de pequeños microdrones asesinos se soltaban sobre ciudades. Los drones, de la medida de un puño, buscaban personas, las identificaban con reconocimiento facial, y, selectivamente, las mataban situándose sobre su cabo y activando una carga explosiva. El sistema permitía seleccionar a quién mataban: personas con una ideología política determinada, por ejemplo (el dron, una vez reconocida la cara, podía entrar en las redes sociales del individuo e inducir sus tendencias políticas). O se podía determinar asesinar por género, religión o edad. Los drones podían actuar cooperativamente, agrupándose para acumular explosivos y así hacer volar las paredes de un búnker donde podían esconderse ciudadanos. El vídeo fue producido por un profesor de Berkeley, muy sensibilizado por el potencial uso de la inteligencia artificial a la guerra, e incluso fue proyectado en la Convención de Ginebra de las Naciones Unidas. La inteligencia artificial no ha estado presente a gran escala a la guerra de Ucrania, más allá de tenebrosos sistemas de reconocimiento facial de cadáveres de soldados rusos para informar a sus familias de su muerte, y causar desmoralización; o quizás por reconocimiento de objetivos desde sistemas de vigilancia aérea.

Que las máquinas tomen decisiones en base al conocimiento propio que han generado (a menudo, sin intervención humana), generará inéditos conflictos éticos. Ya es conocido el dilema del vehículo autoconduït: en caso de accidente, y de tener que elegir hacia donde gira el volante, ¿qué decidirá? ¿Girar en un sentido y matar, por ejemplo, un niño? ¿O girar en el otro sentido y matar su tripulante? Un procesador de alta velocidad puede calcular las consecuencias de cada alternativa en milésimas de segundo. Y la decisión no es fácil: hay culturas que priorizarían siempre la vida de un bebé, pero otras salvarían en primera instancia a un anciano. ¿Y si el dilema es entre un pobre y un rico? ¿Entre una persona humilde o una muy poderosa? ¿Y si los departamentos de marketing y los seguros garantizan siempre la vida de quien pague más? ¿Cómo y quién entrena los algoritmos y con qué criterio?

Pensamos, por otro lado, que la sustitución de puestos de trabajo por algoritmos o robots solo afectará a las ocupaciones mecánicas de menos valor. No es cierto. Posiblemente sea más sencillo reemplazar una posición de responsabilidad cognitiva (un director de hotel, por ejemplo) que la persona que limpia las habitaciones (pues el algoritmo que toma decisiones trabaja a coste marginal cero: una vez en funcionamiento, puede trabajar 24 horas en el día, 7 días a la semana, sin coste; mientras que limpiar la habitación no es a coste marginal cero). ¿Serán las posiciones de management sustituidas por algoritmos? Podríamos tener un CEO digital, analizando constantemente variables internas y externas de la empresa, tomando decisiones y lanzando directrices a la estructura. ¿Seríamos felices con un robot como cabo? Estudios del MIT dicen que quizás sí.

No obstante, me quedo con las reflexiones de Erik Brynjolfsson y Andrew McAffee, del Laboratorio de Economía Digital del MIT: "la inteligencia artificial no reemplazará a los directivos. Pero aquellos directivos que no sepan utilizarla serán reemplazados por aquellos que sí que sepan utilizarla". Y es que hay un principio de responsabilidad: un algoritmo podría decidir endeudar la empresa, despedir al personal o ejecutar inversiones arriesgadas. Pero nunca tendrá responsabilidad social, económica, civil o penal por eso. La responsabilidad siempre será humana. Por eso, las personas siempre estaremos al detrás de las máquinas.

Més informació
Proyectos estratégicos
Para ser como los líderes
Catalunya: investigación o innovación
Hoy Destacamos
Lo más leido