Hablar de IA es fácil. Hablar de manera adecuada, no tanto. Hablar de lo que pensamos que es la IA no cuesta nada. Poca gente entiende qué es y sobre todo qué no es, la IA.
Titulares apocalípticos como el reciente “La IA podría eliminar la mitad de todos los puestos de trabajo de oficina de nivel inicial y llevar el desempleo al 10-20% en cinco años”. Una cita de Dario Amodei, CEO de Anthropic, que vemos reproducida en medios, redes sociales y canales de YouTube de bros de IA de manera totalmente acrítica.
También leemos demasiado a menudo titulares que comparan las capacidades de la IA con la inteligencia humana. La sola comparación descalifica cualquier argumento que pueda contener la información: es como comparar el vuelo de un 747 con el de una gaviota; ambos vuelan, pero los mecanismos no tienen nada que ver.
La otra es la plaga de los bros de IA. Suelen ser crypto bros reciclados en expertos en IA que cuando rascas un poco significa que son expertos en escribir apuntes (prompts) a ChatGPT. Son los que pagan anuncios en las redes sociales. La visión de túnel les hace equiparar ChatGPT a IA generativa, IA generativa a IA basada en aprendizaje profundo y esta a toda la IA: la IA es ChatGPT y ChatGPT es toda la IA. Diría unas cuantas palabrotas.
La IA es mucho más que todo eso. Es un campo interdisciplinario que se remonta a la década de 1940, aún sin un nombre concreto, a la pregunta fundacional de Alan Turing de si “¿pueden pensar las máquinas?”, a la creación del término inteligencia artificial en 1956, por cierto, un término deliberadamente llamativo para atraer fondos de la Fundación Rockefeller. Y si quieren podemos tirar aún más atrás con Ada Lovelace, Charles Babbage, Wilhelm Leibniz, Ramon Llull, Al Kwaritzmi y así hasta llegar a Aristóteles. Nombres que a los bros de IA les deben parecer personajes de videojuego.
"La IA es un campo interdisciplinario que se remonta a la década de 1940"
1. Es el algoritmo, idiota
Precisamente Al Kwaritzmi es el protagonista del primer error y uno de los más pueriles: la confusión entre algoritmo (o algorismo) y logaritmo. Un algoritmo es una secuencia de pasos ordenados que resuelve un problema en un tiempo finito. De algoritmos usamos no solo cuando programamos, sino que los usamos constantemente en la resolución de cualquier problema cotidiano. Por ejemplo, cuando nos hacemos una tortilla de patatas, aplicamos un algoritmo.
El término algoritmo deriva de la latinización del nombre del matemático, geógrafo y astrónomo persa Muhàmmad ibn Mussa al-Khwarazmí (محمد بن موسی الخوارزمی), que en el siglo IX encontró la manera de repartir herencias de manera equitativa de acuerdo con las leyes de los hombres y las de Alá, que se ve que no era fácil. Lo escribió en el libro Hissab al-jabr wa-l-muqàbala (Compendio de cálculo por reintegración y comparación), de donde deriva nuestra palabra álgebra (al-jabr).
Un logaritmo, en cambio, es la operación matemática inversa a la potencia.
2. ¿Los algoritmos también pueden ser buenos?
Últimamente he leído artículos y he visto libros que defienden los algoritmos. El razonamiento es el siguiente: 1) los algoritmos de IA nos manipulan porque seleccionan qué vemos en las redes, qué compramos en las tiendas en línea y qué vemos en las plataformas de streaming; 2) pero hay toda una serie de algoritmos que nos ayudan a combatir el cambio climático, descubrir nuevas vacunas y a hacer del mundo el país de los Teletubbies.
Los algoritmos, como hemos visto antes, no son más que “recetas para hacer tortilla de patatas”. Si quien lo usa tiene un conocimiento mínimo de cocina hará una buena tortilla; con el aceite justo, que además será de la cooperativa más cercana, con patatas y cebolla del huerto y huevos ecológicos. Si quien la hace es un desastre o tiene malas intenciones, prenderá fuego a la cocina.
"Los algoritmos, como hemos visto antes, no son más que “recetas para hacer tortilla de patatas”"
Repito: solo son secuencias ordenadas de pasos para resolver un problema concreto en un tiempo finito; hacer una tortilla de patatas, encontrar una raíz cuadrada, decidir quién es el próximo objetivo del ICE para ser deportado o decidir cuál será el siguiente bloque de Tetris que nos bajará (nunca el vertical cuando toca).
3. Antropomorfizar, difícil de pronunciar, demasiado fácil de aplicar
Es el error más común de todos y el de implicaciones más profundas: tratar la IA como si fuera una persona, con intenciones, objetivos o sentimientos. Lo hacemos de manera inconsciente porque tenemos la tendencia natural a humanizar objetos. La pareidolia es un fenómeno psicológico que hace que un estímulo vago y aleatorio —una casa con una puerta y dos ventanas arriba— sea percibido como una forma reconocible y significativa —una cara, por ejemplo.
Así nos pasa cuando interactuamos con un chatbot y el texto que nos genera es tan verosímil que nos parece escrito por un humano, ergo, es inteligente. Esto provoca titulares como “La IA decidió hacer esto” o “El algoritmo aprendió solo” o “ChatGPT engañó a su interlocutor”.
El New York Times titulaba en un artículo de 2019 como “Las máquinas aprenden, y también lo hacen los alumnos”, dando a entender que las máquinas tienen iniciativa y que aprenden como lo hacen los alumnos.
Los sistemas de IA son artilugios creados por humanos, es más, son el resultado de la suma de muchas inteligencias humanas. El antropomorfismo distorsiona la realidad y hace creer al lector que un sistema de IA es consciente o tiene voluntad propia. Terreno abonado para los charlatanes del ramo. En realidad, estos sistemas solo ejecutan algoritmos entrenados con datos generados por todos nosotros y requieren la supervisión y la atención constante… de humanos.
4. Un 747 vuela. Una gaviota también
Si persistimos en el error anterior llegamos inevitablemente a la comparación gratuita de las capacidades de la IA con las humanas.
Titulares tipo “La IA hace x tan bien como un humano” o “la IA ya supera a los expertos humanos en el ámbito y”. Impactante pero falso. Las plataformas de IA actuales son herramientas especializadas que funcionan en condiciones muy acotadas y para casos de uso muy concretos —IA específica, así la llamamos—, no tenemos ningún sistema de IA capaz de generalizar como lo hace la inteligencia humana —IA general, así la llamamos. Comparar la IA directamente con cerebros humanos (por ejemplo, equiparando redes neuronales con el funcionamiento del cerebro) lleva a creer que la IA es consciente o que piensa como nosotros.
Esto nos lleva a caminos míticos como los de “la IA superinteligente” o “la IA consciente” y a conclusiones erróneas sobre sus límites.
Cuando vean un titular como el de CNN donde decía que “AI may be as effective as medical specialists at diagnosing disease”, arruñen la nariz.
5. ¿Las IAs? ¿Las biologías?
Este error quizás es el más complicado de vislumbrar y de evitar. La dictadura del titular o de la columna de opinión hace que a menudo utilicemos el término IA como si fuera contable; como si hubiera muchas IAs. La IA no es un robot o dispositivo físico único, sino un campo interdisciplinario donde convergen las ciencias puras, las naturales, las sociales, las humanidades, la filosofía, la ingeniería y, en cierta manera, todos los ámbitos del conocimiento humano, que estamos hablando de inteligencia.
Así, hablar de “las IAs” o “de una IA” es esencialmente erróneo, de la misma manera que cuando hablamos de biología no decimos “las biologías” o “una biología”. Es “la IA” de la misma manera que es “la biología”. Cada aplicación basada en IA es diferente (reconocimiento de imágenes, traducción, sistemas predictivos, generativos, etc.) y funciona con tecnologías, algoritmos y métodos diferentes. Por lo tanto, generalizar —“Una IA hace esto o aquello”— es erróneo. Si queremos ser serios debemos hablar de “sistemas de IA”, “técnicas de IA” o “herramientas de IA”, en singular conceptual.
"Generalizar es erróneo: debemos hablar de “sistemas de IA”, “técnicas de IA” o “herramientas de IA”, en singular conceptual"
Tengo más
Debo confesar que hay unos cuantos más, de tanto o más graves e invisibles que estos cinco.
El sensacionalismo interesado del discurso de Silicon Valley; centrarse solo en los aspectos positivos (¿para quién?) de la tecnología; poner las largas y solo tener en cuenta los efectos a largo plazo obviando las externalidades negativas a corto; olvidar que porque la IA en el primer mundo parezca magia, en el tercer hay gente que cobra 1 dólar la hora por revisar sus fallos etcétera.
Estos y unos cuantos temas más los tocaremos en una segunda edición de lo que no debes hacer al hablar de IA que seguramente también hará corto.