
Transcripción de la conversación que tuve con el Profesor Xavier Sala i Martín el lunes 14 de abril de 2025 en las oficinas de Penguin Random House en Barcelona con motivo de la publicación de su último libro 'Entre el Paraíso y el Apocalipsis: la economía de la inteligencia artificial'.
¿Por qué cuesta tanto explicar qué es la inteligencia artificial? ¿O por qué cuesta tanto ponernos de acuerdo en una definición?
- Yo creo que el problema que hay es la interferencia de Hollywood que hace que la gente imagine una cosa que no es, que todo el mundo imagine el Jarvis de Iron Man y que cuando hablamos de inteligencia artificial, enseguida hacemos la proyección y entonces se nos presentan estos dos mundos: el paraíso y el apocalipsis.
- Si es el Jarvis, curará todas las enfermedades y resolverá la pobreza y el cambio climático.
- O se convertirá en el Terminator y perseguirá humanos. Y yo creo que una gran parte del debate viene del hecho de que no se entiende. Estoy hablando del debate popular, ¿eh?
Sí, sí, sí…
- Obviamente los expertos saben lo que es. Pero, incluso entre los expertos, yo creo que hay el debate este del peligro existencial, ¿no? Que hay grandes sabios que se apuntan a estas tesis.
- Yo creo que incluso esto está intoxicado por Hollywood, por la imagen de que tendremos una superinteligencia. Y por el libro del... ¿cómo se dice?, del sueco, del...
… del Bostrom…
- … del Nick Bostrom, que, en el momento en que llegues a la IAG (IA general), pues inmediatamente después ya viene la superinteligencia. Y, por lo tanto, ya debemos empezar a preocuparnos por él...
- Yo creo que una gran parte del problema es este. Yo, para mí, la definición de inteligencia, ya sé que no es la tuya… tu definición es la de…
… la de Stuart Russell (1)…
- Sí, exacto.
- Yo soy más de François Chollet, ¿sabes? La inteligencia es la capacidad o la facilidad con la que tú solucionas problemas que no has visto nunca.
Es muy buena esta definición. Los problemas ya vienen del hecho de que no tenemos una definición consensuada de qué es inteligencia. A partir de aquí, si añades artificial a la última, la cosa aún se complica más.
- Y el problema de la inteligencia artificial general es que la hemos definido como aquello que una máquina puede hacer igual o mejor que los humanos en un amplio espectro de cosas, ¿no?
- Yo creo que lo que estamos haciendo, no sé cómo dibujarlo, pero si los humanos, si tenemos una gráfica de lo que hacen los humanos [dibuja con los dedos una curva en forma de colina], y esta es la frontera de lo que podemos hacer, la inteligencia artificial no hará esto [dibuja una aproximación al perfil colina], sino que hará esto [dibuja una curva que sube y baja atravesando el perfil de colina].
- Es decir, habrá cosas, el ajedrez y el no sé qué, que lo hará mucho mejor, pero con otras seguirá estando por debajo. Entonces, claro, ¿en qué momento puedes decir que es superior? En algunas cosas ya lo es y en muchas otras cosas sigue muy por debajo de la frontera.
- O sea, no es que vaya creciendo así y así [dibuja una exponencial en el aire] y llegará un momento en que iremos hacia allá, sino que iremos atravesando la frontera por diferentes áreas; y cada vez hay más.
Sí, esto yo siempre lo visualizo en forma de T mayúscula, o sea, tenemos muchas inteligencias artificiales específicas que verticalmente nos superan: el ajedrez, escribir textos… escriben mucho mejor que la media, estos generadores… inteligencias que son muy buenas en un ámbito, pero muy malas en el resto.
Y, en cambio, nosotros somos razonablemente malos en muchos ámbitos, o razonablemente buenos.
Entonces, y yo creo que también viene de aquí esta confusión, es que se confunde esta inteligencia artificial estrecha o específica —y ahora me gustaría que nos lo explicaras— con la general.
- Sí, la inteligencia específica quiere decir que la máquina puede hacer una tarea, sea jugar al ajedrez, sea leer, sea lo que sea.
El ingeniero Josep M. Ganyet y el economista Xavier Sala i Martín | Marc Llibre
El Breakout (2) famoso.
- Exacto, jugar al Breakout… a niveles superhumanos.
- Y esto ya lo hace; desde los años 20, desde el ENIAC en los 40 que las máquinas ya van mucho más rápido que los humanos al hacer cálculos.
- Y por lo tanto, lo que pasa es que la inteligencia esta, tal como la diseñamos… nuestra inteligencia seguramente viene de la comprensión. Nosotros hacemos textos, pensamos, tenemos el concepto, sabemos lo que queremos decir, entendemos el problema…
…tenemos unos objetivos…
- …y entonces lo traducimos en texto. Ellos lo hacen, la máquina lo hace, a base de predecir palabras sin tener esta comprensión.
- Pero tener esta comprensión es lo que permite exportar el conocimiento a otros ámbitos. Garry Kasparov (3) no solo sabe jugar al ajedrez, sino que es capaz de utilizar la estrategia del ajedrez para estrategia política o empresarial.
- Y como el proceso de aprendizaje es diferente, nosotros aprendemos el concepto, nosotros comprendemos —la comprensión—, y la máquina no, pues ella no puede exportar, y por lo tanto tiene una inteligencia muy narrow, muy estrecha, muy...
… sí, específica. Narrow, estrecha está muy bien, porque es muy gráfico, explica muy bien las limitaciones. Lo que pasa que aquí lo adaptamos a “específica” aunque yo también digo a menudo “estrecha”…
- …y entonces, claro, la gran lucha que están teniendo es intentar exportar, es intentar hacer que las máquinas puedan hacer lo mismo que los humanos.
- Lo que pasa es que lo estamos intentando de la manera equivocada. No lo estamos haciendo a través de la comprensión. La máquina no entiende el entorno físico de la manera que lo entiendes tú. Y tú lo entiendes porque tienes un cuerpo físico y porque desde pequeño tirabas el vaso de agua y caía al suelo, y has ido aprendiendo una serie de cosas que no puedes explicar, que no están escritas en internet…
… y que no me ha explicado nadie…
- … que no te ha explicado nadie pero que tú las has ido aprendiendo seguramente porque tienes un cuerpo, cosa que la máquina no tiene. Y tienes unos sentidos: el sentido del tacto, de la vista que la máquina no tiene.
- Y por lo tanto, como el proceso de aprendizaje —el proceso por el cual llegamos a jugar al ajedrez o a escribir— es diferente, pues la máquina no puede cambiar. Y si sabe jugar al ajedrez no sabes hacer nada más.
- Pero no solo esto. O sea, ha habido estos experimentos que al Breakout le quitas dos líneas de píxeles y la máquina no sabe jugar. Tienes que volver a entrenar desde cero, 50 millones de partidas, porque ha sido entrenada con, no sé, 500 por 500 píxeles; en lugar de de 500 le metes 498 y ya se ha perdido…
… es otro juego para ella cuando para ti sería lo mismo…
- …nosotros nos podemos adaptar. Nosotros jugamos a tenis, nos dan una pista un metro más corta y podemos jugar igualmente. Seguramente fallaremos golpes pero podemos jugar sin tener que aprender desde cero. La máquina no. A la máquina le metes una pista un metro más corta y ya no sabe jugar; si le metes un juego de ajedrez sin caballos, pues no sabe jugar; le metes un juego de ajedrez que le cambias el cuadro negro por el cuadro blanco, giras el tablero…
- Y esto es el debate que hay, ¿no?… de si llegaremos a la inteligencia general esta —que no sé bien qué quiere decir— con este gráfico en que en todos los ámbitos, digamos, la máquina sea superior a los humanos: no creo que pase, sino que pasará que cada vez dominará más ramas, pero para llegar a la capacidad esta de exportar conocimientos de un dominio hacia otro, yo creo que tendremos que abandonar los LLMs, los modelos de lenguaje.
- No se hará a través de hacer modelos más grandes y más grandes y más grandes. Harán falta otras cosas, como la capacidad de razonar, como la capacidad de planificar, como la capacidad de entender el entorno físico, las leyes de la naturaleza que nadie te ha explicado pero que tú, sin saberlo, entiendes… el sentido común.
¿Cuáles son las dos maneras de llegar a la IA? ¿Imitando la mente o imitando el cerebro? | Marc Llibre
La capacidad de manipular símbolos como manipulamos nosotros. Esto, todos estos proponentes de las leyes de la escala, es decir, más potencia de cálculo, más datos, más parámetros...
- …más dinero…
… más dinero… pero hay gente como Gary Marcus, que con su artículo famoso de hace 3 años (4), ya dijo que hay un muro. Que nos podemos aproximar mucho, pero como no hay curvas exponenciales en general —las curvas de innovación son en forma de ese— quizás estamos llegando a este muro.
Si lo damos por bueno, no sería suficiente con la inteligencia artificial basada en el aprendizaje máquina —con métodos predictivos— y habría que recuperar la IA simbólica.
Querría que nos hablaras también de estas dos aproximaciones; dos escuelas que son casi irreconciliables que se han odiado a muerte todos estos años y que yo creo —muchos creemos— que están condenadas a volverse a encontrar y a entenderse.
Hablemos un poco de las dos maneras de llegar a la IA: imitando la mente o imitando el cerebro.
- Exacto. Desde el principio de los tiempos, que no sé si el principio es el año 56 con la conferencia de Dartmouth (5) o era antes con Walter Pitts (6) o no lo sé, pero desde el principio de los tiempos ha habido los que intentaban replicar la inteligencia a base de replicar la mente y los que intentaban replicar el cerebro.
- Los conexionistas intentan simular de una manera muy primitiva y mecánica las neuronas. Básicamente, en las neuronas hay un cuerpo central, después están las dendritas, que es por donde entra la información, y está el axón, que es el que se conecta con las otras neuronas.
- Entonces, la simulación es: entran datos, y si llega —como pasa en nuestro cerebro—, si llega a una cosa que se llama un potencial mínimo, entonces dispara y pasa la información a la neurona siguiente.
La neurona es un procesador de información.
- Y entonces dices, pues esto lo podemos hacer matemáticamente, ¿no? Le ponemos números, si este número es más grande que no sé qué, pam, disparas, ¿no?
- Esto puede... esta idea que ya viene de Walter Pitts de los años 40, pues ha ido evolucionando desde una neurona, después a un Perceptrón (7), hasta un conjunto de neuronas, que son las redes neuronales.
- Y puestas de diferentes maneras, hasta la última, digámosle versión, que serían los Transformers (8). Que es básicamente lo mismo, pero puesto de una manera muy sofisticada.
Que no deja de ser un proceso artesanal, de ensayo y error, de lo que funciona y no funciona.
- Exactamente, que muy a menudo dicen, no, no, que dejemos, la máquina sola aprende. No, la máquina sola aprende, no. Cuando no aprende, va un humano, cambia por aquí, cambia por allá. Por lo tanto, la máquina no aprende sola.
- Pero, digamos, una vía ha sido aquello de intentar replicar la idea de que el cerebro humano es también una máquina y, por lo tanto, si es una máquina que ejecuta un algoritmo, podemos replicarlo.
- Entonces, de manera natural, emergerá la inteligencia. De la manera que, de manera natural, en nosotros no sabemos cómo, nadie lo entiende, pero a base de neuronas conectándose con los neurotransmisores hacia aquí y hacia allá, de manera natural, pues, emerge el sentido común y la capacidad de razonar...
… y la conciencia…
- …e incluso la conciencia. Está por demostrar que se pueda conseguir, pero es la teoría, ¿no? Esta es la vía.
- La otra vía es decir, escucha, no hace falta ir al detalle, no sabemos bien cómo lo hacemos, pero somos capaces de razonar y de aplicar la lógica aristotélica. Pues cogemos esto e intentamos simularlo, sin ir al nivel de neurona, vamos a un nivel superior… empezamos ya.
- La primera vía, como intenta replicar neuronas y sus conexiones se llama conexionismo o redes neuronales —hay diferentes nombres—, y la segunda, como nosotros para aplicar esta lógica utilizamos símbolos —números, palabras, operaciones—, lo que hacemos es empezar de aquí, y de esto se denomina inteligencia artificial simbólica.
- Al principio, en la conferencia de Dartmouth había de todo, todos eran todo, porque no había dos escuelas que se peleaban. Pero enseguida, como siempre pasa en el mundo académico, que todo el mundo intenta barrer hacia casa; pues si yo tengo razón quiere decir que tú eres malo, y si tú tienes razón quiere decir que yo soy malo, y poco a poco se fueron separando hasta llegar a...
- O sea, que unos decían que los otros no eran inteligencia artificial real, sino que ellos son la inteligencia artificial, los otros no. Y en el mundo académico hay cosas que… haces una conferencia y no invitas a los otros.
- O en el mundo académico, cuando tú publicas, hay unos árbitros anónimos que deciden si el artículo es bueno o es malo, pues claro... si te pasan un artículo del otro campo, pues lo matas para que no publique, y en tu revista no dejas publicar a los otros, y se crea una guerra absurda y común; esto pasa en todos los ámbitos de la ciencia, en la economía también nos pasa, los keynesianos y los clásicos se matan. Y esto ha pasado.
- Pero para que nos entendamos, lo que ha tenido éxito en los últimos años, desde el año 2012, tanto en el mundo de la percepción —de la identificación de imágenes—, como en el mundo de la predicción —las herramientas que utiliza Google para hacer los anuncios— como en el ámbito de la escritura, han sido los neuronales, los conexionistas.
- Los otros han quedado un poco atrás, aunque parecía que serían los que ganarían, y que los tontos eran los conexionistas, ahora parece que...
- Pero como bien dices, hubo un gran progreso, ¿no? GPT-1, GPT-2, GPT-3, GPT-4, y entonces hicieron la proyección exponencial, pero… parece que se han atascado.
- Y no solo se han atascado los GPT —OpenAI—, sino que se han atascado los de Google, que todos básicamente hacen lo mismo —hacen Transformers— y tienen un producto que por más datos que les pongas, más parámetros, más sofisticación, básicamente sigue haciendo lo mismo, hay mejoras marginales…
- Y ahora que está lo que Gary Marcus llama el Hitting the wall, que el resto del mundo llamamos rendimientos decrecientes, pues ahora dicen: es hora de unir los dos campos.
Yo creo que es inevitable. De hecho los éxitos de DeepMind —el AlphaGo, el AlphaZero y el que gana el Nobel, el AlphaFold (9)—…
- … el Demis Hassabis…
… ya son una mezcla de las dos.
Hablas del 2012. ¿Qué pasa el 2012? ¿Por qué hay esta explosión? ¿Qué causas llevan al famoso AlexNet? (10) ¿Y las consecuencias, que estamos viendo ahora?
- El 2012 se hace público... la gente ve que las redes neuronales finalmente pueden ser útiles. Las redes neuronales no son nuevas.
Comienzan con Walter Pitts y con el Perceptrón. Tuvieron un problema técnico, el de la Backpropagation (11), que se solucionó en los años 70. Después hubo una implementación de Yann LeCun.
Durante los años ochenta, ya se programaban redes neuronales | Marc Llibre
Estamos hablando de los años 40, y de los años 50, 60, 70 y 80, ¿eh?
- Pero tenía dos grandes problemas. Uno era la capacidad. Básicamente lo que hace esta tecnología es coger muchos, muchos datos —procesar muchos números, muchas matrices de números—, y claro, primero, necesitas muchos datos; y segundo, para procesar muchos datos necesitas poder computacional.
- Y en los años 80 todo esto eran teorías matemáticas que las teníamos y decíamos, mira, puede funcionar; el teorema dice que esto convergerá y tal pim pam, pero no se podía implementar porque no teníamos ni los ordenadores ni los datos.
- Entonces, en el 89 llega el modelo de Yann LeCun, que era de visión y que fue uno de los grandes primeros éxitos comerciales porque detectaba números: lo compraron los servicios de correos, los bancos para leer cheques…
- Cuando tú vas al cajero automático y pones un cheque, la máquina lee los números —números escritos a mano, porque tú en el cheque has puesto 485 euros— y la máquina lo entiende. Todo esto son las redes neuronales de los años 80 de Yann LeCun.
- Pero no detectaba cosas sofisticadas; podía leer números, pero poca cosa más. Entonces le enseñabas una foto de un gato y no tenía ni idea de que era un gato, porque necesitabas muchas fotos de gatos y necesitabas procesadores gigantes; una foto de un gato, tiene millones de píxeles.
- Entonces, en este proceso —desde el 89, desde Yann LeCun hasta 2012— pasan dos cosas.
- Primera, Fei-Fei Li se dedica a ir a internet y coger millones de fotos y etiquetarlas; esto es un gato, esto es un perro, esto es un T-Rex, que es un trabajo brutal.
- Y la segunda cosa es que los ordenadores, con la ley de Moore van mejorando su capacidad computacional. También los videojuegos hacen que mejoren los procesadores gráficos…
… las GPUs…
- …sí, que son paralelas, porque para hacer gráficos necesitas hacer muchas cosas, no muy sofisticadas, pero muchas a la vez, y para hacer esto, es lo mismo.
Son matrices, multiplicaciones de matrices.
- Y entonces dices… el año 2010-2011 la gente empieza a decir: ¿y si en lugar de CPUs utilizamos GPUs? Y uno de los que lo hizo fue Alex Krzyzewski, que estudiaba con Hinton, uno de los que se inventó el Backpropagation y tal y cual.
- Es decir, que la idea estaba por ahí flotando y este tipo dice —no ha hecho nada nuevo, ¿eh?—: cogemos los datos de Fei-Fei Li, cogemos los procesadores paralelos de NVIDIA, cogemos la teoría de Hinton y de Yann LeCun y todo esto. Lo pone junto, y pam, de repente las máquinas empiezan a ver y a identificar imágenes…
…empiezan a ser útiles…
- …y entonces ganó el campeonato, porque Fei-Fei Li hizo otra cosa chula: hizo un campeonato de ordenadores a ver quién veía mejor. Y la primera red neuronal (que se llama convolucional) que fue capaz de identificar fue esta, la AlexNet, que destruyó la tecnología anterior que eran los Support Vector Machines, y entonces a partir de aquí...
- Pero claro, si te fijas, esto es una máquina de hacer predicciones, es decir, es una máquina de coger píxeles, y predecir la etiqueta asociada; si hay un error: bruum, Backpropagation, cambiamos los parámetros, y volvemos. Otra foto, otro píxel, e ir haciendo.
- Y entonces, claro, dices, es una máquina de hacer predicciones; aquí predice etiquetas, pero podrías predecir los gustos de los consumidores de Google, puedes hacer muchos tipos de predicciones, y aquí empieza la revolución de la inteligencia artificial predictiva.
- El pistoletazo de salida es la visión, pero se aplica a muchos otros ámbitos sin que nos demos cuenta. Los anuncios de Google es básicamente lo mismo; predicen que este tipo está buscando un Audi y pam, le meteremos un anuncio de Audi, porque hemos hecho la predicción.
- Es una cosa más complicada, porque hay todo el tema de la semántica y de poner las palabras en el espacio de significados, que esto empieza con Yoshua Bengio y todo esto, y Oriol Vinyals (12) de Sabadell.
- Pero al final llegan los Transformers, que es una manera sofisticada de hacer todo esto, de predecir palabras, pero siguen siendo algoritmos de predicción estadística: predicen palabras.
- Y llegamos a ChatGPT que es el otro gran momento. Si en 2012, digamos, las noticias llegan a los expertos —las redes neuronales es the way to go—, en 2022 llegan al gran público.
Y esto es definitivo. De hecho, llegó en 2016 cuando Google cambia la tecnología de su traductor por la de las redes neuronales, pero no lo vimos.
- … Oriol Vinyals, con Ilya Sutskever (13) y un ingeniero vietnamita que no recuerdo el nombre.
Cuando cambia, claro, no nos damos cuenta ni sabemos el porqué, pero notamos que de un día para otro, de repente, el traductor de Google funciona mejor y que empieza a ser útil.
- Yo me acuerdo de haber visto el salto: de repente las traducciones empiezan a funcionar.
Sí, porque en el libro explicas que tú te traducías tus artículos de La Vanguardia, porque primero los enviabas en catalán y la traducción al castellano era un desastre.
- Tenían un programa que se llamaba Bendit, que no sé cómo funcionaba.
Al principio a mí también me lo traducían. No sé qué tecnología había debajo, pero yo había leído algunas traducciones del castellano donde decía lo contrario de lo que había escrito en catalán.
Ahora me lo hago yo, con el traductor de SoftCatalà o con el Google Translate.
- Es verdad hay un cambio en 2016, pero tienes razón, es un cambio que lo notas pero no lo sabes; que no es “mira aquí hay una nueva tecnología como el ChatGPT que ¡pam!”
Entonces lo ves como una cosa normal: un traductor debe traducir bien, no fastidies.
- Yo supongo que la gente no entiende la dificultad, dices “¿por qué lo hace todo tan mal? Con lo fácil que es, ¿no?” Porque nosotros podemos traducir con toda facilidad y en cambio no entendíamos por qué a las máquinas les costaba tanto.
- Y por tanto, el choque era, cómo de mal lo hacía, y de repente pasa a ser normal, claro, coño, que te traduzca en catalán, castellano, coño….
…¡si lo hace la canalla!
- Claro, pero sí que es verdad que este choque, fue el principio, digámoslo, de la revolución de la IA generativa.
Entonces llega este gran momento, en 2022, cuando esto llega al gran público. Claro, te ponen esta tecnología, la tecnología digital más avanzada que hemos desarrollado nunca, en una interfaz que todos sabemos usar, que es un chat; lo sabe usar la canalla de 5 años y los abuelos de 95.
- Para los expertos como tú —yo te había oído en la radio hablando del GPT-2 y el GPT-3 y tal— los sabios, los que estáis en el tema ya sabíais que esto estaba pasando.
- Pero el gran público no se da cuenta porque era complicado por la interfaz, ¿no? “De acuerdo, de acuerdo, lo quiero probar que ha salido Ganyet en la radio y ha dicho que hay una máquina que escribe”. Pero cuando tú intentabas, hostia... Esto es muy difícil.
Y puedo ir más atrás, ¿eh? Cuando estábamos en la Autónoma, que coincidimos en los ochenta, ya programábamos redes neuronales, esto de reconocer los caracteres.
Pero claro, con una matriz de, no lo sé, de 5 por 5. Y hacías una a mayúscula y entonces le quitabas un bastoncito; aún reconocía una a; le quitabas otro y la interpretaba como una hache. Era mágico, pero la magia se acababa cuando te dabas cuenta de que era un ejercicio para aprobar las prácticas. Y esto desaparece hasta que volvemos a hablar en 2012.
Entonces, uy uy, corred todos, que resulta que aquello era útil. Y cambia todo con la llegada de ChatGPT, que es también un fenómeno cultural. Me gustaría que me explicaras un poco el impacto, más allá de la tecnología; el impacto social, el impacto económico, y que hagamos un poco de esto que tan poco te gusta, que es de ver hacia dónde vamos.
- Sí, a ver, yo creo que tiene un impacto psicológico o sociopsicológico importantísimo, porque de repente vemos que no somos la única entidad en el universo, que es capaz de escribir.
- Y como nuestro cerebro asocia escribir bien o comunicarse bien a través del lenguaje sofisticado con la inteligencia, de repente nos viene a la cabeza el Jarvis y el C3PO y el no sé qué, ¿no? Y el Terminator.
- ¿Por qué? Pues porque nuestro cerebro nos engaña y nos dice... es aquello de la pareidolia que nos hace humanizarlo o antropomorfizarlo todo. Porque hasta ahora éramos los únicos. Y de repente le otorgamos unas capacidades cognitivas de conciencia, una inteligencia que no tiene.
- Pero claro que nos deja alucinados. Dices, de repente hay entidades que pueden escribir mejor que nosotros. Entonces empezamos a hacer predicciones catastróficas: “todos los que escriben perderán el trabajo, todos los que... hasta ahora razonaban, ¡perderán el trabajo!”. Y empezamos a hacer predicciones catastrofistas. El mismo Hinton: “todos los que ahora se dedicaban a mirar, como los radiólogos, estos perderán el trabajo”.
- En 2016 Hinton dice que al cabo de 5 años no quedará ni un radiólogo. Estamos en el 25, hay más radiólogos que nunca. Pero a todos nos viene esta sensación, incluso a los más sabios. Este señor tiene el Premio Nobel, el Premio Turing, tiene todos los premios del mundo, y se equivoca con las predicciones. Pero es un choque ver que de repente tenemos competencia en el único ámbito en que éramos únicos, que era la inteligencia.
- Y esto tiene implicaciones, o sea, las empresas se despiertan y todas miran cómo poder recortar costes, ¿no? Podemos echar fuera a la secretaria o al becario o no sé qué, es decir, que todo el mundo reacciona; gente que reacciona de manera equivocada.
- Gente que lo usa de psicólogo: “nadie me entiende, la máquina me entiende”. Y como es una conversación… esto también es un problema psicológico nuestro que ya había pasado en los 60 con ELIZA (14) que usaba el truco del almendruco de repetir la pregunta con la respuesta y repetir la respuesta con la pregunta. Y la gente se pensaba que era super lista: tenemos la tendencia a querer humanizarlo todo.
- Y esto tendrá consecuencias peligrosas. Ya las ha tenido. Gente que se suicida, de gente que confía en la máquina, es decir, que hay una revolución psicológica y sociológica a la vez, que tendrá consecuencias económicas.
- Yo, de hecho, en el libro intento enfatizar que una gran parte del problema somos nosotros, lo tenemos aquí [se señala la frente]. Somos nosotros que somos los crédulos. Somos nosotros los que deberíamos entender, distinguir las fake news de las no fake news.
Somos nosotros los que deberíamos darnos cuenta de que el coche funciona el 99% de las veces bien, pero que hay uno de cada cien que no irá bien.
Un coche de conducción autónoma.
- Un coche de conducción autónoma. Y que cuando la inteligencia artificial te recomienda medicinas, pues que una de cada diez se la inventará.
Quería comentar el título del libro: Entre el Paraíso y el Apocalipsis. Casualmente enlaza con un par de libros que he encontrado por aquí en la editorial, que son el Brave New World de Huxley y el Cuento de la Criada de Margaret Atwood.
Viendo lo que pasa estos días en Estados Unidos, cada vez el Cuento de la Criada me parece más un libro costumbrista; pronto parecerá un documental.
¿La IA nos convertirá en una clase inútil, que no servirá para nada absolutamente, o nos llevará a una Arcadia feliz?
Hoy mismo he visto un vídeo en que preguntaban a Hinton: “oiga, todo este superávit y estos grandes beneficios que traerá la inteligencia artificial, ¿cómo podemos hacer para que beneficien a todo el mundo?”
“Socialismo”, responde Hinton, lacónico.
¿Seremos capaces de repartir la riqueza que genere la IA? ¿O sencillamente acabaremos con uno de aquellos escenarios que dice Max Tegmark, que la inteligencia artificial será tan benévola que nos guardará en una especie de reserva india o en un zoo para que las generaciones futuras vean cómo era la humanidad?
- De hecho los lectores no sé si saben que este libro empezó con una conversación contigo después de ser los dos testigos de una conferencia apocalíptica de Yuval Harari en Davos, donde presentaba la parte negativa: sus humanos inútiles, la clase inútil etc.
- Y yo creo que esto va en contra de toda la evolución de la historia. Pero no hay una ley económica, no hay un teorema que diga que siempre que se destruye trabajo se crea más; es una evidencia empírica como la ley de Moore, pero…
¿Seremos capaces de repartir la riqueza que genere la IA? | Marc Llibre
… no es una ley de la naturaleza…
- …no es una ley de la naturaleza, y por tanto es posible lo que dice Harari. Podría ser.
- Pero yo no tengo ni idea de inteligencia artificial, y tú y yo fuimos a comer pizza y te dije, escucha, explícame esto de la inteligencia artificial. Y tú fuiste el primero que me explicó los dos campos los simbólicos, los conexionistas y todo esto. Me recomendaste unos libros y allí empezó todo, ahora hace siete años en Davos, en 2018.
- Y por tanto este libro nace con la voluntad de entender
este escenario catastrofista, si era posible o no. Después me di cuenta, a medida que fui leyendo, porque he leído montañas y montañas de libros…
…yo creo que lo has leído todo. Miré la bibliografía del primero y ahora he mirado la del segundo, y digo: no puede ser que desde aquel día de la pizza haya leído todo esto, ¡es increíble!
- Han pasado siete años, ¿eh? Se pueden leer muchos libros.
Sí, sí, y te has puesto a estudiar un máster en Harvard, ¿eh?
- Sí porque vi que hay la visión apocalíptica y también la contraria: los Kurzweil y los Diamandis y tal, que hablan de la superabundancia y de que la inteligencia…
… todo es exponencial…
- …y que se acabarán las enfermedades y que...
… ¿estos también te los has leído? Me dan mucha pereza los Kurzweil, Diamandis y toda la pandilla.
- De Kurzweil dos, que sacó otro: después del de The Singularity is Near, The Singularity is Nearer.
- Y entonces el título viene de que muchas de estas predicciones, tanto las unas como las otras, vienen de la visión esta exponencial. Como que hasta ahora no era así, el mundo evolucionará y entonces, como que ahora ya tenemos cosas malas, pues será super mala, o como que ya tenemos cosas buenas, será super buena, ¿no?
- Pero en el mundo no hay nada que sea exponencial. Ni el Big Bang es exponencial. Todos son curvas S. Todo lo que parece exponencial se acaba parando. Todo. Tú miras tu felicidad, cómo cae Lehman Brothers, una crisis, cómo caen los imperios, cómo...
… las curvas de adopción de tecnología.
- Todas son así.
- Entonces, si te fijas estas visiones apocalípticas o superoptimistas están basadas en una exponencialidad que yo creo que no existirá. Y lo que vemos ahora es que estamos entre una cosa y la otra.
- Entonces, yo lo que intento explicar en el libro, tanto en el ámbito de la tecnología como en el ámbito de la economía, o en el ámbito de diferentes aspectos sociales, como la educación, es que habrá aspectos positivos y que habrá aspectos negativos.
- Pero que ni será la catástrofe del apocalipsis, ni será el paraíso en el cual no hará falta que trabajemos donde tendremos el ordenador o el robot que irá a trabajar, le daremos un besito por la mañana y volverá por la noche con el salario; en lugar de dar besitos a los hijos, daremos el besito al iPhone.
- Todo esto son escenarios de ciencia ficción. En la realidad tenemos el ChatGPT. Tenemos que analizar la evolución del ChatGPT, que tiene implicaciones, obviamente, económicas y sociales.
- Es lo que analiza el libro, pero desde la perspectiva de la serenidad, no del histerismo, que se acaba el mundo y que vendrán los robots y nos matarán a todos.
Esto está muy bien argumentado en el libro.
A ver, yo hace muchos años que te sigo: desde que en los 90, trabajando en IBM, descubrí la web de un profesor de economía catalán en Yale. ¿Quién tenía una web en aquella época? Recuerdo que en la web salían dos de tus referentes: Judit Mascó y la cerda Peggy de los Muppets.
Desde aquella web, te he ido siguiendo: en los artículos, en tus participaciones en radios y teles, en tus libros de economía… hasta llegar a este último, que te tengo que confesar que es uno de los mejores, más extensos y más profundos, de los libros que he leído sobre IA.
Y creo que la pregunta es obligada: ¿qué hace un economista hablando de IA?
- Esto lo dijimos el otro día en la presentación [en la Casa del Libro], pero creo que es importante recordar, que claro, cuando la gente dice "qué hace este tipo hablando de IA", yo quiero hablar del origen: de Harari hablando de la economía de la inteligencia artificial…
… que es un historiador…
- pero, digamos, la intersección entre la economía y la inteligencia artificial es lo que nos interesa ahora mismo, qué implicaciones tendrá.
- Y esto o lo hablan los economistas o lo hablan los expertos en inteligencia artificial. Y por tanto, alguien tiene que cruzar el río e irse al otro lado. O bien es algún experto en inteligencia artificial como tú, que estudias economía, o bien es algún economista que estudia inteligencia artificial.
- Pero si no, no se puede hablar con criterio, porque cuando tú ves —yo leo los análisis de los expertos en inteligencia artificial—, Russell, que tiene secciones de su libro en que habla esto, que hace multiplicaciones —el PIB será tal y tal, y por tanto el PIB serán no sé cuántos trillones.
- Dices, hombre, este tipo no tiene ni idea. Y por tanto alguien tiene que cruzar e irse al otro lado y hacer el esfuerzo durante siete años de aprender el otro lado para poder hablar de la intersección. Si no, no se puede hablar de la intersección con criterio.
- Y por eso a mí me interesaba mucho. Para poder hablar de si la inteligencia artificial expandirá los puestos de trabajo, cuáles serán las implicaciones en la productividad, en el crecimiento, en las desigualdades… todo esto yo tengo que entender qué es. Si no entiendo qué es, no puedo hablar.
Una conversación entre Josep M. Ganyet y Xavier Sala i Martin | Marc Llibre
Sí, sí, yo recuerdo que quizás en 2016 o 2017, que también coincidimos en Davos, me explicaste —me quedó grabado— que la economía era la ciencia que estudiaba la felicidad; todo lo que nos hace felices cuesta dinero o tiempo, esfuerzo y dedicación, al final.
Cuando te miras la economía desde esta vertiente, entonces entiendes tu lógica. Porque si dejas que la IA te lo explique un historiador especializado en historia militar como Harari, el relato es en términos de vencedores y vencidos. Por no hablar de sus predicciones, que son tan válidas como las de cualquier persona.
Parece lógico que alguien que se dedique a estudiar la felicidad cruce al otro lado para ver qué impacto tendrá.
- Es así.
Bien, Xavier, acabamos. Agradecerte tu tiempo y sobre todo porque confiases en mí para la revisión de este libro y el anterior. De hecho lo mencionaré en el artículo, a modo de exención de responsabilidad (de disclaimer), diciendo que he formado parte del proceso de refinado.
- No, y del comienzo, tú eres parte del principio y del final.
Sí, exacto. Para mí ha sido muy estimulante, he leído el libro como una historia, no de la tecnología, no de la inteligencia artificial —que también— sino del ingenio humano, de las ideas; es una historia de las ideas humanas, que es una de tus especialidades.
Y después es un libro que se puede leer como quieras; o sea, si tú sólo te interesa la parte de historia o la parte del impacto de los videojuegos o la parte de Bill Gates y Steve Jobs, lo tienes allí.
No hay ningún libro —y también he leído unos cuantos— que sea capaz de explicarte la influencia de Ramon Llull en el desarrollo de la inteligencia artificial, que la tiene, y que te explique el funcionamiento del algoritmo de backpropagation de manera comprensible. A mí, en la carrera, no me lo pusieron tan fácil.
Te agradezco mucho haber podido participar en el proyecto.
- El próximo libro lo tenemos que hacer juntos.
Escucha, para mí perfecto. Hagámoslo juntos. Tengo alguna idea, ya hablaremos. De momento lo dejamos aquí, en exclusiva para VIA Empresa.
- Muchas gracias, gracias por la entrevista, pero también gracias por ser el origen y el punto final de este libro.
A usted, Profesor.
(1) “Inteligencia es la capacidad que tiene un agente de aproximarse a sus objetivos mediante sus acciones, teniendo en cuenta las restricciones del entorno.”
(2) El Breakout es el famoso juego de Atari de romper bloques con una pelotita. Fue prototipado por Steve Wozniak de Apple y publicado en 1976. En 2017, el AlphaZero de DeepMind aprendió a jugar solo y llegó a encontrar en pocas horas las estrategias que los humanos usamos para ganar. (p. 446, Entre el Paraíso y el Apocalipsis)
(3) En 1997, el Deep Blue de IBM derrotó a Garry Kaspàrov. Era la primera vez que un ordenador derrotaba a un gran maestro de ajedrez. (p. 308, Entre el Paraíso y el Apocalipsis)
(4) Deep Learning is Hitting a Wall, Gary Marcus, 10 de marzo de 2022.
(5) La conferencia de Dartmouth en Nuevo Hampshire en el verano de 1956 es cuando se acuña el término IA. Se considera el punto de partida de la disciplina. (p. 261, Entre el Paraíso y el Apocalipsis)
(6) Warren McCulloch y Walter Pitts basándose en el trabajo de Ramon y Cajal son los primeros que modelan matemáticamente el funcionamiento de las neuronas del cerebro en 1943. Su modelo es conocido como el modelo de McCulloch-Pitts. (p. 249, Entre el Paraíso y el Apocalipsis)
(7) El Perceptrón es una evolución del modelo de neurona de McCulloch-Pitts desarrollado por Frank Rosenblatt en 1957. La innovación es que ajustando los pesos de las entradas, el Perceptrón podía “aprender” a partir de ejemplos. (p. 324, Entre el Paraíso y el Apocalipsis)
(8) Los Transformers son modelos de IA especializados en entender y generar texto mediante un mecanismo de atención que capta el contexto global. Son la base de muchos avances recientes en el procesamiento del lenguaje natural. Fueron introducidos en 2017 por Google con el artículo Attention is All You Need. (p. 533, Entre el Paraíso y el Apocalipsis)
(9) AlphaFold es un sistema de IA desarrollado por DeepMind que predice con gran precisión la estructura tridimensional de las proteínas. Revolucionó la biología molecular y por eso sus creadores, Demis Hassabis y John Jumper recibieron el Premio Nobel de Química en 2024. (p. 448, Entre el Paraíso y el Apocalipsis)
(10) AlexNet es una red neuronal convolucional desarrollada en 2012 por Alex Krizhevsky, Ilya Sutskever y Geoffrey Hinton en la Universidad de Toronto. Ganó el concurso ImageNet aquel año con una precisión muy superior a la de los modelos anteriores, marcando un punto de inflexión en la visión por computador y el campo del aprendizaje profundo. (p. 362, Entre el Paraíso y el Apocalipsis)
(11) El algoritmo de backpropagation es una técnica de aprendizaje automático que ajusta los pesos de una red neuronal mediante la propagación hacia atrás del error. Fue formalizado en 1970 por Seppo Linnainmaa y popularizado por Geoffrey Hinton, David Rumelhart y Ronald Williams, en 1986. (p. 340, Entre el Paraíso y el Apocalipsis)
(12) Oriol Vinyals es un científico catalán especializado en aprendizaje profundo e inteligencia artificial. Es conocido principalmente por ser coautor del modelo seq2seq, que revolucionó la traducción automática. Es Vicepresidente de Investigación en Google DeepMind y co-líder del proyecto Gemini. (p. 525, Entre el Paraíso y el Apocalipsis)
(13) Ilya Sutskever es uno de los pioneros más influyentes en el aprendizaje profundo. Co-inventó AlexNet en 2012, revolucionando la visión por computador, y fue coautor del modelo seq2seq, clave en la traducción automática. Cofundador y científico jefe de OpenAI, lideró el desarrollo de modelos como GPT. Actualmente dirige Safe Superintelligence Inc., centrada en el desarrollo seguro de superinteligencias artificiales. (p. 360, Entre el Paraíso y el Apocalipsis)
(14) ELIZA es uno de los primeros programas de procesamiento del lenguaje natural, desarrollado entre 1964 y 1966 por Joseph Weizenbaum en el MIT. Simulaba un psicoterapeuta rogeriano mediante reglas de sustitución de patrones, creando la ilusión de una conversación empática con el usuario. (p. 293, Entre el Paraíso y el Apocalipsis)