
Unos metros por encima de los Jardines del Palacio de Pedralbes de Barcelona encontramos una de las infraestructuras científicas más importantes de todo el continente europeo: el Barcelona Supercomputing Center (BSC). Desde su puesta en marcha el 1 de abril de 2005, el BSC ha liderado la vanguardia de la supercomputación europea durante dos décadas, y con el estallido popular de la inteligencia artificial y la apuesta por la soberanía tecnológica de la UE, su importancia ha alcanzado una nueva escala.
Tras de unos años movidos, en que el BSC ha puesto en marcha la nueva generación de su superordenador, el MareNostrum 5, y ha acogido el primer ordenador cuántico de España, el centro inicia este año una nueva etapa con Cristian Canton como nuevo director asociado, quien toma el relevo de Josep Maria Martorell. Lo hace con un currículum más que respetable, donde destacan los más de ocho años que trabajó en Meta, los últimos cuatro como jefe de la división de inteligencia artificial responsable de la matriz de Facebook, Instagram y WhatsApp. “Quería hacer algo diferente, algo por el país”, reconoce Canton a VIA Empresa desde su despacho, donde comenzamos la entrevista después de visitar las instalaciones del centro. Cerca de una hora de conversación sobre hypes, vulnerabilidades, oportunidades y peligros de la IA que deja clara una cosa: “Roma no se hizo en un día”.
Ha asumido en la dirección general del BSC el año que se celebra el 20º aniversario del centro. ¿Qué le convenció para aceptar el reto?
Hacía ocho años y medio que estaba en Meta, muchos más años trabajando en grandes corporaciones americanas, y nos habíamos mudado hacía poco de Estados Unidos para vivir aquí con mi familia, aunque continuaba trabajando para Estados Unidos, e iba uno o dos veces al mes. Con los propósitos de año nuevo, pensé que quería hacer algo diferente, algo por el país: hacer que Catalunya, España y Europa crecieran con lo que había aprendido. Pero no le daba forma, hasta que un día Pep Martorell me escribió para ir a tomar un café, y me comentó la plaza. Me encajó mucho, podía aprovechar mi perfil en IA y gestor de grandes equipos en un centro que contribuye de forma directa y clara al crecimiento de Catalunya, España, Europa… ¡Y que hace ciencia! No es una empresa o un centro donde vas a hacer unos accionistas más ricos; la ciencia que se hace aquí tiene un impacto directo en la sociedad. Todas las piezas se me pusieron en su lugar. Contento de hacerlo con los 20 años, y me gustaría que los 20 años venideros pueda estar aquí contribuyendo.
"El BSC no es una empresa o un centro donde vas a hacer unos accionistas más ricos; la ciencia que se hace aquí tiene un impacto directo en la sociedad"
¿Cómo se vive en Silicon Valley el momento de éxtasis actual con la IA?
Es un momento muy bonito, incluso histórico. Soy de la generación que empezó a hacer inteligencia artificial cuando aún no era trending topic, recuerdo la gente que me decía “no funcionará nunca”, “estás perdiendo el tiempo”… Y, de repente, llega la revolución del deep learning, de la utilización de las GPU con las grandes bases de datos para que la IA realmente funcionara. Ha ido creciendo, y ahora te encuentras en un momento en que ves que la IA funciona muy bien, es fácil aplicarla a nuevos dominios… Tienes jugadores muy importantes, las grandes corporaciones de Silicon Valley que están poniendo las piezas en lugares más o menos interesantes y que están empujando, y la ciencia se benefici de ello.
También creo que hay un momento de hype en que, como cualquier otro, todo el mundo intenta subir al carro, y ves cosas que no tienen demasiado sentido. Como todo, habrá un momento de gran crecimiento, de separar el grano de la paja. Pero es un momento dulce, porque ves cómo impacta la sociedad: hace años no hablábamos de cómo la IA podía cambiar tu día a día, y hoy es un tema casi candente en cómo la sociedad está cambiando, cómo la gente se comunica, cómo la riqueza se crea y se destruye… Desde un punto de vista tecnológico, es un momento fantástico, porque hay los recursos y los datos; y desde un punto de vista social, es un momento en que la sociedad empieza a estar receptiva y más o menos preparada para recibir y hacer que esta tecnología cambie sus vidas.
¿Y en Silicon Valley? Hace que muchas compañías empujen de una manera brutal para hacer una IA tan buena como sea posible. Si, además, le sumas los cambios políticos de Estados Unidos, la intensidad a escala mundial que vivimos… Son momentos que, en Silicon Valley, se respira una intensidad a veces demasiado fuerte. Estamos en una cresta de la ola, veremos cuánto dura y, cuando caiga, qué queda.

Menciona que estamos en un momento de hype. ¿Cuáles son las aplicaciones más infladas de la tecnología?
Al final, las necesidades que te crean para que utilices inteligencia artificial muchas veces están correlacionadas con los intereses de las grandes corporaciones. Google, Facebook, Microsoft hacen una IA. ¿Por qué? Para que la consumas. ¿Cómo? Es aquí cuando crean la necesidad. Hay casos de uso creados demasiado ad hoc. Son empresas que salen y caen. Hay casos de uso que son genuinos, que creo que pueden ayudar. Los humanos somos muy buenos razonando, pero, a veces, buscar información nos cuesta, sobre todo cuando hay que navegar grandes volúmenes de información, como puede ser una biblioteca o internet. La IA te permite ser muy eficiente para buscar cosas. Muchas veces ya no vas a Google, vas a ChatGPT y le preguntas “¿cuál fue la inflación de Portugal hace tres años?”, y te da el número. Todos estos avances de la IA que nos permiten ser más eficientes en el día a día y dedicar más tiempo a las cosas que nos gustan más o donde seamos más productivos, son partes donde el hype es correcto. Otros, en que intentamos encajar la IA con calzador en cualquier cosa… He estado con compañeros que hacen startups que te dicen “no tengo ni idea de IA, pero quiero usarla”. Pero a ver, que haces zapatos o plantas tomates. “¡Es que entonces es más fácil llamar la atención!”... Bien, en estos casos de uso, veremos cosas que suben y bajan. Los usos legítimos y que tienen un impacto positivo continuarán, y nosotros los tenemos que seguir empujando.
¿Cuáles són esos usos?
La ciencia. En el BSC vemos como la IA nos permite hacer avances que no habíamos visto nunca. Se está convirtiendo en una nueva herramienta para hacer avanzar el descubrimiento: nuevos fármacos, estimar la polución del aire… con una precisión que con los métodos clásicos no era posible. La IA se está metiendo dentro del método científico y nos está permitiendo avanzar a unas velocidades muy grandes. En los próximos 10 años tenemos que ser testigos de una revolución científica como no se ha visto aún en la historia. Y esta posición es fantástica, porque soy un espectador en primera fila, y lo quiero ver.
"En los próximos 10 años tenemos que ser testigos de una revolución científica como no se ha visto aún en la historia"
La popularización de los modelos de lenguaje como ChatGPT o Gemini han provocado que el público asocie el concepto de IA a las herramientas generativas, pero la tecnología engloba muchos más campos. ¿Qué efectos tiene esta identificación?
Desgraciadamente, impacta en la forma como se habla de la IA, sobre todo con el público que no es científico y que no trabaja en su desarrollo. Coges un diario y la IA es ChatGPT, pero la IA no es esto, es una disciplina que hace casi 100 años que existe. La IA generativa no dejan de ser los últimos dos o tres años; antes de esto había, y hay aún, diferentes tipos de IA que se utilizan. A menudo, en el mundo tecnológico, uno coge la tecnología más reciente y la intenta aplicar a todo, asumiendo que es la mejor y sirve para todo. Pero hay muchos problemas que no requieren una IA generativa para ser resueltos, y que de hecho no tiene sentido. ¿Intentar acceder a grandes volúmenes de información y que haga un resumen para que yo, como ser humano, lo pueda consumir y ser más eficiente con mi día a día? Sí, aquí la IA generativa funciona muy bien. Pero si quiero hacer un clasificador de tomates o de naranjas, no te hace falta una IA generativa. Lo podrías hacer, seguramente, pero consumiría unos recursos tan grandes que hay soluciones de IA mucho más sencillas y económicas que no tiene sentido.
Hay que ir con cuidado de no utilizar el mismo martillo para todos los problemas. Y aquí hay un tema de educación. Es verdad que la IA es una disciplina muy nueva para el público: la gente no consumía, o más bien no era consciente de que consumía IA, hasta hace muy poco. Hace unos años explicaba en casa que trabajaba con inteligencia artificial, y la pregunta era “¿y esto qué es?”, “¿por qué te pagan para hacer esto?”. Hoy en día, todo el mundo entiende qué es más o menos la IA; podrá definírtelo con más o menos dificultad, pero podrá decir “yo sé que mi móvil hace esto con IA”. Al final, la IA se comoditiza, y de aquí a un tiempo será como la electricidad, el agua y el gas: tendrás una IA que te dará servicios de cosas.
¿Hasta qué punto es responsable, en el contexto climático actual, continuar avanzando con el ritmo actual de desarrollo de la IA, teniendo en cuenta los recursos naturales que consume?
Hay que diferenciar los casos de uso. Hacer una IA que consuma grandes recursos para hacer filtros del móvil que me cambien la cara… Intentemos vigilar y no gastar recursos en cosas que son más triviales y banales. Ahora, ¿IA para ciencia? Todos los recursos y más. Y los modelos que tenemos aquí son muy grandes, pero el consumo que tienen es moderado, órdenes de magnitud por debajo de otros modelos que se entrenan para otros usos. Si entrenas un modelo para hacer genómica, el impacto es importante. Incido, no hablamos de números monstruosos: el consumo eléctrico del MareNostrum es como el de un AVE que va de aquí a Madrid, ida y vuelta. Es un consumo grande, pero no es una presa hidroeléctrica que está supliendo un ordenador como este.
"El consumo eléctrico del MareNostrum es como el de un AVE que va de aquí a Madrid, ida y vuelta"
Las grandes compañías ahora están poniendo mucho dinero para que haya adopción, para que esta tecnología enganche, para que la gente la utilice y la aprenda a utilizar, y esto tiene un coste muy elevado. Además, en cualquier fase de desarrollo de una IA, lo primero que haces es un modelo que sea tan grande como sea posible. Tienes un modelo perfecto, pero que consume muchísima electricidad. “¿Lo podemos reducir, comprimir, y que nos dé el mismo servicio que el modelo grande?” Sí, y aquí es donde hay una fase de investigación. El modelo que antes consumía 100, ahora consume 1. “Ahora lo tenemos que volver a expandir porque necesitamos que haga no sé qué”, y se volverá a comprimir. Estamos en un ciclo de crecimiento y de aprendizaje, porque de hecho, los modelos de IA generativa son modelos que realmente no sabemos cómo funcionan; sí que entendemos la base, pero si quieres saber por qué está haciendo aquello y no esto otro, es realmente complicado de explicar. Las redes neuronales pueden tener un trillón, diez trillones de parámetros, cantidades absurdas. Entender qué sucede allí dentro es un campo de investigación aún muy verde.
Pero es lo que decíamos: cuándo y dónde se utilizarán, y qué usos son más legítimos cuando tienes unos recursos limitados. No es lo mismo utilizar una IA para salvar vidas que una IA como chatbot para entretenerte cuando estás aburrido. Ahora mismo no hay regulaciones que gestionen todo esto, pero espero que en un futuro aparezcan regulaciones que digan “oiga, el consumo responsable de recursos por IA requiere que hagas esto, esto y aquello”. Es como cuando hay sequía y no puedes llenar tu piscina. "Hay recursos limitados y se tienen que utilizar de esta forma responsable".
En Meta encabezaba la división de inteligencia artificial responsable y fuisteis pioneros en la creación de un red team para anticiparse a las posibles vulnerabilidades de la IA. ¿Qué aprendió de esta experiencia?
Muchas cosas. El red team fue un momento bastante catártico, de ver que la inteligencia artificial se puede equivocar, y que si lo hace, puede hacer daño. No entraré en detalles, porque es confidencial, pero hubo un momento de decir “la IA se ha equivocado y ha tenido un impacto muy severo en el mundo”. Sucedió porque nunca se nos ocurrió coger la IA y apretarla para ver si realmente estaba haciendo lo que queríamos. En uno de cada millón de casos hacía alguna cosa que no nos esperábamos. Y fue entonces cuando dijimos: “Hagamos un red team para asegurarnos de que la IA sea robusta”. No que no se equivoque, sino que nunca haga alguna cosa que no esperábamos. Fuimos los pioneros, y al cabo de poco tiempo, amigos nuestros de Google y de Microsoft crearon los suyos, y se creó como una red. Recuerdo una entrevista que me hicieron en WIRED donde me preguntaron por qué hacía falta esto, y respondí que si funciona, no hará falta nunca, pero que cuando haya una cagada, será una suerte tener un red team.
De una forma muy orgánica, mi rol creció para cubrir toda la parte de responsabilidad, y es una cosa curiosa, porque hace cinco o seis años no se hablaba de IA responsable. Pero cuando te das cuenta de que cada vez la IA está más inmiscuida en las decisiones del día a día, puede haber un impacto negativo si tiene un sesgo. Imagina que le pido un lugar para ir a comer, y a ti te recomienda siempre McDonald’s y a mí, ir a un restaurante healthy. Llevado al extremo, en todas partes hay IA que reflejan los datos con que han sido entrenadas, que siempre tienen un sesgo por definición. Si no lo mides, lo cuantificas y miras cuál es el peor caso posible, puede cometer errores que pueden impactarte a ti como persona. Descubrir esto, no solamente hablarlo, sino poder influenciar corporaciones grandes y regulaciones… estoy muy contento por esto. Lo más interesante es ver que es un campo que no puede morir, que siempre tiene que haber alguien pensando, porque la IA continúa evolucionando, y cuando lo hace, tiende a hacer alguna cosa que no nos esperábamos. Y parte de la responsabilidad es predecir dónde puede suceder esto.

Desde su irrupción, ya se han señalado problemáticas como la desinformación, la violación de derechos de autor o los efectos en el mercado laboral. ¿Cómo se deben afrontar?
Cuando tú creas una inteligencia artificial, debes tener en cuenta cuáles son las diferentes áreas donde lo debes hacer bien desde un principio. ¿Sobre la desinformación? Es lo que se denominan alucinaciones. Al final, la IA tiene una capacidad limitada de poder razonar, y puede generar cosas que no sean ciertas. Debes ser consciente, y tener un plan para medirlo y mitigarlo. ¿La IA utiliza datos? Claro, pero no puedes coger cualquier dato. Se debe tener en cuenta cómo alucina, qué medidas de responsabilidad has puesto... o cómo esta IA se puede utilizar para hacer el mal. Siempre pensamos en el uso benevolente de la IA, pero uno de los ejercicios que hacíamos en una división de Facebook era el siguiente: si tú eres una persona mala y quisieras usar esta IA para hacer el mal, ¿cómo lo harías? Y, como desarrollador, ¿qué mitigaciones pondrías para evitarlo?
Después, hay otra parte, no como desarrolladores, sino como consumidores, que es la educación y el sentido crítico. Hemos pasado de un mundo en el que la IA era bastante meh, a un mundo donde te puede generar un vídeo que parece real. Desgraciadamente, ha evolucionado tanto que puede crear contenidos que nos engañan de una forma flagrante. Hace unos años, llevaba la parte de deepfakes en Facebook y, bueno, había algunos que podían llegar a convencer un poquito, pero hoy en día es muy difícil distinguir que no es real. Hay una parte de educación en la sociedad, y también en los medios, para garantizar que la información que mostréis sea real. Como evoluciona muy rápidamente, a veces es difícil educar a la población al mismo ritmo, y aquí hay un trabajo en conjunto para poder elevar el nivel. Yo en mi casa lo hago con mis hijos, pero no sé si en el resto de las escuelas hablan de ello.
Es popular el aforismo que dice que Estados Unidos inventa, China copia, y Europa regula. ¿Se está aplicando esta situación en el caso de la inteligencia artificial?
No, absolutamente no. China innova. El caso de DeepSeek nos pilló a todos por sorpresa; recuerdo que el día que salió, el teléfono echaba humo. Entender por qué, de repente, tienes un grupo de personas que no estaban en el mapa científico que, con unos recursos tecnológicos que podían considerarse anticuados, un equipo de desarrollo diminuto, y un presupuesto también muy pequeño, en comparación con los de las grandes corporaciones, habían conseguido hacer un modelo que era mucho mejor que cualquier cosa que habíamos visto. China ha cambiado. En las grandes conferencias, un gran porcentaje de los artículos vienen de China. Se han puesto las pilas, y realmente tienen los recursos, es un país muy grande y tienen mucho talento. China ya no copia; China innova, y muchísimo.
"China ha cambiado. Se han puesto las pilas, y realmente tienen los recursos, es un país muy grande y tienen mucho talento. China ya no copia; China innova, y muchísimo"
Estados Unidos innova, obviamente, tienen una política de innovación muy acelerada. ¿Europa regula? Bueno, yo creo que Europa también innova, sería muy fácil decir que no, pero grandes conferencias y algunos de los grandes avances científicos también suceden en Europa. Hay un ojo más puesto en la regulación, que en algunos casos es necesaria. Se debe ir modulando, porque te puedes pasar de frenada y ralentizar el progreso. Europa es más cuidadosa en este sentido, regula, pero creo que es lo correcto, porque si no, esto se convierte en el Far West. Lo hemos visto en Estados Unidos. Con la administración Biden, teníamos una serie de regulaciones sobre IA que eran las correctas: que sea responsable, justa, ética... Y aunque eran muy intensas, hicimos mucho progreso. Pero llegó el señor Trump y las quitó, porque “si no tienes vallas, puedes correr más rápidamente”. Sí, obviamente, si no tienes ningún tipo de regulación puedes hacer lo que te rote, pero tampoco es lo correcto, porque en algún momento hay límites que no puedes sobrepasar. Y si estos límites no son claros, puedes cometer un impacto social o económico que no esperabas. Yo soy feliz de que Europa regule. Al final del día, las cosas se deben hacer bien hechas desde el principio, y no todo puede ser aquello de “en pro de la ciencia, podemos hacer lo que sea necesario”.
Habiendo vivido el mundo profesional de los dos lados del Atlántico, ¿qué tienen de diferente Estados Unidos y Europa en la forma en que afrontan la evolución de la inteligencia artificial?
En Estados Unidos tienen una forma de hacer muy orientada a tener resultados muy rápidamente. “Tenemos que entrenar un modelo en tres meses”. “Es imposible”. “Se tiene que hacer, sí o sí”. Y aquí es cuando la magia sucede: nos estamos jugando el trabajo, ¿qué ciencia debemos hacer en este tiempo comprimido para alcanzar estos objetivos? Empiezas a pensar de una forma, a veces muy creativa, para intentar conseguir aquello que es casi imposible, y entonces el progreso sucede muy rápidamente. En cualquier lugar hay unos deadlines muy estrictos y muy arriesgados, y esto te obliga a correr mucho. Por ejemplo, cuando estás intentando optimizar una función, en vez de ir al mínimo global, vas saltando de mínimo local a mínimo local, pero sabes que vas hacia abajo. También tienes más recursos para cometer errores: en vez de ir perfectamente orientados hacia donde queremos ir, nos desviamos un poco y después corregimos. Es algo que creo que en Estados Unidos hacen muy bien, ir hacia allí a cualquier coste.
En Europa, en cambio, nos lo pensamos más. Tenemos menos recursos, así que debemos ser más eficientes. También hay una cultura de trabajo diferente: en Estados Unidos, tener una semana de 60 o 70 horas de trabajo no era algo excepcional; aquí es impensable. Y es correcto que sea así, no lo defiendo. En Silicon Valley a veces vemos gente que trabajaba días y noches. Europa tiene un buen know-how, tiene la base correcta, y tiene una forma de pensar que es más humana, porque quieres llegar a un lugar, pero no a cualquier coste. Se debe hacer ciencia, se debe hacer investigación, pero detrás hay unas personas que también deben vivir. En Estados Unidos, la gente era fungible: si tú mañana no puedes, te reemplazamos por otra persona. Y como mánager en este mundo, con una formación europea, a mí me costaba digerirlo. Pero también tienen algo muy bueno allí: son muy buenos evaluando compensaciones. Les dices: “Mira, para llegar, tendremos que recortar por aquí, por allá…”. “Me vale”. Es aquello del “better done than perfect” [“mejor hecho que perfecto”].
"En Estados Unidos, la gente era fungible: si tú mañana no puedes, te reemplazamos por otra persona. Y como mánager en este mundo, con una formación europea, a mí me costaba digerirlo"
¿Qué papel juega hoy Catalunya en el desarrollo de esta tecnología?
Catalunya es un generador de talento. Te vas a Silicon Valley o a cualquiera de los focos tecnológicos y al cabo de un rato oyes a alguien que habla catalán. Tienes mucha gente que sale de la UPC, de la UB, de haber trabajado aquí… o gente que sin ser de aquí, han pasado por Catalunya para hacer su tesis. Te das cuenta de que hay mucha gente muy buena que se ha marchado. Tenemos un sistema universitario top, puntero. Al principio, cuando llegué a Estados Unidos, me tomaban el pelo cuando decía que venía de la UPC, me miraban de aquella manera. Y al cabo de un tiempo, hubo alguien que me dijo: “¡Ostras, no sabía que supierais tanto!”. También tenemos el BSC, que es uno de los centros de supercomputación más importantes de Europa, puntero en diseño de chips, en ciencias de la vida, en ciencias de la tierra, en ingeniería… ¿Cómo es que esto ha surgido aquí? Porque hay el talento. Ha acabado siendo un lugar que, cuando en Meta me iba del trabajo y dije dónde iba, me dijeron “guau”. Otro ejemplo: yo cada año voy a la Computer Vision and Pattern Recognition Conference (CVPR), y más allá de los grandes grupos de chinos, indios y americanos, hacemos una cena de los catalanes de la conferencia. Y viene un montón de gente, personas que están en posiciones muy bien colocadas en todo el mundo. Y todos han salido de aquí. Somos 50, no somos un porcentaje pequeño. Catalunya tiene mucho que ofrecer; aparte del talento que exportamos, es un lugar de recibida, con centros como el BSC y otros, y un caldo de cultivo donde hay muchas ideas y surgen muchas startups. Grandes corporaciones han venido aquí: tienes Apple, Google, Microsoft que vienen a Barcelona, ¡y tienen sus sedes de ingeniería aquí! Algo tenemos por ofrecer. El talento está ahí, y lo aprovechan. Es un lugar interesante dentro del panorama. ¿Debemos crecer más? Ojalá. Tenemos que trabajar con el resto de instituciones para ver cómo generas la masa crítica para seguir creciendo. Pero es un problema que creo que tiene solución, y trabajamos para conseguirlo.
El talento está ahí, se genera, pero cuesta retenerlo.
Cuesta retenerlo, obviamente. Depende de lo que quieras hacer en la vida: si quieres hacer un doctorado o trabajar en empresas locales, tienes muchas opciones. El problema es cuando te viene una empresa del exterior, americana, y te pone un sueldo astronómico. Y esto sucede: el otro día vimos cómo Meta contrató a cuatro ingenieros de OpenAI en Zúrich y les puso delante un cheque de más de 100 millones de dólares. Es un caso extremo, pero encontrarás otras corporaciones donde los sueldos que se pagan son mucho más altos, con uno o dos ceros más. Y claro, depende de dónde estés en tu vida profesional tendrás que decidir si estás dispuesto a vivir en la otra punta del mundo y trabajar una infinidad de horas. Pero hay veces que quieres crecer haciendo otras cosas: si quieres hacer ciencia, no debes ir a una gran corporación, porque harás ciencia aplicada para aquello que sea importante para ellos. Y tienes gente que se te queda. En el BSC retenemos a mucha gente porque realmente, de lugares donde hacer ciencia en Europa, este es uno de los pioneros. Hay gente que hace cuántica, gente que hace genómica… Pero depende mucho de qué quieras hacer en la vida. Si tu obsesión es el tema monetario, es difícil competir. Si quieres otras cosas, podemos ofrecerlas. ¿Excelencia científica? Aquí la tenemos.
¿Cómo pueden Barcelona y Catalunya capitalizar el valor de tener instituciones como el BSC, el Sincrotrón ALBA o el sistema universitario?
Yo creo que ya las estamos aprovechando, en el sentido de que recibimos a mucha gente que se forma aquí. El ciclo de vida del BSC es de aproximadamente cuatro años, que es lo que se tarda en hacer un doctorado. Hay mucha gente que viene aquí, se forma, después se marcha, y algunos vuelven. Esto las ciudades ya lo aprovechan. Tenemos programas de startups, nosotros invertimos en ellas, hacemos transferencia tecnológica, hacemos patentes… Intentas crear un tejido empresarial para que la gente se pueda nutrir. ¿Qué más se puede hacer? Continuar con esta veta. Ahora tendremos las AI Factories, que permitirán que empresas pequeñas y medianas que nunca han tenido la oportunidad de tener acceso a recursos de IA con apoyo y asesoramiento, lo tengan de manera gratuita. Aquí el país está invirtiendo para que esto funcione. Recientemente, salió el anuncio de las gigafactorías. Si acaba funcionando y acaba saliendo la gigafactoría que España propuso en Catalunya, dará servicio a toda Europa, pero tendrás una infraestructura de élite en nuestro territorio. Todo esto es como un imán, vas creando tejido, y de aquí surgirán nuevas startups y empresas que serán satélites de estas infraestructuras. El caldo de cultivo lo tenemos, pero hay que seguir empujándolo, siendo competitivos y ver cómo todo esto influye de refilón en la administración. Que ya tenemos un apoyo grandioso por su parte, pero seguir teniéndolo. Roma no se hizo en un día.
El año pasado, la Unión Europea designó el MareNostrum 5 como una de las siete fábricas de IA del programa EuroHPC JU. ¿Qué supone para el superordenador y para el BSC?
Es un cambio importante. Nuestro ordenador, el MareNostrum, siempre ha dado servicio a investigadores, fueran locales o conectados, ya que es compartida en el resto de Europa. El tipo de interacción que tienes con estas personas es muy determinado: saben cómo utilizar la máquina, saben qué quieren hacer con ella, etc. De repente, recibes una inyección de dinero para comprar una cantidad muy grande de GPU que estarán conectadas al MareNostrum 5. Y con esto, una startup que no tiene dinero para hacer su modelo de clasificación de hojas de árboles, pero que les encantaría tenerlo porque le daría mucho valor añadido, pueden pedirnos ayuda. Y nosotros podremos revisar juntos su caso, darle consejo, ofrecerle la máquina y una serie de herramientas para poder entrenar modelos y aprender cómo se hace… De repente, acabas de abrir una ventana para que aquella startup pueda acelerarse. Y si esto lo haces con muchas, porque habrá un proceso de selección, será un catalizador de riqueza dentro del país.
¿Para nosotros qué implica? Montar esta infraestructura, montar todo el apoyo a las startups que llegarán, que cada una tendrá unas particularidades diferentes de las otras. Debemos hacer un equipo de ingeniería que pueda recibirlos, acompañarlos, crear los materiales para que puedan aprender, etc. E iterarlo, porque no lo hemos hecho nunca. Será divertidísimo el primer día. Creo que, al cabo de unas cuantas iteraciones, el modelo será potentísimo. Porque, además, ¡es gratuito! A la empresa no le costará nada, solo que traiga un problema lo suficientemente interesante para que pase el filtro. Creo que esto nos da valor como institución científica que hace transferencia de conocimiento y como catalizador de un impacto que la gente pueda entender. En los próximos 2-3 años, el BSC empezará a abrir el horizonte de lugares donde estamos impactando. Y será superinteresante.

¿Qué plazos hay previstos?
Ahora están acondicionando la capilla, conectando las tuberías de agua fría, el soporte eléctrico... Cuando esto esté, tendremos que montar la extensión, que no es como ir al PC World y comprártelo tú, es un proceso complicado. Pero una vez estén todas las piezas, en 2026 esto ya estará operativo. Será entonces cuando empezará a venir gente, pequeñas y medianas empresas, y nos interesará ver qué dicen.
En la lucha por recuperar la soberanía tecnológica, los chips y semiconductores son señalados como una prioridad por la UE. Uno de los grandes proyectos para dar respuesta es DARE, liderado por el BSC. ¿En qué consiste?
Actualmente, estamos en una posición en la que casi toda la tecnología que se utiliza para crear IA o para cualquier cosa viene de Estados Unidos o viene de Asia. Europa tiene una gran dependencia tecnológica: cuando se compran GPU de Nvidia, como es casi un monopolio, tienes muy poco margen para negociar. Desde un punto de vista estratégico, no es sostenible. Y de aquí surge el clamor de cómo creamos semiconductores, GPU, CPU y toda la cadena necesaria para que podamos sobrevivir sin dependencia de los demás. Hace falta mucho tiempo para desarrollar un tejido de chips europeos; Mateo Valero lleva 20 años trabajando en ello.
El Proyecto DARE surge como una iniciativa multi stakeholder en Europa, con la participación de muchos países y empresas que ponen recursos, y liderada por el BSC, con el objetivo final de generar una serie de chips que permitirán seguir sosteniendo el crecimiento de la industria y de la IA, y será hecho en Europa. Requiere una colaboración monstruosa, unos recursos muy elevados y conseguir que todo el mundo se entienda. Si todo sale bien, el objetivo es que el futuro MareNostrum 6 tenga ya algunos procesadores que sean parte de esto, y quizás el 7 o el 8 ya serán completamente hechos en Europa. Y así hacemos un contrapeso con los otros jugadores: “No, mire, a partir de ahora nos lo hacemos nosotros”. Esto tiene otras implicaciones: si tienes infraestructuras críticas que tienen semiconductores de terceros, puede ser que tengan backdoors o comportamientos no documentados. Cuanto más control tengas, más seguridad. Es crítico que Europa diseñe sus propios semiconductores. Punto. ¿Tardaremos más o menos? Sí. ¿Lo conseguiremos? No lo dudo.
"Si tienes infraestructuras críticas que tienen semiconductores de terceros, puede ser que tengan 'backdoors' o comportamientos no documentados"
Ya empezáis a hablar del MareNostrum 6. ¿En qué estado se encuentra y qué podemos esperar de la nueva generación del supercomputador?
El MareNostrum 6 llegará en 2029. Dentro de poco empezaremos a trabajar en las especificaciones de la máquina. Ahora mismo no tenemos nada, todavía estamos celebrando que tenemos el 5. Los presupuestos, qué grande tiene que ser, la potencia... Ahora empezamos a tratar todo esto para que, cuando llegue 2029, tengamos lo que queremos tener. Continuaremos con la tendencia de hasta ahora y será una máquina que sirva a la ciencia. Vemos que ahora pasa por IA, así que es muy probable que sea una máquina con un gran componente de aceleradores gráficos y de IA, idealmente hechos en Europa. Esperamos que el proyecto DARE ya haya llegado a un grado de madurez suficientemente avanzado para poder utilizar esta tecnología. Empezaremos a hablar ya, porque muchos de sus componentes tardarás un tiempo en recibirlos, así que se tienen que empezar a preparar los pedidos con mucha antelación.