
Toda nueva tecnología que irrumpe en el mercado y en la sociedad pasa por unos primeros momentos de éxtasis, en los cuales inversores y emprendedores buscan todos los nichos disponibles para explotar, a menudo sucedida por una relajación, a veces asociadas al estallido de la burbuja. Este es, de hecho, el mismo camino que han seguido las consideradas las “cinco grandes revoluciones tecnológicas que hemos vivido” en las últimas décadas, según el jefe de relaciones de analistas de IA generativa de Amazon Web Services (AWS), Albert Esplugas: “Al principio todo parece una maravilla y que lo arreglará todo; después, creemos que tampoco es para tanto, y al final, le encontramos el valor adecuado”. Así se han comportado el ordenador personal, internet, el móvil y la nube, y de acuerdo con Esplugas, en este mismo trayecto se encuentra ahora mismo la inteligencia artificial: “Ahora empezamos con la caída, pero sigue siendo una herramienta maravillosa”.
Así se ha expresado el directivo de AWS este miércoles en el AI Congress, el evento organizado por el CIDAI y Eurecat que, un año más, ha puesto el foco en la inteligencia artificial. El interés por la tecnología no es nuevo: la de este año es ya la undécima edición del congreso, que hasta esta edición se llamaba AI & Big Data Congress. Y es que, como bien ha recordado el secretario de Telecomunicacions i Transformació Digital de la Generalitat, Albert Tort, durante la inauguración de la cita, “es evidente que sin datos no hay inteligencia, tampoco artificial”.
Unos datos que, a pesar de caer del nombre del evento, siguen jugando un papel fundamental en sus conferencias. “Para entrenar los modelos fundacionales, [las empresas] necesitan datos, y la mayoría los extraen de internet”, ha remarcado Esplugas. Fuente de información que, a pesar de haberse considerado inagotable en su momento, empieza a quedarse corta para las grandes tecnológicas: “Los modelos ya se han comido internet y YouTube, y el siguiente paso es la telemetría de los relojes, coches y teléfonos móviles”. Esta nueva categoría de datos permitirá, según Esplugas, crear “world models”, es decir, modelos que “entenderán la física del mundo”.
Pero mientras no llegan estos nuevos modelos, las compañías se empiezan a encontrar con lo que se denomina el problema 17: si se pide a cualquier modelo de lenguaje extenso (LLM, por sus siglas en inglés) que diga un número entre el uno y el 25, casi siempre escogerá el que da nombre al problema. “Si yo utilizo un LLM y mi competidor también, haremos lo mismo”, ha señalado Esplugas. Ante esta disyuntiva, el profesional de AWS señala el entrenamiento de modelos específicos, con información interna de la empresa, como la vía para conseguir sistemas “más pequeños y específicos, pero especializados” en el área de experiencia de la organización. Los métodos son múltiples, y van desde simples prompts con suficiente contexto para actuar, procesos de generación aumentada de recuperación (RAG, por sus siglas en inglés) o afinación (fine-tuning) de modelos más grandes; hasta el entrenamiento de modelos propios, más pequeños, pero también “más baratos, con menos latencia y menos alucinaciones”.
¿El retorno de la nube a la computación local?
La mayoría de estos modelos de lenguaje llegan a la sociedad gracias a la computación en la nube: las peticiones que el usuario envía a través del chat de ChatGPT, Gemini o Copilot se envían a los centros de datos de la compañía, de los cuales se utiliza la gran capacidad de computación que tienen para generar las respuestas que después se devuelven. Pero también existe una alternativa, la llamada inteligencia artificial en el extremo, o Edge AI en inglés. “En el Edge AI trasladamos la computación del modelo al dispositivo: acercamos la capacidad de cálculo donde más cerca se genera el dato”, ha explicado el director general de Infini, Jaume Clotet.
Esta técnica, que intuitivamente puede sonar como un paso atrás si nos fijamos en la evolución de la computación tradicional, persigue una serie de objetivos muy concretos. El primero de ellos es la latencia, que se refiere a la velocidad que tarda el sistema en recibir una orden y dar la respuesta. “Cuando consumes un modelo en remoto, se ve condicionado por la conexión. Si está en el mismo dispositivo, puede bajar por debajo de los 30 milisegundos”, ha asegurado Clotet. Vinculado a este aspecto, las IA en el extremo también permiten ser operadas fuera de línea, lo que elimina la conexión a internet como un requisito imprescindible para usar estas herramientas, una característica especialmente valorada “en sistemas críticos como la salud o la industria”.
La IA en el extremo abandona la nube para trasladar la computación al dispositivo en local, reforzando la privacidad y la latencia de información
El tercer punto es, también, uno de los más priorizados por las compañías: la privacidad. Como no están conectados a la nube y operan en local, todos los datos e informaciones introducidas en el sistema quedan cerradas dentro de este, de manera que se pueden evitar fugas de información delicada o confidencial. Finalmente, el último punto es el económico. A pesar de que la implementación de una IA en el extremo requiere una inversión inicial mucho más elevada que el uso de modelos en la nube, su coste por uso es mucho más reducido que la otra variante: “Cuando las empresas despliegan Copilot u otros modelos, tienen que acabar limitando el consumo, tanto por privacidad como por costes”.
Todas estas razones han impulsado a los fabricantes de maquinaria a empezar a incorporar un nuevo componente a los ordenadores: si hasta ahora hablábamos de las CPU (unidades centrales de procesamiento) y de las GPU (unidades de procesamiento gráfico), ahora también hay que sumar al vocabulario las NPU o unidades de procesamiento neuronal. “El 43% de los nuevos ordenadores ya salen con NPU integradas”, ha indicado Clotet, una apuesta a la que ya se han sumado compañías como HP, que en el acto del 40º aniversario de su presencia en Catalunya confirmaba que el 25% de todos sus ordenadores ya integran este tipo de chips.
¿Estamos, pues, ante un futuro retorno a la computación en local y del abandono de la nube? Tanto Clotet como Esplugas tienen claro que no, que el camino hacia donde se avanza es el de la hibridación y la combinación de técnicas. “Las nuevas tecnologías nunca han sustituido del todo a las anteriores. Es la suma de todas ellas la que da la mejor de las soluciones”, ha remachado el director de relación de analistas de IA generativa de AWS. De hecho, Esplugas ha apuntado hacia una computación híbrida que no solo mezclará el uso de CPU, GPU y NPU, sino que también incorporará otros elementos, como la computación cuántica —de la cual ha puesto como ejemplo la combinación que ya se da en el Barcelona Supercomputing Center (BSC)—, la neuromórfica, la fotónica… “Y llegará un momento, quizás a diez años vista, que tendremos proceso sobre carbono, computación biológica”, se ha atrevido a predecir.

Una transformación laboral que requiere soberanía tecnológica
Todas estas evoluciones provocarán, y de hecho ya provocan, cambios sustanciales en el modelo de mercado laboral que conocemos hoy. De entrada, Esplugas los ha agrupado en tres grandes categorías: los procesos internos de las empresas (el “backend”, lo ha llamado, recurriendo a la comparación informática), la experiencia del cliente y la productividad y creatividad de los trabajadores. Una generalización de la cual han surgido ejemplos concretos, como estudios de mercado elaborados con “personas digitales” que reproducen con exactitud segmentos muy concretos de público potencial, especialidad de empresas como Yabble o PersonaPanels; o bien interfaces con las que, a través de tecnología portable (wearables), podemos comunicarnos con sistemas informáticos a través de ondas cerebrales, como están intentando en la spin-off del MIT AlterEgo.
Ante este contexto, y del dominio del sector ejercido hasta ahora por Estados Unidos y China, es comprensible que haya nacido una alarma sobre la necesidad de asegurar una inteligencia artificial soberana en el continente. “En Europa, la IA soberana empieza a surgir. Hemos visto mucho interés en los países sobre qué es este concepto y por qué es importante”, ha relatado el vicepresidente en supercomputación, educación superior e IA para Europa de Nvidia, Rod Evans. El experto ha señalado el Plan de Acción para el Continente de la IA lanzado por la Comisión Europea el pasado mes de febrero o los proyectos de las gigafactorías de IA —una de las cuales se ubica en el BSC de Barcelona— como dos ejemplos de esta preocupación.
A juicio de Evans, existen cinco componentes principales que permiten avanzar hacia la soberanía en inteligencia artificial. El primero de ellos es lo que el representante en Europa de Nvidia ha definido como AI Imperative, es decir, asegurar las capacidades domésticas de la tecnología para acompañar el crecimiento económico, la seguridad nacional, la preservación cultural y la innovación. También hay que contar con un ecosistema continental de inversores, desarrolladores, científicos, emprendedores y clientes empresariales, junto con gobiernos que lo apoyen.
En tercera instancia, Evans ha mencionado una fuerza de trabajo capacitada para trabajar con IA, uno de los principales frenos que experimenta China en estos momentos, según el experto. El cuarto punto es la disponibilidad de modelos y datos locales, sean entrenados desde cero en los países europeos o bien reentrenados y afinados, de manera que toda la infraestructura sea alojada y operada desde Europa y sujeta a las leyes continentales. Finalmente, el último elemento son las llamadas factorías de IA, que hay que poseer, operar y gobernar desde Europa.
Atendiendo a estos cinco puntos, Evans ha destacado la posición del Estado español para convertirse “en uno de los puntos calientes para acoger centros de datos” que habiliten la fuerza de computación que necesita la IA. La disponibilidad de grandes terrenos libres y el acceso a energía renovable de bajo coste son los principales motores, a los que también apoyan las infraestructuras tecnológicas de las que el Estado ya dispone en este ámbito, principalmente el BSC de Barcelona.
Las preguntas, más importantes que las respuestas
Durante toda la jornada inicial del AI Congress, los ponentes han buscado dar respuestas a los interrogantes, esperanzas y temores que genera la inteligencia artificial. ¿Pero son las respuestas, realmente, aquello a lo que debemos dirigir el foco? “Estamos en un entorno en el que la IA nos puede dar todas las respuestas, sean cuales sean, ciertas o no”, ha remachado el ingeniero informático, CEO de Mortensen y socio de Sorensen Josep Maria Ganyet. Para el experto, “la primera pregunta que nos tenemos que hacer es si esto sirve para algo, y a quién sirve”.
De preguntas ha versado su ponencia, como ya anticipaba el mismo título, Si la IA es la respuesta, ¿cuál era la pregunta?. Porque Ganyet tiene claro que “en un entorno como el actual, altamente tecnológico, en el que tecnología y poder son sinónimos, hacerse las preguntas equivocadas será la manera más eficiente de llegar al fracaso”.
Ganyet: “Hacerse las preguntas equivocadas será la manera más eficiente de llegar al fracaso”
Una en las que ha dedicado más atención ha sido la de la misma definición del término: ¿qué es la inteligencia artificial? El director de Mortensen ha repasado la historia del concepto, desde que en los años 50 Alan Turing lo asoció a un debate filosófico hasta que la palabra entró de lleno en el mundo científico-tecnológico en el año 56, con su acuñación en la Conferencia de Dartmouth. “En los años 60 se convierte en una cuestión de biología; en los 80, un sinónimo de conocimiento; en los 2000, con los datos masivos, un tema de datos y aprendizaje; en 2010, el aprendizaje profundo, y hasta 2020, una percepción de inteligencia”, ha enumerado Ganyet. “En el 22, con los LLM, resulta que ahora es una cuestión epistemológica”, ha continuado, hasta llegar a 2025, año en que la imagen de Donald Trump jurando el cargo en la Casa Blanca es el momento en que “la IA se equipara al poder”.
Porque al final, “esto va de poder y de recursos, de quién paga el coste, quién recoge los beneficios y quién controla el interruptor”, ha continuado. Parafraseando a Josep Pla: “¿Y todo esto, quién lo paga?”. Una lucha por el poder que, como avanzábamos antes, tiene en China y Estados Unidos a sus principales contendientes, cosa que también tiene efectos de percepción geopolítica: “El nuevo mapa político del mundo es con el océano Pacífico en medio, con Estados Unidos a un lado y China a otro. Y Europa, allá arriba, en un rinconcito”.