
La Fundación “la Caixa” ha compartido este martes la experiencia de cuatro de los 100 estudiantes beneficiarios de las Becas de posgrado en el extranjero de 2024, el programa que la entidad impulsa para financiar económicamente los estudios postuniversitarios en el Espacio Europeo de Educación Superior (EEES), América del Norte o Asia-Pacífico. El programa acumula más de 219 millones de euros de inversión acumulada desde su inicio en 1982, y en la edición del año pasado recibió un total de 1.045 solicitudes.
Entre los 100 estudiantes seleccionados se encuentra Albert Gimó, corberense que después de cursar el doble grado en Matemáticas y Ciencia de Datos en el Centro de Formación Interdisciplinaria Superior (CFIS) de la UPC, inició un máster en Matemáticas y Visión y Aprendizaje en la Université Paris-Saclay (Francia). “Siempre me han gustado las matemáticas”, explica Gimó, que descubrió su vocación a través de los juegos de lógica y los problemas de álgebra durante su infancia. La afición que compartía por las tardes con su padre acabaría marcando el rumbo de sus estudios.
Durante su estancia en París, Gimó ha orientado su investigación a evitar o mitigar los efectos adversos que se derivan de entrenar los algoritmos de inteligencia artificial con datos sesgados. Buena parte de sus esfuerzos se centran en los modelos de lenguaje de gran escala, como ChatGPT, cuyo entrenamiento se divide en dos fases: una primera, no supervisada, en la que el modelo aprende patrones lingüísticos a partir de enormes volúmenes de datos, y una segunda, en la que se intenta que ajuste sus respuestas a valores o preferencias humanas. Es en este punto donde emerge uno de los grandes retos: “Es complicado poner números o hacer rankings para comunicar al modelo lo que para nosotros es intuitivo. Tenemos una cierta noción de cuándo nos resulta útil una respuesta, pero cuesta traducirlo a una métrica”.
Con un enfoque a caballo entre lo técnico y lo humano, Gimó advierte del peligro de investigar sin tener en cuenta a quién afectan los desarrollos. “Es fácil perderse en el ciclo [vicioso] de publicar artículos, encontrar nuevos métodos, participar en conferencias… y olvidar el impacto de nuestro trabajo sobre la gente”. Por eso, apuesta por una IA en la que las decisiones técnicas se fundamenten también en saberes filosóficos o psicológicos. Sin esta mirada integral, dice, el riesgo de desconexión con el mundo real es “demasiado alto”.
La ética detrás del desarrollo tecnológico
Otra de las becadas por el programa de la Fundación “la Caixa” es Belén Luengo Palomin, que ha cursado un máster en Ética Aplicada y Política en la Duke University (Estados Unidos). A pesar de estudiar Derecho y Estudios Internacionales en la Universidad Carlos III de Madrid, Luengo siempre ha tenido un gran interés en la tecnología. En su estancia en Estados Unidos, Luengo se enfoca en el desarrollo de tecnologías que promueven la equidad y el empoderamiento de comunidades tradicionalmente marginadas y personas con discapacidad.
Colabora con The NeuroRights Foundation, donde trabaja en la defensa de los derechos mentales ante el auge de las neurotecnologías. “Uno de los usos habituales de la IA en este campo es aplicarla en interfaces cerebro-ordenador para permitir, por ejemplo, que las personas con ELA recuperen habilidades comunicativas. Es algo que te puede cambiar la vida, ya que ayuda a paliar el síndrome del cautiverio”, detalla. La estudiante cree firmemente que la tecnología no es neutral y que, por el contrario, refleja las prioridades humanas: “Desgraciadamente, en el mundo hay gente con buenas y con malas intenciones, y la IA es un catalizador”. Tanto progreso frenético, comenta, “nos obliga a estar constantemente replanteándonos qué sociedad queremos construir y hacia dónde queremos avanzar”. La clave, sostiene con optimismo, está en volver a colocar la filosofía en el centro antes de que la velocidad no decida por nosotros.
La aplicación de la IA en el mundo de la salud
Quien también enfoca su futuro académico en el mundo de la inteligencia artificial es Gonzalo Plaza Arriola, quien realizará un máster en Inteligencia Artificial aplicada a Biomedicina y Asistencia Sanitaria en la University College London (Reino Unido). Desde que comenzó a estudiar Ingeniería Biomédica, Plaza tenía claro que su camino profesional estaría vinculado a la salud. La IA apareció como un instrumento que, además de una revolución digital, conllevaba infinitas posibilidades clínicas. Ahora, además del máster, el estudiante colabora con el centro pediátrico Great Ormond Street Hospital en proyectos que integran modelos de IA en entornos clínicos sensibles.
La neuroingeniería, en la que la IA permite detectar patrones en señales cerebrales que son invisibles al ojo humano, es uno de sus principales intereses: “Fue como un flash. ¿Cómo puede ser que de la materia surja nuestro pensamiento?”. Lo que más le entusiasma es su potencial para humanizar la medicina automatizando tareas repetitivas para dar al médico más tiempo y presencia. “¿Cuántas veces hemos ido a consulta y hemos tenido un minuto para explicar lo que nos pasa mientras el médico teclea en el ordenador? Su trabajo no es rellenar una ficha, sino escuchar al paciente”, reivindica. Para Plaza, la IA debe ser una herramienta de apoyo clínico, no un sustituto del juicio humano. Por eso insiste en que el personal sanitario debe entender cómo funcionan los modelos y qué significan realmente sus salidas. “No es un ente responsable, ni ética ni jurídicamente. No razona en el sentido en que nosotros lo entendemos”, explica. Le preocupa tanto el mal uso como el despilfarro de su potencial: hospitales sin sistemas interoperables, datos desordenados, información médica desaprovechada. “Una IA de calidad solo se puede construir con datos de calidad. Y estos datos están aquí. Solo hay que saber ordenarlos”.
Telescopios y algoritmos
Pero la inteligencia artificial no se limita únicamente al ámbito terrestre. El espacio y los astros siguen generando la misma fascinación entre los jóvenes que la que sentían los griegos clásicos, como demuestra Júlia Laguna, quien se interesó en el mundo de la cosmología a través de los documentales que veía con los padres. Esta fascinación comenzó a tomar forma con el doble grado de Física y Matemáticas que estudió en la Universidad Autónoma de Barcelona (UAB) y que ahora confirma con un doctorado en Astronomía en la Cambridge University (Reino Unido). Su campo de investigación, lejos de la imagen romántica del telescopio, está lleno de códigos, algoritmos y volúmenes descomunales de información. Trabaja con objetos cuasi estelares —fuentes de luz intensísima en el centro de galaxias lejanas— para comprender mejor la evolución del cosmos. En este contexto, la IA no es un complemento, sino una necesidad. “La nueva generación de telescopios generará cantidades astronómicas de datos. La única manera de aprovecharlas es con IA”, afirma. Lo que antes se analizaba a escala humana hoy solo se puede abordar con modelos automatizados capaces de detectar patrones complejos en tiempo real.
No obstante, Laguna es crítica con el entusiasmo desmesurado que orbita el sector. Apuesta por modelos más simples, interpretables y fiables: “Es fácil dejarse llevar por las nuevas tendencias”, advierte, “pero hay que priorizar las que entendemos mejor para poder explicar los resultados”. Aunque confía en el beneficio que estas tecnologías pueden desbloquear, no olvida los riesgos: “Como toda revolución, la IA arrastra desventajas. Mientras se utilice con cabeza, irá bien. El problema es que quizás no veamos los efectos negativos hasta dentro de diez años y, entonces, quizás ya sea tarde”. Más que poner en funcionamiento técnicas pioneras, el reto para minimizar las posibles consecuencias que se puedan desencadenar es comunicar la utilidad que tiene al conjunto de la población con honestidad. “Generar confianza es clave”, subraya. Porque, si bien su investigación apunta al cielo, su convicción es muy terrenal: el conocimiento, cuando se comparte, también puede mejorar la vida aquí abajo.