
Hace ya casi una década que el Sónar+D actúa como termómetro para calibrar en qué grado de adopción se encuentran las nuevas tecnologías digitales y qué preocupaciones orbitan a su alrededor. No es ninguna sorpresa, pues, que la protagonista casi omnipresente de este año sea la inteligencia artificial, una tecnología que ya hace años que se deja ver en el hermano innovador y alternativo del Sónar. Pero si algo demuestra el festival de 2025 es que cuando hablamos de algoritmos, ya no hablamos de futuros imaginables, sino de presentes a los que hay que dar solución con presteza.
Encontramos un ejemplo claro en una noticia reciente: la demanda interpuesta por Disney y Universal a Midjourney este mismo miércoles por la infracción de derechos de autores en los entrenamientos de sus modelos de IA generativa. Un texto de más de 100 páginas en el que las multinacionales identifican más de 150 obras cuyos derechos de autor han sido supuestamente vulnerados y por los cuales piden una compensación conjunta de más de 20 millones de dólares. “Es un tema que no está nada resuelto y estamos en el corazón de la cuestión. Hay un camino que saldrá de todo este expolio gigante que ha habido para generar estos modelos a partir de toda la información que hemos volcado en internet durante décadas. Habrá años de juicios y mecanismos judiciales que generen una jurisprudencia que nos permita continuar hacia adelante, que no sé si será definitivo”, valora el director del grupo de Analítica y Visualización de datos del Barcelona Supercomputing Center (BSC), Fernando Cucchietti.

El BSC participa en el Sónar+D mano a mano con la cantante Maria Arnal, que durante el festival presentará su nuevo espectáculo Ama, codesarrollado con el BSC en un ejercicio combinatorio de música e inteligencia artificial. Este proceso creativo, llamado Voces expandidas, se ha presentado en el Project Arena del Sónar+D con una instalación que busca divulgar el funcionamiento interno de las IA generadoras de sonido. A través de un micrófono, los visitantes pueden grabar durante 10 segundos su voz, ya sea cantando, hablando o haciendo los ruidos que deseen, y los modelos desarrollados por el BSC -a partir de miles de horas de grabación de la voz cantada de Arnal- transforman el timbre de la captación del usuario en la voz de la cantante catalana. Este proceso es representado visualmente en una pantalla, donde se ve una nube de puntos en tres dimensiones, en la que cada punto representa un sonido específico. Cuando el modelo reproduce la voz con el timbre convertido, ilumina todos aquellos puntos que se han identificado en la grabación inicial. “Para nosotros es muy importante trasladar los conocimientos de la IA a la sociedad, que no sea una caja negra”, remarca Cucchietti, quien también ve en la iniciativa una oportunidad para mostrar a los artistas cómo emplear estas tecnologías “de una manera responsable, pero también innovadora y creativa”.
De entre los múltiples materiales que la inteligencia artificial y muchas otras tecnologías digitales buscan para alimentarse a sí mismas, las caras de las personas son uno de los datos más preciados. Esta es la idea central de Interfaciality, la obra que la artista estadounidense-neerlandesa Jessica Tucker ha presentado en el Sónar+D. Como si se tratara de un fotomatón, la instalación propone al visitante hacerse tres fotos en posiciones diferentes, de las cuales un sistema de inteligencia artificial anonimizará los rostros y captará únicamente el contorno, a través del cual el modelo generará tres fotografías rellenadas con su propia interpretación de la cara de la artista. “Quiero hablar sobre cómo vivimos en una realidad de vigilancia, determinada por una visualidad voyeurística, que es la manera como nos vemos a nosotros mismos y a los demás a través de las tecnologías digitales. Lo quiero mostrar de una manera ridícula, absurda, distorsionada y extraña”, explica la autora. “Dándole a la máquina lo que quiere -las caras-, pero también escondiendo lo que realmente puede ver -a través de la anonimización-”, Interfacility busca visibilizar los “paralelismos” entre la tendencia natural de los humanos a buscar rostros allí donde no los hay (lo que se conoce en psicología como pareidolia) con “el anhelo” que las máquinas actuales tienen por nuestras caras.
Más allá del proceso de creación y alimentación de estos modelos, la IA también despierta preocupaciones sobre las consecuencias que puede tener su uso ya consolidado. La generación de textos, sonidos, imágenes o vídeos cada vez más verosímiles alerta a aquellos preocupados por los efectos que pueden tener (y que ya tienen) los contenidos artificiales en la desinformación y la manipulación de narrativas. Unos “tiempos de control algorítmico” en los que se contextualiza la experiencia Are boundaries real, or do we draw them to feel whole, una obra elaborada por el colectivo milanés Umanesimo Artificiale que busca reflexionar sobre “las fronteras entre la realidad, la virtualidad y el ser humano a través de sus recuerdos y su actividad cerebral”, según explica la miembro del equipo Giulia Bellone. El proyecto invita a los visitantes a sentarse delante de una pantalla vertical mientras el equipo le coloca en la cabeza unos auriculares para captar las ondas eléctricas de su cerebro. En un ejercicio performativo, esta información se “transmitirá” al P1, el humano virtual representado en la pantalla, en forma de un recuerdo audiovisual pregenerado con inteligencia artificial. Con esta narrativa de implantación de recuerdos, los autores quieren hacer que la audiencia se cuestione “qué querrá decir ser humano en un futuro en el que incluso los aspectos más íntimos de la identidad podrán ser fruto de la ingeniería artificial”.

Con todo, el alcance transformativo de la IA no se limita al ámbito humano, sino que afecta a todo el planeta, principalmente a través del aumento de consumo de electricidad y de emisiones de gases contaminantes que supone su uso masivo. Es una consecuencia que un grupo de alumnos de ELISAVA ha querido representar visualmente a través de Bot Pollution, un chatbot basado en la inteligencia artificial francesa Mistral AI creado específicamente para visualizar el impacto medioambiental que tienen los chatbots como ChatGPT, Gemini o Copilot. “La inteligencia artificial está hoy muy on fire, todo el mundo la usa y no paran de salir cosas nuevas, y queríamos mostrar que debemos ser conscientes sobre la contaminación que genera”, explican sus creadoras, Carla Olivares y Ángela Escudero. La particularidad de su creación es que, después de cada respuesta dada a las preguntas hechas por el usuario, la herramienta informará sobre cuántos gramos de dióxido de carbono ha generado aquella interacción, que compara también con el número de cigarrillos encendidos que equivaldría. A medida que se avanza en la conversación, la pantalla se va oscureciendo, y cuando se llegan a los 15 gramos de CO2 acumulados, el chat se bloquea y no permite volver a interactuar hasta pasadas 24 horas. Esta información surge de un cálculo medio de lo que generan las principales opciones comerciales de esta tecnología, teniendo en cuenta factores como el consumo de los servidores, internet y las bases de datos. “Debemos ser conscientes a la hora de preguntar y usar la inteligencia artificial”, reclaman.
¿Inteligencia artificial? No, vegetal
Dentro de esta reivindicación de la importancia del planeta en un mundo cada vez más digital, una de las sorpresas que puede llevarse el visitante del Sónar+D -y que no es nueva de este año- es la cantidad de instalaciones que incorporan plantas y otros seres naturales en su propuesta. La que probablemente capta más la atención desde un buen inicio es Chemical Calls of Cure.2, una propuesta que su autora, Yolanda Uriz, define como “un teléfono de ciencia ficción” para “establecer mecanismos de comunicación con seres no humanos”, como son las plantas. Estas ‘conversaciones’ se establecen a través de dos plataformas: en la primera, los usuarios pueden hacer llegar una serie de líquidos naturales beneficiosos a las plantas que hay conectadas a través de una serie de tubos, mientras que en la segunda, que actúa como una especie de extractor de cocina, se pueden oler las fragancias combinadas de estas plantas. Este proceso no se limita al sentido olfativo, sino que también tiene en cuenta el sonoro y el del tacto. Cada una de las plantas tiene instalado un sensor de gas que capta las emisiones que generan, las cuales después son traducidas a información sonora que se transmite con la vibración que se nota en los pies de la base de las plataformas, “como si fueran las raíces de un árbol”. El proyecto quiere “concebir la naturaleza no como algo diferente de los seres humanos, sino como un contexto del que también formamos parte”, estableciendo “relaciones horizontales con otras especies” que quieren alejarse del antropocentrismo.
Porque sí, la comunicación y el lenguaje verbal se han identificado tradicionalmente como un rasgo característico, exclusivo y distintivo del ser humano, pero esto no quiere decir que las otras especies no se comuniquen entre sí. Lo hacen los animales, lo hacen los hongos, y también lo hacen las plantas, como reivindican los investigadores María Castellanos y Alberto Valverde con la instalación Otras inteligencias. “Se sabe que, en la naturaleza, los árboles de los bosques se comunican entre ellos, se envían información e incluso comparten nutrientes, y quisimos emularlo usando la tecnología, conectando diferentes plantas en diferentes puntos del mundo a través de internet”, detalla Castellanos. Para demostrarlo, el equipo instaló unos sensores que miden la actividad eléctrica de las plantas, una información con la que determinaron la curva eléctrica de los organismos analizados. Estas señales son enviadas a través de la red y transmitidas físicamente a las otras plantas a través de una palanca de material blando y de un led instalados al lado de las otras plantas, los cuales les permiten recibir la información.

“Cuando iniciamos el proyecto, al principio queríamos usar inteligencia artificial”, confiesa Castellanos, pero decidieron cambiar de táctica después de recibir el consejo del académico Stefano Mancuso durante la estancia de postdoctorado de la investigadora en la Oslo Metropolitan University: “Las plantas tienen su propia inteligencia, ¿estás segura de que necesitas inteligencia artificial?”. Así que, confiando en esta inteligencia vegetal, el equipo montó la red y esperó a ver cómo reaccionaban las plantas. “Al principio era todo muy aleatorio, pero al cabo de tres semanas vimos cómo las plantas habían aprendido a usar esta tecnología. Vimos patrones “de amistad” entre plantas, y casos como que cuando una planta se caía de la red, alguna otra insistentemente quería volver a hablar con ella”, desvela Castellanos. Un proyecto que sus autores confían en que pueda servir para "pensar sobre posibles futuros, hacernos preguntas y darnos cuenta de todo lo que tenemos que aprender sobre las plantas".