
Fa ja gairebé una dècada que el Sónar+D actua com a termòmetre per calibrar en quin grau d’adopció es troben les noves tecnologies digitals i quines preocupacions orbiten al seu voltant. No és cap sorpresa, doncs, que la protagonista gairebé omnipresent d’enguany sigui la intel·ligència artificial, una tecnologia que ja fa anys que es deixa veure al germà innovador i alternatiu del Sónar. Però si una cosa demostra el festival de 2025 és que quan parlem d’algoritmes, ja no parlem de futurs imaginables, sinó de presents a què cal donar solució amb prestesa.
En trobem un exemple clar en una notícia recent: la demanda interposada per Disney i Universal a Midjourney aquest mateix dimecres per la infracció de drets d’autors en l’entrenament dels seus models d’IA generativa. Un text de més de 100 pàgines en què les multinacionals identifiquen més de 150 obres els drets d’autor de les quals han estat suposadament vulnerats i pels quals demanen una compensació conjunta de més de 20 milions de dòlars. “És un tema que no està gens resolt i estem al cor de la qüestió. Hi ha un camí que sortirà de tot aquest espoli gegant que hi ha hagut per generar aquests models a partir de tota la informació que hem bolcat a internet durant dècades. Hi haurà anys de judicis i mecanismes judicials que generin una jurisprudència que ens permeti continuar cap endavant, que no sé si serà definitiu”, valora el director del grup d’Analítica i Visualització de dades del Barcelona Supercomputing Center (BSC), Fernando Cucchietti.

El BSC participa al Sónar+D braç a braç amb la cantant Maria Arnal, que durant el festival presentarà el seu nou xou Ama, codesenvolupat amb el BSC en un exercici combinatori de música i intel·ligència artificial. Aquest procés creatiu, anomenat Veus expandides, s’ha presentat al Project Arena del Sónar+D amb una instal·lació que busca divulgar el funcionament intern de les IA generadores de so. A través d’un micròfon, els visitants poden enregistrar durant 10 segons la seva veu, sigui cantant, parlant o fent els sorolls que desitgin, i els models desenvolupats pel BSC -a partir de milers d’hores d’enregistrament de la veu cantada d'Arnal- transformen el timbre de la captació de l’usuari en la veu de la cantant catalana. Aquest procés és representat visualment en una pantalla, on es veu un núvol de punts en tres dimensions, en què cada punt representa un so específic. Quan el model reprodueix la veu amb el timbre convertit, il·lumina tots aquells punts que s’han identificat a l’enregistrament inicial. “Per nosaltres és molt important traslladar els coneixements de la IA a la societat, que no sigui una caixa negra”, remarca Cucchietti, qui també veu en la iniciativa una oportunitat per mostrar als artistes com emprar aquestes tecnologies “d’una manera responsable, però també innovadora i creativa”.
D’entre els múltiples materials que la intel·ligència artificial i moltes altres tecnologies digitals busquen per alimentar-se a si mateixes, les cares de les persones són una de les dades més preuades. Aquesta és la idea central d’Interfaciality, l’obra que l’artista estatunidenca-neerlandesa Jessica Tucker ha presentat al Sónar+D. Com si es tractés d’un fotomaton, la instal·lació proposa al visitant fer-se tres fotos en posicions diferents, de les quals un sistema d’intel·ligència artificial anonimitzarà els rostres i captarà únicament el contorn, a través del qual el model generarà tres fotografies emplenades amb la seva pròpia interpretació de la cara de l’artista. “Vull parlar sobre com vivim en una realitat de vigilància, determinada per una visualitat voyeurística, que és la manera com ens veiem a nosaltres mateixos i als altres a través de les tecnologies digitals. Ho vull mostrar d’una manera ridícula, absurda, distorsionada i estranya”, explica l’autora. “Donant-li a la màquina allò que vol -les cares-, però també amagant allò que realment pot veure -a través de l’anonimització-”, Interfacility busca visibilitzar els “paral·lelismes” entre la tendència natural dels humans a cercar rostres allà on no n’hi ha (el que es coneix en psicologia com a pareidolia) amb “l’anhel” que les màquines actuals tenen per les nostres cares.
Més enllà del procés de creació i alimentació d’aquests models, la IA també desperta preocupacions sobre les conseqüències que pot tenir el seu ús ja consolidat. La generació de textos, sons, imatges o vídeos cada vegada més versemblants alerta aquells preocupats pels efectes que poden tenir (i que ja tenen) els continguts artificials en la desinformació i la manipulació de narratives. Uns “temps de control algorítmic” en què es contextualitza l’experiència Are boundaries real, or do we draw them to feel whole, una obra elaborada pel col·lectiu milanès Umanesimo Artificiale que busca reflexionar sobre “les fronteres entre la realitat, la virtualitat i l’ésser humà a través dels seus records i la seva activitat cerebral”, segons explica la membre de l’equip Giulia Bellone. El projecte convida els visitants a seure davant d’una pantalla vertical mentre l’equip li col·loca al cap uns auriculars per captar les ones elèctriques del seu cervell. En un exercici performatiu, aquesta informació es “transmetrà” al P1, l’humà virtual representat a la pantalla, en forma d’un record audiovisual pregenerat amb intel·ligència artificial. Amb aquesta narrativa d’implantació de records, els autors volen fer que l’audiència es qüestioni “què voldrà dir ser humà en un futur en què fins i tot els aspectes més íntims de la identitat podran ser fruit de l’enginyeria artificial”.

Amb tot, l’abast transformatiu de la IA no es limita a l’àmbit humà, sinó que afecta tot el planeta, principalment a través de l’augment de consum d’electricitat i d’emissions de gasos contaminants que suposa el seu ús massiu. És una conseqüència que un grup d’alumnes d’ELISAVA ha volgut representar visualment a través de Bot Pollution, un xatbot basat en la intel·ligència artificial francesa Mistral AI creat específicament per visualitzar l’impacte mediambiental que tenen els xatbots com ChatGPT, Gemini o Copilot. “La intel·ligència artificial està avui molt on fire, tothom la fa servir i no paren de sortir coses noves, i volíem mostrar que hem de ser conscients sobre la contaminació que genera”, expliquen les seves creadores, Carla Olivares i Ángela Escudero. La particularitat de la seva creació és que, després de cada resposta donada a les preguntes fetes per l’usuari, l’eina informarà sobre quants grams de diòxid de carboni ha generat aquella interacció, que compara també amb el nombre de cigarretes enceses que equivaldria. A mesura que s’avança en la conversa, la pantalla es va enfosquint, i quan s’arriben als 15 grams de CO2 acumulats, el xat es bloqueja i no permet tornar a interactuar-hi fins passades 24 hores. Aquesta informació sorgeix d’un càlcul mitjà del què generen les principals opcions comercials d’aquesta tecnologia, tenint en compte factors com el consum dels servidors, l’internet i les bases de dades. “Hem de ser conscients a l’hora de preguntar i fer servir la intel·ligència artificial”, reclamen.
Intel·ligència artificial? No, vegetal
Dins d’aquesta reivindicació de la importància del planeta en un món cada vegada més digital, una de les sorpreses que pot endur-se el visitant del Sónar+D -i que no és nova d’enguany- és la quantitat d’instal·lacions que incorporen plantes i altres éssers naturals en la seva proposta. La que probablement capta més l’atenció des d’un bon inici és Chemical Calls of Cure.2, una proposta que l'autora, Yolanda Uriz, defineix com “un telèfon de ciència-ficció” per “establir mecanismes de comunicació amb éssers no humans”, com són les plantes. Aquestes ‘converses’ s’estableixen a través de dues plataformes: en la primera, els usuaris poden fer arribar una sèrie de líquids naturals beneficiosos a les plantes que hi ha connectades a través d’una sèrie de tubs, mentre que en la segona, que actua com una mena d’extractor de cuina, s'hi poden olorar les fragàncies combinades d’aquestes plantes. Aquest procés no es milita al sentit olfactiu, sinó que també té en compte el sonor i el del tacte. Cadascuna de les plantes té instal·lat un sensor de gas que capta les emissions que generen, les quals després són traduïdes a informació sonora que es transmet amb la vibració que es nota als peus de la base de les plataformes, “com si fossin les arrels d’un arbre”. El projecte vol “concebre la natura no com una cosa diferent dels éssers humans, sinó com un context de què també formem part”, establint “relacions horitzontals amb altres espècies” que volen allunyar-se de l’antropocentrisme.
Perquè sí, la comunicació i el llenguatge verbal s’han identificat tradicionalment com un tret característic, exclusiu i distintiu de l’ésser humà, però això no vol dir que les altres espècies no es comuniquin entre si. Ho fan els animals, ho fan els fongs, i també ho fan les plantes, com reivindiquen els investigadors María Castellanos i Alberto Valverde amb la instal·lació Otras inteligencias. “Se sap que, a la natura, els arbres dels boscos es comuniquen entre ells, s’envien informació i fins i tot comparteixen nutrients, i vam voler emular-ho fent servir la tecnologia, connectant diferents plantes a diferents punts del món a través d’internet”, detalla Castellanos. Per demostrar-ho, l’equip va instal·lar uns sensors que mesuren l’activitat elèctrica de les plantes, una informació amb què van determinar la corba elèctrica dels organismes analitzats. Aquests senyals són enviats a través de la xarxa i transmesos físicament a les altres plantes a través d’una palanca de material tou i d’un led instal·lats al costat de les altres plantes, els quals els permeten rebre la informació.

“Quan vam iniciar el projecte, al principi volíem fer servir intel·ligència artificial”, confessa Castellanos, però van decidir canviar de tàctica després de rebre el consell de l’acadèmic Stefano Mancuso durant l’estada de postdoctorat de la investigadora a l’Oslo Metropolitan University: “Les plantes tenen la seva pròpia intel·ligència, estàs segura que necessites intel·ligència artificial?”. Així que, confiant en aquesta intel·ligència vegetal, l’equip va muntar la xarxa i va esperar a veure com reaccionaven les plantes. “Al principi era tot molt aleatori, però al cap de tres setmanes vam veure com les plantes havien après a fer servir aquesta tecnologia. Vam veure patrons “d’amistat” entre plantes, i casos com que quan una planta queia de la xarxa, alguna altra insistentment volia tornar a parlar amb ella”, desvela Castellanos. Un projecte que els seus autors confien que pugui servir per "pensar sobre possibles futurs, fer-nos preguntes i adonar-nos de tot el que hem d'aprendre sobre les plantes".