especialitzada en videojocs, tecnologia i tendències digitals

Algospeak

19 de Maig de 2025
Gina Tost | VIA Empresa

Imagina’t un bosc. Cada vegada que una fulla cau, un vent insistent intenta ordenar-la al lloc “correcte”. Però aquest vent no entén la complexitat del bosc: confon una flor amb una mala herba, i un arbust jove amb un arbre mort. Al final, a còpia d'insistir, el bosc s’adapta al vent. Les fulles aprenen a caure d’una altra manera, els arbres ja miren com i quan cauen les seves fulles, que fins ara queien de manera natural, fins que ningú recorda com era el paisatge original. 

 

Així funciona l'algoritme de les xarxes en les nostres converses digitals: un sistema que intenta organitzar la humanitat per a fer-la més pura, però que, en el procés, altera la nostra manera de parlar, pensar i entendre’ns.

Aquest paral·lelisme una mica patillero és el que ha donat lloc a l’algospeak, un llenguatge críptic que els creadors de contingut en vídeo utilitzen per evitar les sancions d’algoritmes massa restrictius. Segur que heu sentit silencis, xiulets, asteriscs escrits, números… mil maneres d’intentar que no t’enganxin. Les més habituals són les variacions de la paraula “mort” per “desviure”, però també passa amb “v4g1n4” per “vagina”, “P*ns” per “penis”, “VS” per “violència sexual” o [moviment de dit horitzontal al coll] per “suïcidi” o “mort”. Aquest fenomen, que pot semblar inofensiu o fins i tot divertit, en realitat ens revela una dinàmica inquietant: les nostres paraules, el vehicle més bàsic de la llibertat d’expressió, estan condicionades per màquines que no saben escoltar.

 

"Les nostres paraules, el vehicle més bàsic de la llibertat d’expressió, estan condicionades per màquines que no saben escoltar"

I els humans, que som més simples que una sabata, ens hi adaptem. I encara ens fa gràcia.

Quan els algoritmes de plataformes com TikTok o YouTube detecten paraules com violència o suïcidi, sovint penalitzen automàticament els vídeos, limitant-ne la visibilitat o monetització. Per esquivar-ho, els creadors han creat aquestes alternatives lingüístiques: hem vist desviure per matar, però també “fer el deliciós” per referir-se a temes sexuals. És una adaptació forçada, una espècie de disfressa davant un censor invisible que no entén els matisos del llenguatge.

El problema no és només pràctic, sinó filosòfic. Quan adaptem les nostres paraules per complaure màquines, estem també canviant la manera com pensem i representem la realitat. Si els creadors han de minimitzar la gravetat de temes com la violència domèstica o el racisme per esquivar sancions, no estem trivialitzant aquestes realitats i deshumanitzant el debat?

La llibertat d’expressió no és només la capacitat de parlar, sinó també de fer-ho amb els termes adequats. Quan els algoritmes imposen un codi de comportament basat en paraules tabú, el discurs públic es fragmenta. Les converses esdevenen criptogràfiques, accessibles només per a iniciats. Més preocupant encara, les plataformes tecnològiques es converteixen en els guardians del que és acceptable, sense rendir comptes a la societat ni entendre les conseqüències. Ja vam parlar que l’algorisme no existeix: és un senyor que l’ha programat així.

I continuem amb els algorismes: A mesura que més aspectes de la vida pública es desplacen a l’esfera digital, els límits que imposen els algoritmes afecten directament la nostra capacitat per parlar obertament sobre temes vitals. Això inclou educació sexual, prevenció del suïcidi o discussions polítiques controvertides. El vent no només mou les fulles, està canviant la forma del bosc tal com el coneixíem.

Els algoritmes són eines pensades per garantir els objectius de grans empreses, i haurien de ser dissenyades per reforçar la comprensió humana, no per restringir-la. Això requereix un canvi en la manera com aquestes plataformes aborden la moderació: cal incorporar més context, supervisió humana i, sobretot, transparència. Mentrestant, l’algospeak continua sent un mecanisme de supervivència pels creadors de contingut, però a un cost molt alt a llarg termini. A curt termini només veiem que el debat públic es converteix en un jeroglífic, incomprensible per a molts, però a la llarga deixarem de parlar de manera natural de temes vitals que ens afecten a tots i totes.

I tornem al bosc. Un dia, el vent desapareix. Les fulles comencen a caure de manera natural, però ja no saben com fer-ho, sempre han caigut de manera artificial. Han après a doblegar-se davant la força invisible del vent, i la seva forma original s’ha perdut per sempre. Si continuem així, la llibertat d’expressió i la censura es veuran transformades pels interessos de visibilitat dels que produeixen continguts.

"Si continuem així, la llibertat d’expressió i la censura es veuran transformades pels interessos de visibilitat dels que produeixen continguts"

Però hi ha un gir final: potser el vent no era només un obstacle. Potser era un mirall que ens feia veure les nostres pròpies febleses com a societat. En un món on els algoritmes ens obliguen a replantejar les paraules, també ens ofereixen l’oportunitat de replantejar què és realment important: la tecnologia al servei de l’humà, no l’humà adaptant-se al vent digital: els algorismes. El bosc encara pot florir, però només si recordem com deixar-lo créixer lliurement, i deixem que el vent ens acariciï la cara, però ens permeti seguint sortir a jugar.

I amb els temps que corren a Can Trump… Al vent, la cara al vent…