Imagínate un bosque. Cada vez que una hoja cae, un viento insistente intenta ordenarla en el lugar “correcto”. Pero este viento no entiende la complejidad del bosque: confunde una flor con una mala hierba, y un arbusto joven con un árbol muerto. Al final, a fuerza de insistir, el bosque se adapta al viento. Las hojas aprenden a caer de otra manera, los árboles ya miran cómo y cuándo caen sus hojas, que hasta ahora caían de forma natural, hasta que nadie recuerda cómo era el paisaje original.
Así funciona el algoritmo de las redes en nuestras conversaciones digitales: un sistema que intenta organizar la humanidad para hacerla más pura, pero que, en el proceso, altera nuestra forma de hablar, pensar y entendernos.
Este paralelismo un poco patillero es el que ha dado lugar al algospeak, un lenguaje críptico que los creadores de contenido en vídeo utilizan para evitar las sanciones de algoritmos demasiado restrictivos. Seguro que habéis oído silencios, silbidos, asteriscos escritos, números… mil maneras de intentar que no te pillen. Las más habituales son las variaciones de la palabra “muerte” por “desvivir”, pero también ocurre con “v4g1n4” por “vagina”, “P*n*” por “pene”, “VS” por “violencia sexual” o [movimiento de dedo horizontal en el cuello] por “suicidio” o “muerte”. Este fenómeno, que puede parecer inofensivo o incluso divertido, en realidad nos revela una dinámica inquietante: nuestras palabras, el vehículo más básico de la libertad de expresión, están condicionadas por máquinas que no saben escuchar.
"Nuestras palabras, el vehículo más básico de la libertad de expresión, están condicionadas por máquinas que no saben escuchar"
Y los humanos, que somos más simples que un zapato, nos adaptamos a ello. Y aún nos hace gracia.
Cuando los algoritmos de plataformas como TikTok o YouTube detectan palabras como violencia o suicidio, a menudo penalizan automáticamente los vídeos, limitando su visibilidad o monetización. Para esquivarlo, los creadores han creado estas alternativas lingüísticas: hemos visto desvivir por matar, pero también “hacer el delicioso” para referirse a temas sexuales. Es una adaptación forzada, una especie de disfraz ante un censor invisible que no entiende los matices del lenguaje.
El problema no es solo práctico, sino filosófico. Cuando adaptamos nuestras palabras para complacer a máquinas, estamos también cambiando la forma en la que pensamos y representamos la realidad. Si los creadores deben minimizar la gravedad de temas como la violencia doméstica o el racismo para esquivar sanciones, ¿no estamos trivializando estas realidades y deshumanizando el debate?
La libertad de expresión no es solo la capacidad de hablar, sino también de hacerlo con los términos adecuados. Cuando los algoritmos imponen un código de comportamiento basado en palabras tabú, el discurso público se fragmenta. Las conversaciones se vuelven criptográficas, accesibles solo para iniciados. Más preocupante aún, las plataformas tecnológicas se convierten en los guardianes de lo que es aceptable, sin rendir cuentas a la sociedad ni entender las consecuencias. Ya hablamos de que el algoritmo no existe: es un señor el que lo ha programado así.
Y seguimos con los algoritmos: A medida que más aspectos de la vida pública se desplazan a la esfera digital, los límites que imponen los algoritmos afectan directamente a nuestra capacidad para hablar abiertamente sobre temas vitales. Esto incluye educación sexual, prevención del suicidio o discusiones políticas controvertidas. El viento no solo mueve las hojas, está cambiando la forma del bosque tal como lo conocíamos.
Los algoritmos son herramientas pensadas para garantizar los objetivos de grandes empresas, y deberían ser diseñadas para reforzar la comprensión humana, no para restringirla. Esto requiere un cambio en la forma en que estas plataformas abordan la moderación: es necesario incorporar más contexto, supervisión humana y, sobre todo, transparencia. Mientras tanto, el algospeak sigue siendo un mecanismo de supervivencia para los creadores de contenido, pero a un coste muy alto a largo plazo. A corto plazo solo vemos que el debate público se convierte en un jeroglífico, incomprensible para muchos, pero a la larga dejaremos de hablar de forma natural de temas vitales que nos afectan a todos y todas.
Y volvemos al bosque. Un día, el viento desaparece. Las hojas empiezan a caer de forma natural, pero ya no saben cómo hacerlo, siempre han caído de forma artificial. Han aprendido a doblegarse ante la fuerza invisible del viento, y su forma original se ha perdido para siempre. Si seguimos así, la libertad de expresión y la censura se verán transformadas por los intereses de visibilidad de los que producen contenidos.
"Si seguimos así, la libertad de expresión y la censura se verán transformadas por los intereses de visibilidad de los que producen contenidos"
Pero hay un giro final: quizás el viento no era solo un obstáculo. Quizás era un espejo que nos hacía ver nuestras propias debilidades como sociedad. En un mundo donde los algoritmos nos obligan a replantear las palabras, también nos ofrecen la oportunidad de replantear qué es realmente importante: la tecnología al servicio del humano, no el humano adaptándose al viento digital: los algoritmos. El bosque aún puede florecer, pero solo si recordamos cómo dejarlo crecer libremente, y dejamos que el viento nos acaricie la cara, pero nos permita seguir saliendo a jugar.
Y con los tiempos que corren en Can Trump… Al viento, la cara al viento…