Etnógrafo digital

¿Dilema social? ¿Qué dilema?

17 de Octubre de 2024
Josep Maria Ganyet | VIA Empresa

En el año 2021 Facebook cambió su nombre a Meta. La versión oficial fue que era porque la próxima iteración de internet sería inmersiva, un internet donde cambiaríamos el verbo acceder por el verbo ser, donde las visitas se convertirían en presencia. Pero la realidad real distaba mucho de la realidad virtual que nos quería vender Zuckerberg.

 

En realidad, Meta nació por culpa de una crisis de reputación sin precedentes que superaba por debajo a la anterior, la de Cambridge Analytica. En el 2021 habían salido a la luz múltiples escándalos relacionados con la privacidad y los efectos nocivos de las redes sociales sobre los usuarios, especialmente los menores. El cambio de nombre era la única estrategia para distanciarse y mirar de pasar página, muy lejos del salto tecnológico con el que pretendían justificarlo.

Por eso Zuckerberg recuperó un concepto que desde los años 80 había sido la eterna promesa, el metaverso, que estaba llamado a ser el nuevo internet, un espacio donde la gente viviría, trabajaría y se relacionaría virtualmente. El éxito de la empresa lo podéis comprobar vosotros mismos. ¿Estáis ahí? Pues está todo dicho. Meta heredó los problemas de Facebook de la gestión de la privacidad y el contenido nocivo, problemas que, a pesar del lavado de cara, persisten.

 

Varios filtradores y extrabajadores de Facebook, como Frances Haugen y Arturo Béjar, confirmaron que la empresa era consciente de los daños causados por sus plataformas. Béjar, trabajador de Meta del 2009 al 2015 y del 2019 al 2021 y experto en combatir el acoso en línea, envió un correo a Mark Zuckerberg en el 2021 advirtiendo sobre los efectos nocivos de Instagram en los más jóvenes. Lo sabía bien porque a su hija de 14 años le tocó vivirlos en su propia piel. Béjar atestiguó ante el Congreso en el 2023, afirmando que Meta no hizo lo suficiente para solucionar estos problemas, a pesar de tener el poder y los recursos para hacerlo.

Seguramente habíais leído algo en estas mismas páginas, seguisteis el escándalo en su momento o incluso visteis The Social Dilemma de Netflix. Pero una cosa es sentir los hechos en tercera persona vía un periodista y la otra en primera vía su protagonista. El pasado domingo, el programa Salvados de La Sexta emitió Las Redes del Terror, un título que no engaña, y que mostró el lado más oscuro de las redes sociales que es también el de la sociedad. Con su doble condición de experto y de padre de dos adolescentes, Arturo Béjar compartió su testigo más personal sobre cómo su hija sufrió bullying y recibió insinuaciones no deseadas de carácter sexual en Instagram.

Documentales como The Social Dilemma o bien The Unsocial Network abordan este problema. Están bien documentados, bien producidos, bien narrados, y, sobre todo, consiguen el objetivo de despertar el espíritu crítico del espectador, que es a la vez usuario de redes sociales. En Salvados, en cambio, no había demasiados recursos audiovisuales, ni una narrativa compleja, ni exceso de personajes: solo un entrevistado y un entrevistador que escuchaba.

"A pesar de los avisos internos y los datos que revelaban la gravedad de los problemas, la empresa prefirió no actuar para no comprometer sus beneficios"

Béjar destacó como, a pesar de los avisos internos y los datos que revelaban la gravedad de los problemas, la empresa prefirió no actuar para no comprometer sus beneficios. Un déjà vu de la industria del tabaco de los años 60 y 70, cuando sabiendo los daños que causaban optaron por no actuar, priorizando los beneficios por encima de la salud pública. Wayne McLaren, el icónico cow boy del bigote del anuncio de Marlboro murió con cáncer de pulmón y con la boca tapada por cláusulas que le impedían hacer pública su condición (hasta cuatro actores de Marlboro han muerto de cáncer de pulmón).

He seguido un poco la trayectoria de Béjar desde que filtró el famoso correo a Mark Zuckerberg, y no se queda solo con la denuncia; también aporta soluciones que tienen tanto de tecnológico como de social. Hay una de muy fácil: que sean los usuarios adolescentes quienes entrenen al algoritmo de selección de contenidos de Instagram. Si los dotamos de herramientas sencillas para indicar que cierto contenido no es adecuado, Instagram puede utilizar esta información para entrenar sus algoritmos de IA para que les ahorre de ver contenidos nocivos. ¿Os suenan los filtros de spam del correo que aprenden de lo que marcamos como "nocivo"? Pues esto.

Y ya de paso, Béjar también dice que hay una medida más sencilla y efectiva: restringir el acceso de los adolescentes a las redes sociales hasta los 16 años. No hace falta que les pidan ningún documento de identidad; saben mejor que sus padres quiénes son y qué hacen.