El fin de semana pasado, los usuarios de la popular red social Reddit se enteraron de que habían sido objeto de un experimento no consentido con inteligencia artificial. Reddit es una red social basada en el intercambio de conocimiento a partir de experiencias y opiniones de sus miembros ¡humanos! (redditors). Con la proliferación de contenido generado por IA en la red y la progresiva degradación de los resultados de Google cada vez somos más los que cuando hacemos una búsqueda le añadimos "Reddit" al final, si no es que la hacemos directamente en Reddit.com. Con 600 millones de usuarios, Reddit es la 5ª red social más utilizada, justo por encima de X.
Un equipo de investigadores de la Universidad de Zúrich desplegó bots con identidades falsas en el subreddit (foro de debate) r/changemyview, con el objetivo de comprobar si podían influir en las opiniones de los usuarios sin que lo notaran. La elección del subreddit r/changemyview es relevante —y particularmente dolorosa— porque en los debates que se hacen sobre temas de ideología y de actualidad, sus participantes intentan hacer cambiar de opinión de manera razonada a quien piensa diferente. Cada vez que alguien hace cambiar de opinión a alguien, gana un punto.
Los bots suizos, haciéndose pasar por personas, interactuaban de forma natural con los miembros del grupo con el objetivo de hacerles cambiar de opinión. Realizado sin autorización previa de los moderadores ni consentimiento de los participantes, el experimento ha desatado críticas de usuarios y científicos.
"Con 600 millones de usuarios, Reddit es la 5ª red social más utilizada, justo por encima de X"
La forma, los objetivos, el método y el poco respeto por la ética recuerda poderosamente otro experimento realizado en 2012 por Facebook. Investigadores de la empresa y de universidades llevaron a cabo un experimento emocional con cientos de miles de usuarios, también sin su conocimiento ni consentimiento, para evaluar cómo las emociones se contagian en la red. Se sabía que las emociones se contagian en grupos físicos, pero nunca se había podido demostrar si esto también se verificaba en grupos virtuales.
Ambos casos tienen un patrón similar: la utilización de la red como laboratorio social para realizar experimentos a gran escala sin supervisión. El experimento de Zúrich es el último ejemplo de un patrón tecnológico que se repite desde que la web fue privatizada por las grandes plataformas digitales la primera década de los 2000: el “muévete rápido y rompe cosas” de Silicon Valley aplicado a los experimentos sociales.
Facebook manipuló, en 2012, los contenidos del muro de 689.000 usuarios durante una semana mostrando intencionadamente más mensajes positivos a la mitad de los usuarios y más mensajes negativos al resto. El objetivo del estudio era ver si esto afectaba al estado de ánimo y las publicaciones posteriores de la gente. Los resultados, publicados posteriormente, demostraron para sorpresa de nadie que sí, que reducir el contenido positivo en el muro hacía que los usuarios publicaran más mensajes negativos, y viceversa.
Ante las críticas, Facebook alegó que el experimento no contravenía sus términos y que “hubieras leído la letra pequeña” cuando aceptaste como un loco todas las condiciones. Las críticas no fueron mucho más bonitas que las del reciente experimento de Zúrich. A raíz de la publicación de los resultados del experimento, Facebook se vio obligada a cambiar las condiciones y a prometer que nunca más nos trataría de conejillos de indias (Cavia porcellus), al menos en público.
Se ve que ni los resultados ni el escándalo debieron llegar a los investigadores de la Universidad de Zúrich. O sí, y pensaron que la ciencia y el bien común bien pueden permitirse un poco de manipulación social.

Para tal empresa, crearon 34 cuentas que registraron como humanos en Reddit pero que en realidad eran bots que escupían textos generados con IA. Durante cuatro meses, participaron en los debates de r/changemyview haciéndose pasar por personas reales con historias personales convincentes: una víctima de abusos cuando era menor, un trabajador de un refugio para víctimas de violencia doméstica, un chico negro contrario al movimiento Black Lives Matter o un blanco estadounidense donde toda su familia política inmigrada de El Salvador aplaudía las medidas antiinmigración de Trump. Los bots trabajaron duro llegando a publicar unos 1.500 comentarios. Según consta en el primer borrador (ahora ya desaparecido) de resultados que los propios investigadores compartieron, ningún participante de r/changemyview llegó a sospechar que aquellos comentarios pudieran ser generados.
El estudio pretendía responder a la pregunta: “¿podemos cambiar la opinión de alguien utilizando un agente artificial, sin que se dé cuenta?” Si el método es preocupante —serviría como guion de Black Mirror—, la respuesta aún lo es más: los resultados preliminares apuntan a que sí. Y de largo. En el subreddit r/changemyview, los usuarios otorgan un punto a quien consigue hacerles cambiar de opinión. Los investigadores observaron que los comentarios escritos por IA fueron más efectivos a la hora de convencer a alguien que los comentarios escritos por humanos.
“¿Podemos cambiar la opinión de alguien utilizando un agente artificial, sin que se dé cuenta?”
En total, los bots consiguieron 100 de estos puntos y acumularon más de 10.000 votos positivos de los usuarios, un indicador de que sus argumentos —falsamente humanos— eran bien recibidos por la comunidad. De momento un éxito pseudocientífico que nos lleva al precipicio y nos muestra lo profundo que es. ¿Qué pasa si cuando debatimos con alguien en línea no sabemos si es una persona o un bot? La confianza decae a medida que malgastamos esfuerzo en convencer a un agente que la única agencia que tiene es la de generar texto; y la confianza, la información de calidad y el debate razonado son pilares de la democracia. No hace falta que os hable del estado actual de la información, la confianza, el debate en línea y el estado de la democracia.
Una simulación de lo que podría pasar a gran escala es la reacción de la comunidad del subreddit r/changemyview a la intrusión de los bots. Los moderadores del foro —que se había ganado fama de ser un espacio de debate saludable y seguro— dicen sentirse “traicionados” e “instrumentalizados” por un experimento ajeno que ha socavado la confianza colectiva.
Tanto el experimento de Facebook de 2012 como el Reddit/Zúrich de 2025 demuestran lo mismo: las plataformas digitales, amparándose en vacíos legales o en la novedad tecnológica, pueden influir en la sociedad a gran escala, sin supervisión ni consentimiento, y a menudo sin asumir consecuencias (accountability que dicen en inglés). Cuando todo va bien, las ganancias (económicas, científicas o de poder) son privadas; pero cuando va mal (usuarios alienados emocionalmente, pérdida de bienestar o de integridad del debate público) se socializan las pérdidas; es cada uno y la sociedad en su conjunto quien las asume en forma de “externalidades negativas” que no suena tan feo.
¿Es necesario hacer estos experimentos? Yo en 2012 ya sabía que si sólo veía desgracias en Facebook mi ánimo iba abajo. No hace falta ser ningún premio Nobel. Quien defiende la necesidad de estos estudios alegan que sin resultados científicos no sabríamos el poder manipulador de un algoritmo —caso de Facebook— o la capacidad persuasiva de la IA generativa —Zúrich. Se desprende, pues, que para hacer investigación innovadora hay que moverse en zonas grises donde las normas no son claras, y que a investigadores y empresas les hace falta un cierto margen de maniobra para explorar soluciones que potencialmente beneficien a todo el mundo. De hecho, parte de la comunidad científica teme que escándalos como éste acaben por frenar una investigación que es necesaria: si todo experimento en redes abiertas se considera tabú, no tendremos datos reales que nos ayuden a anticipar amenazas futuras —bots políticos o redes de desinformación y manipulación— y proteger a la sociedad.
"Se desprende, pues, que para hacer investigación innovadora hay que moverse en zonas grises donde las normas no son claras"
Parece evidente que hay que encontrar un equilibrio: por un lado la innovación no puede ser a costa de convertir a la población en conejillos de Indias involuntarios, pero a la vez la regulación tampoco debería bloquear la investigación necesaria para mantenernos un paso por delante de los abusos tecnológicos. Este equilibrio sólo es posible mediante más transparencia, rendición de cuentas y debate público sobre qué se puede hacer y qué no en los entornos digitales masivos.
La Unión Europea, por medio de su futura Ley de Inteligencia Artificial (AI Act), introduce obligaciones explícitas de divulgar el uso de sistemas de IA. La AI Act prevé que, cuando un usuario interacciona con un chatbot o cualquier sistema de IA que genere contenido, debe quedar claramente informado de que está tratando con una máquina (también en experimentos, que entonces dejarían de tener sentido). Específicamente, la normativa europea propuesta directamente prohíbe prácticas de IA que impliquen manipulación o engaño.
El experimento no autorizado de la Universidad de Zúrich ha sido calificado como “la peor violación de la ética en internet” por destacados científicos sociales. Aparte de los resultados —que yo sostengo que ya sabíamos— es un toque de atención sobre los peligros de repetir errores pasados en la era de la inteligencia artificial. Al igual que en 2012 descubrimos repentinamente el poder de las redes sociales para manipular emociones, en 2025 estamos descubriendo el potencial —y las “externalidades negativas”— de la IA generativa a la hora de manipular opiniones. La historia reciente nos indica que hay que anticiparse con mecanismos legales y éticos sólidos: leyes que garanticen transparencia —etiquetar siempre el contenido generado por IA—, que exijan consentimiento o supervisión independiente cuando se hacen experimentos sociales masivos, y que contemplen sanciones claras para quien traspase estos límites.
En este sentido me gusta mucho la reflexión del desaparecido filósofo estadounidense Daniel Dennett con respecto a hacer pasar bots de IA por humanos, en lo que él llamaba “counterfeit people”, personas falsificadas. Dennett defendía que presentar máquinas como personas era éticamente equivalente a falsificar dinero o documentos, ya que devalúa el valor esencial de la interacción humana auténtica. Cuando una persona interactúa con otro ser humano, presupone —y merece— honestidad en esta interacción, así como el respeto por su autonomía emocional y cognitiva. Introducir “personas falsificadas” a gran escala sin transparencia ni control erosiona esta confianza básica que sostiene cualquier comunidad.
"El experimento no autorizado de la Universidad de Zúrich ha sido calificado como “la peor violación de la ética en internet” por destacados científicos sociales"
La IA generativa, al igual que las redes sociales hace una década, no sale gratis: trae bajo el brazo nuevos dilemas que no arreglaremos cambiando las condiciones de uso de Facebook o de OpenAI. Hace falta, más que nunca, una respuesta democrática y social en forma de regulación, que ponga los derechos humanos digitales en el centro del debate tecnológico, pero sobre todo, a los malos en la cárcel.
Lo decía Daniel Dennett: ¿a que metemos en la cárcel a los que falsifican dinero? Pues también a los que falsifiquen personas; tanto unos como otros erosionan la confianza básica que hace que una sociedad sea una sociedad.