especializada en videojuegos, tecnología y tendencias digitales

Los hijos de Alexa

03 de Noviembre de 2025
Gina Tost | VIA Empresa

“Alexa, haz la cena a las criaturas”.

 

Si esto te suena a broma, espera unos años. Para muchas familias, Alexa ya es la tercera voz en casa. No grita, no se cansa y nunca pregunta “¿y por qué?” cincuenta veces.

Los niños de hoy no solo crecen con pantallas, sino con voces sintéticas. Una voz que responde, obedece y da información en el segundo mismo de pedirla. Sin esperas ni preguntas. Los niños y las niñas aprenden a pedir y que se lo den hecho. No a buscar, a ordenar; no a razonar, a aburrirse o a volver a intentarlo. Y mientras todo esto pasa, nadie les enseña a poner los límites ni a entender que alguien o algo puede fallar. Los datos pueden no ser correctos, o quizás nos estamos perdiendo algo que directamente no está integrado en la API del altavoz inteligente.

 

"Los niños de hoy no solo crecen con pantallas, sino con voces sintéticas. Una voz que responde, obedece y da información en el segundo mismo de pedirla"

Hay un cierto encanto en ello: Alexa es simpática, amable y amiga, incluso. Pero no es una persona. Los niños y los adultos lo perciben. El estudio Fairies in the Box: Children’s Perception and Interaction towards Voice Assistants (2022) muestra que muchos menores de edad atribuyen rasgos humanos a los asistentes de voz, como amistad o empatía, pero no los consideran vivos. Esta “amigabilidad” hace que los niños no sientan la necesidad de mostrar cortesía: no hay quien merezca un “gracias”, porque no hay nadie real a quien dirigirlo y agradecer.

La máquina tiene autoridad, pero no responsabilidad. Siempre tiene razón o, si no, lo parece. Y eso es lo más peligroso: educa en la confianza ciega en una voz, no en el pensamiento crítico. Los niños aprenden que las respuestas vienen automáticas y fáciles, que todo tiene una solución instantánea y que la paciencia, la búsqueda o la frustración son innecesarias.

Paradójicamente, muchos padres pretenden limitar las pantallas, pero abren la puerta a una voz que todo lo escucha y registra en casa. Es el mismo dilema de la conciliación tecnológica: delegamos el cuidado porque no tenemos tiempo, pero acabamos delegándolo a una máquina. Y como con cualquier delegación sin cuidado, hay riesgos que pasan desapercibidos: información personal, hábitos digitales prematuros y la confusión entre autoridad humana y autoridad programada.

Los riesgos no son solo sociales. Como señala el estudio Children’s Voice Privacy: First Steps and Emerging Challenges (2025), los sistemas de privacidad diseñados para adultos no funcionan igual con la voz de los niños: se intenta anonimizar o proteger datos, pero la calidad de la interacción se degrada, dejando a los niños expuestos sin que se den cuenta. En otras palabras: Alexa aprende de los niños, y los niños aprenden de Alexa, pero quien más aprende de todo esto es Jeff Bezos.

"Alexa aprende de los niños, y los niños aprenden de Alexa, pero quien más aprende de todo es Jeff Bezos"

Esta relación asimétrica entre niños y asistentes de voz nos dice mucho sobre la sociedad que construimos: queremos comodidad, rapidez y control, pero no queremos cuestionarnos cómo esto afecta a la formación emocional y social de nuestros hijos. Quizás, sin quererlo, les enseñamos que la cortesía, la paciencia y la reciprocidad no son necesarias cuando la autoridad no tiene rostro ni responsabilidad. Cuando es una máquina… ¡da igual!

Según un estudio de Common Sense Media, el 72% de los adolescentes han utilizado asistentes de voz como ChatGPT o Google Gemini, y más de la mitad los usan regularmente. De estos, un tercio los usa para interacciones sociales, apoyo emocional y práctica de relaciones. Esta tendencia se acentúa en un contexto en el que el 41% de los jóvenes ha experimentado problemas de salud mental. 

Esta realidad pone de manifiesto una paradoja: mientras los adolescentes buscan apoyo emocional en herramientas digitales, a menudo encuentran dificultades para acceder a recursos humanos profesionales. Esto abre un debate crucial sobre la responsabilidad, la privacidad y los límites de la inteligencia artificial en el acompañamiento emocional juvenil.

"Quizás dentro de unos años, cuando nuestros hijos e hijas sean adolescentes y les preguntemos “¿con quién hablas tanto en la habitación?”, la respuesta no será ni un amigo, ni una hermana, ni una persona"

Quizás dentro de unos años, cuando nuestros hijos e hijas sean adolescentes y les preguntemos “¿con quién hablas tanto en la habitación?”, la respuesta no será ni un amigo, ni una hermana, ni una persona. Será una marca registrada, una voz, o el ChatGPT al que le cuentan todo: secretos, frustraciones, emociones. Un confidente virtual que nunca juzga, nunca se cansa, y siempre piensa que hacemos las mejores preguntas y reflexiones. Una máquina que acaba modelando la manera en que aprenden a gestionar nuestros sentimientos y relaciones.

“¡Oh! Qué buena pregunta has hecho” - Ha dicho ChatGPT a todo quisqui. Y quizás esta será la tragedia silenciosa de esta generación: crecer pensando que la empatía se puede programar, que la escucha se puede automatizar, y que el afecto es una respuesta predictiva con un emoji al final 🌷.

Porque cuando una máquina te dice que tienes razón, no te ayuda a ser autocrítico; te ayuda a no dudar nunca de ti mismo. Y cuando una persona aprende esto demasiado pronto, quizás ya no hará falta que le expliquemos cómo funcionan las relaciones humanas. Solo hará falta pagar la suscripción y dejar que el algoritmo haga el trabajo de educar a tus criaturas.