“Alexa, fes sopar a les criatures”.
Si això et sona com una broma, espera uns anys. Per a moltes famílies, Alexa ja és la tercera veu a casa. No crida, no es cansa i mai pregunta “i per què?” cinquanta vegades.
Els infants d’avui no només creixen amb pantalles, sinó amb veus sintètiques. Una veu que respon, obeeix i dona informació al segon mateix de demanar-la. Sense esperes ni preguntes. Els nens i les nenes aprenen a demanar i que els hi vingui fet. No a buscar, a ordenar; no a raonar, a avorrir-se o a tornar-hi. I mentre tot això passa, ningú els ensenya a posar els límits ni a entendre que algú o alguna cosa pot fallar. Les dades poden no ser correctes, o potser ens estem perdent alguna cosa que directament no està integrada a l'API de l’altaveu intel·ligent.
"Els infants d’avui no només creixen amb pantalles, sinó amb veus sintètiques. Una veu que respon, obeeix i dona informació al segon mateix de demanar-la"
Hi ha un cert encant en això: Alexa és simpàtica, amable i amiga, fins i tot. Però no és una persona. Els infants i els adults ho perceben. L’estudi Fairies in the Box: Children’s Perception and Interaction towards Voice Assistants (2022) mostra que molts menors d’edat atribueixen trets humans als assistents de veu, com amistat o empatia, però no els consideren vius. Aquesta “amigabilitat” fa que els nens no sentin la necessitat de mostrar cortesia: no hi ha qui mereixi un “gràcies”, perquè no hi ha ningú real a qui dirigir-lo i agrair.
La màquina té autoritat, però no responsabilitat. Sempre té raó o, si no, ho sembla. I això és el més perillós: educa en la confiança cega en una veu, no en el pensament crític. Els infants aprenen que les respostes venen automàtiques i fàcils, que tot té una solució instantània i que la paciència, la recerca o la frustració són innecessàries.
Paradoxalment, molts pares pretenen limitar les pantalles, però obren la porta a una veu que tot ho escolta i registra a casa. És el mateix dilema de la conciliació tecnològica: deleguem la cura perquè no tenim temps, però acabem delegant-la a una màquina. I com amb qualsevol delegació sense cura, hi ha riscos que passen desapercebuts: informació personal, hàbits digitals prematurs i la confusió entre autoritat humana i autoritat programada.
Els riscos no són només socials. Com assenyala l’estudi Children’s Voice Privacy: First Steps and Emerging Challenges (2025), els sistemes de privacitat dissenyats per a adults no funcionen igual amb la veu dels nens: s’intenta anonimitzar o protegir dades, però la qualitat de la interacció es degrada, deixant els infants exposats sense que se n’adonin. En altres paraules: l’Alexa aprèn dels nens, i els nens aprenen d’Alexa, però qui aprèn més de tot plegat és Jeff Bezos.
"L’Alexa aprèn dels nens, i els nens aprenen d’Alexa, però qui aprèn més de tot plegat és Jeff Bezos"
Aquesta relació asimètrica entre infants i assistents de veu ens diu molt sobre la societat que construïm: volem comoditat, rapidesa i control, però no ens volem qüestionar com això afecta la formació emocional i social dels nostres fills. Potser, sense voler-ho, els ensenyem que la cortesia, la paciència i la reciprocitat no són necessàries quan l’autoritat no té rostre ni responsabilitat. Quan és una màquina… és igual!
Segons un estudi de Common Sense Media, el 72% dels adolescents han utilitzat assistents de veu com ChatGPT o Google Gemini, i més de la meitat els usen regularment. D'aquests, un terç els fa servir per a interaccions socials, suport emocional i pràctica de relacions. Aquesta tendència s'accentua en un context en què el 41% dels joves ha experimentat problemes de salut mental.
Aquesta realitat posa de manifest una paradoxa: mentre els adolescents busquen suport emocional en eines digitals, sovint troben dificultats per accedir a recursos humans professionals. Això obre un debat crucial sobre la responsabilitat, la privacitat i els límits de la intel·ligència artificial en l'acompanyament emocional juvenil.
"Potser d'aquí a uns anys, quan els nostres fills i filles siguin adolescents i els preguntem “amb qui parles tant a l’habitació?”, la resposta no serà ni un amic, ni una germana, ni una persona"
Potser d'aquí a uns anys, quan els nostres fills i filles siguin adolescents i els preguntem “amb qui parles tant a l’habitació?”, la resposta no serà ni un amic, ni una germana, ni una persona. Serà una marca registrada, una veu, o el ChatGPT al qual li ho expliquen tot: secrets, frustracions, emocions. Un confident virtual que mai jutja, mai es cansa, i sempre pensa que fem les millors preguntes i reflexions. Una màquina que acaba modelant la manera com aprenen a gestionar els nostres sentiments i relacions.
“Oh! Quina bona pregunta has fet” - Ha dit ChatGPT a tot quisqui. I potser aquesta serà la tragèdia silenciosa d’aquesta generació: créixer pensant que l’empatia es pot programar, que l’escolta es pot automatitzar, i que l’afecte és una resposta predictiva amb un emoji al final 🌷.
Perquè quan una màquina et diu que tens raó, no t’ajuda a ser autocrític; t’ajuda a no dubtar mai de tu mateix. I quan una persona aprèn això massa aviat, potser ja no caldrà que li expliquem com funcionen les relacions humanes. Només caldrà pagar la subscripció i deixar que l’algoritme faci la feina d’educar a les teves criatures.