La comodidad de no pensar

La inteligencia artificial es una herramienta extraordinaria de eficiencia, pero también puede convertirse en un mecanismo silencioso de sustitución cognitiva

El riesgo de la IA no es evidente ni inmediato: es silencioso | iStock
El riesgo de la IA no es evidente ni inmediato: es silencioso | iStock
Toni Alés | VIA Empresa
Experto en innovación y liderazgo emocional
Barcelona
08 de Marzo de 2026 - 04:55

La semana pasada leí un documento de investigación, un paper, que me dejó incómodo. No solo por lo que decía, que también, sino por lo familiar que me resultó. A medida que avanzaba en sus páginas, me reconocía en muchos de los comportamientos que describía: pedirle a la inteligencia artificial que escriba un texto “rápido”, que resuma algo “para salir del paso”, que proponga ideas “aunque luego ya lo revisaré”. Y, casi sin darme cuenta, aceptar el resultado con un leve retoque… o incluso sin él.

 

Ese paper no es un panfleto tecnófobo ni una advertencia apocalíptica. Es una investigación rigurosa, presentada en la conferencia CHI 2025 de la Association for Computing Machinery (ACM), basada en datos reales y en la experiencia concreta de más de 300 profesionales del conocimiento.

"Cuanta más confianza depositamos en la IA, menos pensamiento crítico ejercitamos"

Y su mensaje es tan claro como inquietante: "Cuanta más confianza depositamos en la IA, menos pensamiento crítico ejercitamos". No porque la IA sea “mala”, sino porque, poco a poco, dejamos de pensar.

 

Menos esfuerzo, menos criterio

La investigación liderada por Carnegie Mellon University en colaboración con Microsoft Research, analizó 936 casos reales de uso de IA generativa en el trabajo cotidiano de 319 knowledge workers: perfiles técnicos, creativos, financieros, educativos, legales y comerciales.

No eran estudiantes. No eran experimentos de laboratorio. Era trabajo real, con consecuencias reales. La pregunta central era simple, pero profunda: ¿qué ocurre con el pensamiento crítico cuando usamos IA generativa? Las conclusiones fueron claras.

En primer lugar, el uso de IA reduce el esfuerzo cognitivo percibido. En tareas como buscar información, sintetizar, analizar, redactar o evaluar, muchos profesionales sienten que pensar cuesta menos cuando utilizan estas herramientas. En segundo lugar, cuanto mayor es la confianza en la IA, menor es el pensamiento crítico. Cuando damos por hecho que la herramienta “ya hace bien la tarea”, tendemos a cuestionar menos, a verificar menos y a reflexionar menos. Y, en tercer lugar, a mayor confianza en uno mismo, más pensamiento crítico… aunque cueste más. Los profesionales que confían en su propio criterio piensan más, revisan más y cuestionan más, aunque eso implique un mayor esfuerzo mental.

La paradoja es evidente: pensar menos es más cómodo; pensar mejor es más exigente. Y la IA, sin imponerlo ni hacerlo explícito, nos empuja de forma sutil pero constante hacia esa comodidad.

Del hacer al supervisar

Uno de los hallazgos más reveladores del estudio no es que la inteligencia artificial elimine el pensamiento, sino que lo desplace silenciosamente. Durante años, el trabajo intelectual consistía en buscar información, analizar alternativas, construir argumentos y redactar conclusiones. Pensar formaba parte del proceso. Hoy, cada vez más, ese esfuerzo se traslada a otra fase: comprobar si lo que propone la IA es correcto, integrar respuestas generadas, ajustar el tono y supervisar el resultado final.

El pensamiento crítico, como cualquier músculo, no desaparece de un día para otro: se debilita cuando deja de usarse

Los autores describen este cambio como el paso de task execution a task stewardship: es decir, de ejecutar, a vigilar. El problema no es el cambio en sí: supervisar también es una forma de trabajar. El problema es que dejamos de entrenar la mente mientras supervisamos. Porque el pensamiento crítico, como cualquier músculo, no desaparece de un día para otro: se debilita cuando deja de usarse.

La erosión no ocurre en lo importante, sino en lo cotidiano

Aquí aparece una de las ideas más inquietantes del estudio: el pensamiento no se pierde en los momentos clave, sino en la rutina.

No dejamos de pensar cuando hay mucho en juego. Ni cuando la decisión es claramente estratégica. Lo hacemos en lo pequeño. En el email rápido. En el resumen que “no merece demasiado tiempo”. En la presentación que hay que sacar adelante sin complicaciones. Ahí es donde empezamos a delegar el esfuerzo mental. Y como no pasa nada inmediato, asumimos que no hay problema. Pero el pensamiento crítico no se entrena en las excepciones, sino en la repetición. Si solo lo activamos cuando la decisión es estratégica y lo desactivamos en el día a día, perdemos práctica, agilidad y criterio. Y cuando llega el momento verdaderamente crítico, quizá ya no estemos tan preparados como creemos.

Por eso el riesgo de la IA no es evidente ni inmediato: es silencioso. No nos vuelve menos inteligentes, pero puede acostumbrarnos a pensar menos. Y ese hábito, o su ausencia, acabará pasando factura.

Cinco ideas prácticas para pensar con la IA

Del estudio se desprenden algunas líneas de acción especialmente relevantes:

  1. Diseñar fricción cognitiva: no todo debe ser inmediato. La velocidad sin reflexión termina erosionando el criterio.
  2. Dejar de asumir que pensar viene de serie: el pensamiento crítico no es innato: se construye con práctica… o se pierde por desuso.
  3. Usar la IA como copiloto, no como piloto automático: si no sabes hacer una tarea sin IA, difícilmente sabrás evaluar la calidad de su resultado.
  4. Premiar el cuestionamiento, no solo la eficiencia: cuando solo medimos output y rapidez, fomentamos decisiones rápidas, pero pensamiento superficial.
  5. Recuperar el valor del esfuerzo cognitivo: pensar cuesta, y eso no es un fallo del sistema, sino una señal de calidad profesional.

Food for Thought

Para mí, pensar sigue siendo un acto de responsabilidad. La inteligencia artificial es una herramienta extraordinaria de eficiencia. Pero también puede convertirse en un mecanismo silencioso de sustitución cognitiva cuando se utiliza sin criterio.

El riesgo no está en que la IA piense por nosotros, sino en construir organizaciones, procesos y profesionales para los que pensar ya no es necesario. Cuando el pensamiento deja de ser un requisito operativo, la ventaja competitiva se diluye. Y lo que se pierde no es velocidad, sino criterio. Como casi siempre, no es un problema tecnológico. Es una decisión de gestión, y tendrá consecuencias.


Este artículo forma parte de la sección 'Food for Thought', un espacio para abrir conversaciones que vayan más allá del día a día. No buscamos respuestas cerradas, sino preguntas que nos obliguen a pensar distinto sobre innovación, liderazgo y economía de impacto. Porque, a veces, lo que más alimenta no son las respuestas… sino las buenas preguntas.