La inteligencia artificial ha mejorado los trabajos académicos. Pero también está generando una paradoja incómoda: cuanto más perfectos son los resultados, menos claro es quién ha pensado realmente. Y eso tiene consecuencias directas en el talento que llega a las empresas.
En Catalunya, la UOC —junto con la UB, la UAB, la UPF y la UdG— ha actualizado en el último año sus guías internas sobre el uso de inteligencia artificial en trabajos académicos. Varias de estas instituciones han incorporado declaraciones de autoría obligatorias, nuevas pautas de evaluación, advertencias específicas para TFG y TFM y recomendaciones para docentes sobre cómo integrar o detectar IA generativa. Estudios internacionales como los de Pew Research Center o Turnitin sitúan el uso de estas herramientas entre el 70% y el 85% a nivel global, una tendencia que las universidades catalanas confirman en sus análisis internos, aunque sin publicar cifras oficiales. No es un gesto aislado: es una adaptación en marcha que ya está reconfigurando la fiabilidad de la señal académica que reciben las empresas.
Corregir trabajos de fin de máster siempre ha sido exigente. Hoy empieza a ser desconcertante. Los casos prácticos suben de nivel, las notas también. Los trabajos son más completos, más técnicos y más pulidos. A simple vista, parecería que los universitarios están mejor preparados que nunca. Sin embargo, una pregunta pesa cada vez más en la mesa de la comunidad académica: ¿quién ha hecho realmente el trabajo?
En una misma aula conviven tres realidades: quien ha trabajado el caso, quien ha usado la inteligencia artificial como apoyo y quien ha delegado prácticamente todo el proceso. Desde fuera, todos parecen igual de brillantes.
En una misma aula conviven tres realidades: quien ha trabajado el caso, quien ha usado la inteligencia artificial como apoyo y quien ha delegado prácticamente todo el proceso
Durante años, escribir bien era una señal de comprensión. Hoy ya no. Las herramientas de IA generan textos impecables en segundos. El Pew Research Center alertaba en 2024 del aumento del uso de IA entre estudiantes, y Nature ha señalado errores y referencias inexistentes en contenidos generados. No hablamos de una moda: hablamos de un cambio estructural.
La cuestión ya no es si los estudiantes utilizan IA, sino qué tipo de aprendizaje están construyendo con ella.
Durante décadas, aprender significaba esfuerzo, repetición y acumulación. Tenía sentido en un mundo donde el conocimiento era escaso. Hoy es abundante, inmediato y automatizable. Ya no basta con ordenar, estructurar o responder correctamente. Eso ya lo hace la máquina. El valor se desplaza hacia otra competencia: pensar de forma diferente. No lineal, sino lateral.
Hoy el conocimiento es abundante, inmediato y automatizable. Ya no basta con ordenar, estructurar o responder correctamente
El cambio profundo no es tecnológico, es funcional. La universidad no está para perseguir atajos; está para desarrollar pensamiento. Pero la expansión de la IA obliga a dedicar una parte creciente del tiempo a verificar la autenticidad del aprendizaje. Ya no se evalúa solo contenido, estructura y argumentación. También hay que comprobar si las fuentes existen, detectar incoherencias, identificar patrones automáticos y reconstruir el razonamiento del estudiante. La universidad pasa de impulsar conocimiento a custodiarlo. Y en ese tránsito pierde capacidad para fomentar lo esencial: el pensamiento propio.
La paradoja es evidente: los trabajos mejoran, pero la señal de aprendizaje se debilita. Y aparece un efecto colateral incómodo: quien no utiliza IA puede quedar en desventaja. No porque sepa menos, sino porque su resultado es menos perfecto. Estamos premiando el acabado sin saber si hay pensamiento detrás.
Un ejemplo lo ilustra. 101 - 102 = 1. Incorrecto. Ahora bien, con un solo movimiento puede convertirlo en un cálculo correcto. No se trata de calcular mejor, sino de mirar el problema desde otro ángulo. La solución aparece más adelante.
Durante décadas, el sistema educativo ha premiado el pensamiento lineal: ordenar, estructurar, responder. Exactamente lo que hoy hace —y cada vez mejor— la inteligencia artificial. Estamos evaluando como diferencial aquello que la máquina ya domina. Mientras tanto, el valor humano se desplaza hacia el pensamiento lateral: cuestionar el problema, conectar ideas no evidentes, formular nuevas preguntas, moverse en la ambigüedad. Un tipo de pensamiento más difícil de evaluar y que, en muchos casos, penaliza la nota.
La presentación oral no evalúa lo escrito; evalúa lo aprendido
La diferencia real aparece en la presentación oral del TFM. Ahí no hay estructura que maquille ni redacción que sostenga. Tampoco IA que responda en tiempo real. Solo queda el pensamiento. Y entonces se ve quién entiende, quién conecta, quién responde con criterio y quién se adapta a nuevas preguntas. También se ve lo contrario: respuestas vagas, dificultad para profundizar, incapacidad para salir del guion. No por falta de inteligencia, sino por falta de proceso. La presentación oral no evalúa lo escrito; evalúa lo aprendido.
Mientras la educación sigue afinando el pensamiento lineal, el mercado ya ha girado. En ecosistemas de innovación como el 22@ de Barcelona —donde conviven empresas tecnológicas, startups y consultoras— esta tensión empieza a ser una conversación recurrente: perfiles con expedientes brillantes que no siempre trasladan ese rendimiento al razonamiento en entrevistas o entornos no estructurados. Google, Apple, Tesla o IDEO buscan perfiles capaces de pensar diferente, no solo de ejecutar bien. Valoran la capacidad de abordar problemas abiertos, replantear retos y decidir en entornos inciertos. En un mundo donde la inteligencia artificial genera respuestas en segundos, lo escaso ya no es la respuesta. Es la pregunta.
En un mundo donde la inteligencia artificial genera respuestas en segundos, lo escaso ya no es la respuesta. Es la pregunta
El World Economic Forum lo confirma: pensamiento crítico, creatividad y capacidad analítica serán competencias clave en los próximos años. Todas exigen salir del pensamiento lineal.
La solución al ejercicio anterior es simple: elevar el 2. 101 - 10² = 1. Es decir, 101 - 100 = 1. Pero lo relevante no es la solución, sino lo que revela: no era un problema de cálculo, sino de enfoque.
El debate no es si los estudiantes usan IA. Eso ya es un hecho. El reto es adaptar el sistema educativo a las competencias que realmente demanda el mercado. Durante décadas, el valor estuvo en acumular conocimiento. Hoy está en interpretarlo, cuestionarlo, conectarlo y decidir. En pensar. Y no de forma lineal, sino lateral.
La universidad no está fallando. Está respondiendo a un modelo que ya no existe. El mercado, en cambio, ya ha cambiado. Si no ajustamos qué evaluamos y qué entendemos por aprender, seguiremos formando talento para el pasado mientras el futuro exige otra cosa.
Si no ajustamos qué evaluamos y qué entendemos por aprender, seguiremos formando talento para el pasado mientras el futuro exige otra cosa
La inteligencia artificial no está sustituyendo el talento. Está redefiniendo qué significa tenerlo.