Etnógrafo digital

GPT-5 y la máquina de no pensar

14 de Agosto de 2025
Josep Maria Ganyet | VIA Empresa

OpenAI ha lanzado el GPT-5, su último modelo de lenguaje extenso. Me lo imaginaba más grande. De hecho, todo el mundo se lo imaginaba más grande: la comunidad de investigadores en IA, los fanboys de OpenAI, e incluso sus críticos más acérrimos, los garymarcusianos (Gary Marcus es el científico que en 2022 ya escribió que el aprendizaje profundo toparía con un muro). 

 

Es inaudito ver garymarcusianos y fanboys coincidiendo en la red: los primeros celebrando que Marcus tenga razón, los segundos lamentándolo, pero, no obstante, reconociéndolo. GPT-5 ha hecho el milagro.

OpenAI se había negado a utilizar el 5 para las nuevas versiones de modelos de lenguaje extenso porque lo reservaba para un salto cualitativo en cuanto a capacidades del modelo. Esto explica el caos de nombres a partir de la versión 4: GPT-4o (con una o de Omni, no un cero), GPT, GPT-4.5, GPT-4.1 (posterior al 4.5).

 

Cada vez que OpenAI anuncia un nuevo modelo se repite el ciclo desinformativo: 1) tuits crípticos de Sam Altman dando a entender que ya estamos en la AGI, 2) críticas favorables en blogs, pódcasts y canales de YouTube de fanboys a quienes desde OpenAI han dado acceso previo, y 3) decepción porque después de hacer pruebas de laboratorio el modelo no representa un salto suficientemente cualitativo para merecer la etiqueta de 5. Esto se explica porque en realidad los destinatarios de estos mensajes no somos nosotros, sino los inversores.

El resultado era que a la hora de usar el ChatGPT nadie sabía qué modelo debía utilizar. Metidos en un menú desplegable, el usuario podía elegir entre el 4.1, el 4.1 con razonamiento, el 4.5, el o1-preview, el o3, el o3-mini y en según qué modelo aún podía elegir diferentes versiones en un segundo nivel de menú. Todos estos modelos se podían combinar con las diferentes opciones de búsqueda en la web, búsqueda profunda, enlace a una aplicación o modo agente.

"Cada vez que OpenAI anuncia un nuevo modelo se repite el ciclo desinformativo"

Todo este caos responde más a la organización interna de la empresa y sus necesidades de marketing que a las necesidades del usuario, lo que es un pecado mortal en usabilidad. De hecho, en P3 de usabilidad ya se enseña que los sistemas de información deben centrarse en las necesidades del usuario, no en las de la empresa.

El ingeniero, científico cognitivo y pope de la usabilidad Donald Norman lo dice muy claramente: “Está bien que un sistema tenga manual de instrucciones o te tengan que explicar el funcionamiento la primera vez. Pero si a la segunda vez aún necesitas explicaciones, es que está mal diseñado” (ya hablé la semana pasada sobre cómo los sistemas mal diseñados, matan).

El profesor y especialista en experiencia de usuario y arquitectura de la información Steve Krug lo resumió perfectamente en 2000 en el título de su libro No me hagas pensar, donde hablaba del diseño de interfaces. La Primera Ley de la Usabilidad de Krug, también conocida como el principio de Autoevidencia, establece que “un sitio web o una aplicación debe ser tan intuitiva que los usuarios puedan navegar por ella y utilizarla sin necesidad de instrucciones. El diseño debe ser claro y autoexplicativo para evitar confusiones y frustraciones”.

Los diseñadores de la interfaz de ChatGPT deberían tener en cuenta los casos de uso más frecuentes, aquello para lo que lo usamos la mayoría: el articulista que le encarga un texto a partir de una nota de prensa, aquel estudiante que tiene que escribir un trabajo sobre las similitudes del poema de Gilgamesh con la Ilíada, aquel CEO que entra en una reunión de planificación del nuevo año fiscal y que le ha encargado a ChatGPT, aquella oferta de proyecto para un concurso público generada a partir de echarle el pliego a ChatGPT.

"La ironía más grande de todo es que cuando vamos a ChatGPT lo último que queremos hacer es pensar"

La ironía más grande de todo es que cuando vamos a ChatGPT lo último que queremos hacer es pensar. De hecho, el negocio de OpenAI depende de eso, del hecho de que subcontratamos nuestro pensamiento a sus servidores y que en última instancia dejamos de pensar. Si la historia de la computación en general y la de la IA en particular es la de cómo hacer máquinas de pensar, la de la IA generativa y la de OpenAI en particular es la de cómo hacer máquinas de no pensar. A pensar.