Etnògraf digital

GPT-5 i la màquina de no pensar

14 d'Agost de 2025
Josep Maria Ganyet | VIA Empresa

OpenAI ha llençat el GPT-5, el seu darrer model de llenguatge extens. Me l’imaginava més gran. De fet, tothom se l’imaginava més gran: la comunitat d’investigadors en IA, els fanboys d’OpenAI, i fis i tot els seus crítics més aferrissats, els garymarcusians (Gary Marcus és el científic que el 2022 ja va escriure que l’aprenentatge profund toparia amb un mur). 

 

És inaudit veure garymarcusians i fanboys coincidint a la xarxa: els primers celebrant que Marcus tingui raó, els segons lamentant-ho, però, nogensmenys, reconeixent-ho. GPT-5 ha fet el miracle.

OpenAI s’havia negat a utilitzar el 5 per les noves versions de models de llenguatge extens perquè el reservava per a un salt qualitatiu pel que fa a capacitats del model. Això explica el caos de noms a partir de la versió 4: GPT-4o (amb una o d’Omni, no un zero), GPT, GPT-4.5, GPT-4.1 (posterior al 4.5).

 

Cada cop que OpenAI anuncia un nou model es repeteix el cicle desinformatiu: 1) tuits críptics de Sam Altman donant a entendre que ja som a l’AGI, 2) crítiques favorables a blogs, pòdcasts i canals de YouTube de fanboys a qui des d’OpenAI han donat accés previ, i 3) decepció perquè després de fer proves de laboratori el model no representa un salt prou qualitatiu per merèixer l’etiqueta de 5. Això s’explica perquè en realitat els destinataris d’aquests missatges no som nosaltres, sinó els inversors.

El resultat era que a l’hora de fer servir el ChatGPT ningú no sabia quin model havia d’utilitzar. Entaforats en un menú desplegable, l’usuari podia triar entre el 4.1, el 4.1 amb raonament, el 4.5, l’o1-preview, l’o3, l’o3-mini i en segons quin model encara podia triar-ne diferents versions en un segon nivell de menú. Tots aquests models es podien combinar amb les diferents opcions de cerca a la web, cerca profunda, enllaç a una aplicació o mode agent.

"Cada cop que OpenAI anuncia un nou model es repeteix el cicle desinformatiu"

Tot aquest caos respon més a l’organització interna de l’empresa i les seves necessitats de màrqueting que no pas a les necessitats de l’usuari, cosa que és un pecat mortal en usabilitat. De fet, a P3 d’usabilitat ja s’ensenya que els sistemes d’informació s’han de centrar en les necessitats de l’usuari, no en les de l’empresa.

L’enginyer, científic cognitiu i pope de la usabilitat Donald Norman ho diu molt clarament: “Està bé que un sistema tingui manual d’instruccions o te n’hagin d’explicar el funcionament el primer cop. Però si al segon cop encara necessites explicacions, és que està mal dissenyat” (ja vaig parlar la setmana passada sobre com els sistemes mal dissenyats, maten).

El professor i especialista en experiència d’usuari i arquitectura de la informació Steve Krug ho va resumir perfectament el 2000 al títol del seu llibre No em facis pensar, on parlava del disseny d’interfícies. La Primera Llei de la Usabilitat de Krug, també coneguda com el principi d'Autoevidència, estableix que “un lloc web o una aplicació ha de ser tan intuïtiva que els usuaris puguin navegar-hi i utilitzar-la sense necessitat d'instruccions. El disseny ha de ser clar i autoexplicatiu per evitar confusions i frustracions”.

Els dissenyadors de la interfície de ChatGPT haurien de tenir en compte els casos d’ús més freqüents, allò per a què el fem servir la majoria: l’articulista que li encomana un text a partir d’una nota de premsa, aquell estudiant que ha d’escriure un treball sobre les similituds del poema de Gilgamesh amb l’Ilíada, aquell CEO que entra en una reunió de planificació del nou any fiscal i que li ha encomanat a ChatGPT, aquella oferta de projecte per a un concurs públic generada a partir de tirar-li el plec a ChatGPT.

"La ironia més gran de tot plegat és que quan anem a ChatGPT l’últim que volem fer és pensar"

La ironia més gran de tot plegat és que quan anem a ChatGPT l’últim que volem fer és pensar. De fet, el negoci d’OpenAI depèn d'això, del fet que subcontractem el nostre pensament als seus servidors i que en darrera instància deixem de pensar. Si la història de la computació en general i la de la IA en particular és la de com fer màquines de pensar, la de la IA generativa i la d’OpenAI en particular és la de com fer màquines de no pensar. A pensar.