Etnógrafo digital

La paradoja del analista financiero

30 de Mayo de 2024
Josep Maria Ganyet | VIA Empresa

La automatización transforma por definición todo trabajo que toca. La digitalización del último cuarto del siglo pasado y la IA del primero de este también, aunque profundamente transformadores, son solo casos particulares de automatización. Desde la fabricación hasta la medicina, pasando por el derecho y la creación artística, no hay ninguna disciplina que no esté expuesta a los efectos de la IA, efectos que en algunos casos son aumentativos y que en otros son sustitutivos.

 

"No hay ninguna disciplina que no esté expuesta a los efectos de la IA"

Los cajeros de Decathlon y McDonald’s son hoy ya máquinas. En cambio, en las profesiones donde el valor añadido es la toma de decisiones, la IA tiene una función aumentativa: un analista financiero ve mejoradas sus competencias cualitativa y cuantitativamente en contacto con la tecnología. La complejidad de su trabajo y la responsabilidad de las decisiones requieren una gran capacidad intelectual que hace que sea difícilmente sustituible por una máquina. No obstante, un estudio reciente de la Universidad de Chicago pone de manifiesto que esta percepción podría cambiar pronto: modelos grandes de lenguaje (LLM) como GPT-4 están demostrando ser tanto o más eficaces que los analistas humanos en algunas tareas. El estudio, titulado Financial Statement Analysis with Large Language Models investiga si un LLM puede realizar análisis de estados financieros de manera similar a un analista humano.

 

Aunque el estudio es riguroso, debemos tener mucho cuidado con las comparaciones. No estamos hablando de inteligencia artificial versus inteligencia humana; estamos hablando de competencias en la realización de algunas tareas determinadas. No debería asustarnos; las calculadoras llevan décadas siendo más competentes que las personas haciendo raíces cuadradas, entre muchas otras cosas. Lo digo para evitar la trampa de humanizar la IA. A diferencia de la IA, los analistas financieros humanos tienen un conocimiento profundo del contexto, intuición, pensamiento crítico y la capacidad de integrar información cualitativa con datos cuantitativos. Son capaces de interpretar la narrativa de los informes financieros y tener en cuenta factores externos como las condiciones del mercado y las tendencias económicas. Su experiencia y conocimiento acumulado les permiten hacer juicios complejos que a menudo van más allá de las cifras. También saben cuándo, cómo y a quién mentir, es decir, a diferencia de la IA, tienen objetivos e intencionalidad.

Por otro lado, los LLM, como GPT-4, son extraordinarios en el análisis rápido de grandes cantidades de datos, en la identificación de patrones y la generación de informes detallados a partir de fuentes muy diversas. El estudio de la Universidad de Chicago demuestra que GPT-4 puede superar a los analistas humanos en la predicción de cambios futuros en las ganancias de una empresa.

"Si los LLM pueden hacer el trabajo de los analistas financieros tan bien o mejor, ¿seguiremos viendo el ejercicio de esta profesión como una muestra de inteligencia?"

Los resultados fueron sorprendentes: a pesar de no tener acceso a información narrativa o específica de la empresa, el LLM superó a los analistas financieros en su capacidad de predecir cambios en las ganancias. En concreto, mientras que los analistas humanos lograron una precisión del 52,71% en la predicción de ganancias futuras, GPT-4 logró una precisión similar (52,33%). Pero cuando se le hicieron las preguntas con el método de Cadena de pensamientos, la precisión del modelo aumentó a un impresionante 60,35%.

El método de Cadena de pensamientos consiste en estructurar las notas —las preguntas que hacemos al chatbot— para que el modelo siga una secuencia lógica de pensamiento similar a la de un analista humano: identificar cambios notables en los ítems de los estados financieros, calcular ratios financieros clave, interpretar estos ratios y formar expectativas sobre las ganancias futuras. Es como cuando el profesor le pide al alumno de matemáticas que razone cada paso de la resolución de un problema hasta llegar al resultado final. Es un método muy efectivo si usas ChatGPT.

Esta capacidad de la IA de realizar tareas complejas tradicionalmente asociadas a la inteligencia humana nos lleva a una paradoja: si los LLM pueden hacer el trabajo de los analistas financieros tan bien o mejor, ¿seguiremos viendo el ejercicio de esta profesión como una muestra de inteligencia? JohnMcCarthy, uno de los fundadores de la IA, observó que "tan pronto como una máquina sabe hacer un trabajo, ya no lo consideramos inteligente". Esta afirmación, conocida como la paradoja de McCarthy, refleja el fenómeno de que cuando una tarea se vuelve automática gracias a la tecnología, deja de ser vista como inteligencia artificial y pasa a ser simplemente una automatización más. Esta es también una de las razones por las que la definición de IA es tan elusiva.

McCarthy: "Tan pronto como una máquina sabe hacer un trabajo, ya no lo consideramos inteligente"

El estudio de la Universidad de Chicago nos obliga a reflexionar no solo sobre el futuro de la profesión de analista financiero sino sobre el de todos aquellos trabajos donde la toma de decisiones es un valor fundamental. Recordemos que no estamos hablando de inteligencia sino de competencias en tareas determinadas. Si los LLM pueden asumir muchas de las tareas que actualmente consideramos esenciales para los analistas humanos, ¿cómo se redefinirá su papel? ¿Seguiremos valorando sus habilidades únicas de razonamiento e intuición, o llegaremos al punto en que el analista financiero pase a competir por el trabajo con el ex-cajero del Decathlon?