La recent escalada de tensió entre els Estats Units, Israel i l'Iran ha tornat a situar la tecnologia al centre dels conflictes contemporanis, en un moment en què l'ús d'intel·ligència artificial en operacions militars s'està accelerant globalment. Però aquesta vegada hi ha un canvi rellevant: la intel·ligència artificial ja no només assisteix, comença a influir directament en decisions crítiques.
Segons el Congressional Research Service, la inversió global en intel·ligència artificial militar va superar els 20.000 milions de dòlars el 2024, i l'OTAN estima que aquests sistemes poden reduir fins a un 70% el temps necessari per identificar un objectiu en operacions complexes. En els conflictes recents a l'Orient Mitjà, aquesta velocitat s'ha convertit en un factor estratègic clau.
La diferència és subtil, però transcendental: ja no només analitzen la realitat, sinó que la interpreten i la prioritzen
Programes com Project Maven o plataformes d'anàlisi avançades, com les desenvolupades per Palantir Technologies, integren dades de satèl·lits, drons i sensors per generar recomanacions operatives en temps real. La diferència és subtil, però transcendental: ja no només analitzen la realitat, sinó que la interpreten i la prioritzen.
Quan la velocitat desplaça el criteri
L'automatització de l'anomenada kill chain, la cadena de decisió que va des de la identificació fins a l'acció, s'ha accelerat de manera significativa. La intel·ligència artificial permet processar grans volums d'informació en segons i detectar patrons impossibles per a l'anàlisi humana. Però el canvi clau no és la velocitat: és el desplaçament del criteri. El problema no és que la intel·ligència artificial decideixi malament, sinó que deixem de qüestionar les seves decisions.
En teoria, sempre hi ha supervisió humana. En la pràctica, en entorns de pressió i urgència, aquesta validació es converteix en un tràmit. Quan un sistema presenta una recomanació com l'opció més eficient, qüestionar-la exigeix temps. I temps és precisament el que no hi ha.
En teoria, sempre hi ha supervisió humana. En la pràctica, en entorns de pressió i urgència, aquesta validació es converteix en un tràmit
A això s'hi suma un factor crític: l'aparença d'objectivitat. Els algorismes treballen amb dades, però aquestes dades no són neutres. Així i tot, com més sofisticat és el sistema, més gran és la tendència a confiar-hi.
Catalunya: quan la IA ja decideix a la pràctica
Segons l'AI Index 2024 de la Universitat de Stanford, l'adopció empresarial de la intel·ligència artificial es continua accelerant a escala global. A Europa, estudis com el McKinsey Global Survey on AI 2023 i les dades d'Eurostat (ICT Usage in Enterprises 2023) situen l'ús de sistemes d'IA a més del 60% de les grans empreses. A Catalunya, informes d'Acció indiquen que el 28% de les pimes ja han incorporat solucions d'IA en àmbits com ara la logística, les vendes o els recursos humans.
Un exemple clar és el Port de Barcelona. En la seva operativa diària ja es fan servir sistemes d'intel·ligència artificial per optimitzar rutes, prioritzar càrregues i anticipar congestions. Segons dades del mateix Port, la digitalització ha reduït en un 25% els temps d'espera i ha millorat en un 15% l'eficiència operativa.
Formalment, la decisió final continua sent humana. En la pràctica, els algorismes determinen quina operació és prioritària. En un entorn en què cada minut té impacte econòmic, qüestionar la recomanació del sistema implica costos i fricció. La supervisió existeix, però el criteri ja no està plenament en mans humanes.
En un entorn en què cada minut té impacte econòmic, qüestionar la recomanació del sistema implica costos i fricció
Diversos informes d'organismes internacionals i anàlisis independents han alertat sobre els riscos de sistemes de priorització automatitzada en contextos reals, especialment quan operen amb dades incompletes o esbiaixades. Més enllà del cas concret, el que és rellevant és el patró: quan un algorisme identifica, prioritza i recomana, la validació humana pot convertir-se en automàtica.
I quan aquesta validació es produeix en segons, qüestionar deixa de ser una opció real.
De la guerra a l'empresa: el mateix patró
Aquest context no és aïllat, sinó un avançament d'un canvi més ampli en com es prenen decisions tant en l'àmbit militar com empresarial.
En el món empresarial, la lògica és la mateixa. Sistemes de pricing, logística o anàlisi de risc ja integren dades i generen recomanacions que orienten decisions. Un estudi de McKinsey adverteix que les empreses que adopten intel·ligència artificial decisòria sense mecanismes de control poden incrementar el seu risc operatiu fins a un 30%.
La pregunta és incòmoda: utilitzem la intel·ligència artificial per decidir millor o per decidir menys?
La regulació entra en escena
L'AI Act, aprovat el 2024 a la Unió Europea, obligarà les empreses que usin sistemes d'alt risc, inclosos aquells que influeixen en decisions operatives, logístiques o de recursos humans, a documentar com funcionen els seus algoritmes, garantir supervisió humana efectiva i demostrar que no generen biaixos sistemàtics.
Per a moltes organitzacions, això no serà només un requisit legal, sinó un canvi de paradigma: passar d'adoptar intel·ligència artificial per eficiència a governar-la amb criteris de transparència i responsabilitat.
La veritable qüestió
La intel·ligència artificial no té valors; té capacitat. L'ètica, en canvi, continua sent humana. Per a les empreses catalanes, el repte no és només incorporar intel·ligència artificial, sinó governar-la. Perquè cada vegada que deixem de qüestionar el que una màquina suggereix, no només guanyem eficiència: també cedim criteri.
Cada vegada que deixem de qüestionar el que una màquina suggereix, no només guanyem eficiència: també cedim criteri
I en aquest desplaçament silenciós no només canvia com decidim. Canvia qui decideix… i per què deixem de preguntar-ho.