Etnògraf digital

Anthropic i la guerra de lluny

12 de Març de 2026
Josep Maria Ganyet | VIA Empresa

El 2016, una colla d’investigadors, científics, enginyers, empresaris i professionals del món de la IA i la robòtica van signar una carta oberta contra la utilització de la IA per a la selecció i atac d’objectius sense intervenció humana. La IA, advertien, havia arribat a un punt en què al cap de pocs d’anys —no de dècades— serien capaces de matar de manera autònoma a partir de dades.

 

Els signants reconeixen que la IA té un gran potencial per beneficiar la humanitat, però alerten que desenvolupar aquestes armes podria desencadenar una cursa armamentística global, abaratir i facilitar la guerra, i permetre que actors autoritaris o terroristes utilitzin sistemes de mort automatitzada. Per això, demanen prohibir les armes autònomes ofensives que operin sense control humà significatiu i orientar la recerca en IA cap a usos beneficiosos per a la societat.

El 2016, els drons ja es feien servir activament en almenys sis teatres de guerra: Síria, Iraq, Afganistan, Iemen, el Donbàs (Ucraïna) i Líbia. Tanmateix, el seu paper era encara majoritàriament el de plataformes de vigilància, reconeixement i atacs selectius, més que no pas el d’armes massives de primera línia com ho serien en conflictes posteriors. En la majoria dels casos eren operats per exèrcits estatals dels sospitosos habituals —els Estats Units, Rússia i Israel— per identificar objectius i executar atacs puntuals contra comandaments o infraestructures.

 

Noms com MQ-1 Predator, MQ-9 Reaper, l’Orlan-10 rus o els Heron israelians es van convertir en protagonistes habituals dels telenotícies, símbols d’una nova manera de fer la guerra basada en la vigilància permanent des de l’aire i en la capacitat d’eliminar objectius a distància. Aquests sistemes, operats principalment per exèrcits estatals, representaven la cara tecnològica d’un canvi de fons: el pas d’una guerra basada en la presència física al camp de batalla a una guerra cada vegada més mitjançada per sensors, dades i algorismes.

Un dron Predator és controlat per un operador des d’una base a Nevada. La jornada laboral d’un operador de dron és molt similar a la vostra: vuit hores davant d’una pantalla —eliminant objectius— i encabat, cervesa al bar de la base amb els col·legues i cap a casa a temps d’ajudar les filles amb els deures. La jornada de guerra acaba a la cuina de casa.

"Si canviem l’operador de dron per un algorisme d’IA basat en una xarxa neuronal, la responsabilitat es dilueix entre les seves connexions"

Tirem una mica més enrere. Som al 1936, l’any que es va obrir el camp de concentració de Sachsenhausen, tocant de Berlín. No cal dir que la visita és corprenedora. Un dels espais més sinistres és l’anomenada infermeria. Contràriament al que el nom indica, no era un lloc per decidir si calia guarir qui hi passava, sinó si calia exterminar-lo. Si la decisió era afirmativa, el presoner era conduït a una sala on, amb l’excusa de mesurar-li l’alçada, se’l feia posar d’esquena a la paret. En realitat, darrere la paret hi havia un orifici pel qual un soldat disparava un tret al clatell. El dispositiu estava concebut perquè el botxí no hagués de mirar la víctima als ulls i, així, reduir-ne el possible trauma psicològic. Els crematoris van venir després.

La història de la guerra és també aquesta: la d’aprendre a matar més, de més lluny i de manera cada vegada més anònima, minimitzant el contacte amb la víctima i reduint el trauma de qui executa l’acte. Era gairebé inevitable que l’automatització i la intel·ligència artificial acabessin entrant en aquesta equació: si canviem l’operador de dron per un algorisme d’IA basat en una xarxa neuronal, la responsabilitat es dilueix entre les seves connexions.

En vam tenir el primer exemple al genocidi de Gaza. Als primers mesos dels bombardejos d’octubre del 2023, Israel va utilitzar un sistema anomenat Lavender que analitzava grans quantitats de dades de vigilància per identificar persones presumptament vinculades a Hamàs o a la Jihad Islàmica i marcar-les com a objectius potencials. Segons investigacions periodístiques de la revista israeliana +972, el sistema, que tenia un 10% d’error, va arribar a assenyalar desenes de milers de palestins com a possibles blancs, accelerant enormement el procés de selecció d’objectius per als atacs aeris. Fonts d’intel·ligència citades en aquestes investigacions expliquen que, en els primers moments de l’ofensiva els operadors humans no donaven l'abast i només dedicaven un màxim de vint segons a revisar cada objectiu, sovint limitant-se a confirmar la recomanació. A la pràctica, la màquina decidia qui vivia i qui no.

I arribem a avui, a la guerra amb l’Iran. Sabem, per les imatges de l’atac, que un míssil de creuer Tomahawk va impactar en una escola de nenes a la ciutat de Minab. L’atac va matar prop de 175 persones, la majoria alumnes d’entre set i dotze anys. També sabem que, en aquesta guerra, la selecció d’objectius ja no és només humana. El Pentàgon utilitza la IA per analitzar dades de vigilància i proposar blancs militars. Un dels models usats és Claude, desenvolupat per Anthropic i integrat en el sistema militar Maven, que és qui podria haver seleccionat els objectius.

No sabem fins a quin punt ni amb quin nivell de detall els resultats d’aquests sistemes d’IA són realment validats pels operadors humans. Oficialment, els exèrcits insisteixen que la decisió final sempre és humana. Però la situació en les primeres hores dels atacs nord-americans contra l’Iran recorda massa la que ja vam veure a Gaza: algoritmes que processen enormes quantitats de dades de vigilància, generen llistes d’objectius i en prioritzen centenars en qüestió de minuts; processos de planificació que abans duraven setmanes en operacions gairebé en temps real.

Cal tenir clar que els models de llenguatge com Claude són, abans que res, models: simplificacions d’allò que representen per tal de facilitar la presa de decisions. En aquest sentit, s’assemblen als mapes, representacions simplificades del territori que ens permeten orientar-nos i navegar-hi. Però, com recordava el filòsof polonès Alfred Korzybski, “el mapa no és el territori”, és en realitat un sistema de creences.

"El debat ja no és sobre tecnologia, sinó sobre agència moral, sobre qui delega en una màquina la decisió de matar i amb quina supervisió"

Entenent això, s’entén millor la decisió de Dario Amodei, executiu en cap d’Anthropic, de plantar cara a Donald Trump pel que fa a la utilització de Claude per a aquests menesters. Una cosa és que Claude analitzi un text i en generi un resum, i l’altra és que analitzi grans quantitats de dades i en generi un pla d’assasinats: el debat ja no és sobre tecnologia, sinó sobre agència moral, sobre qui delega en una màquina la decisió de matar i amb quina supervisió.

En aquest context, la resistència d’alguns desenvolupadors d’IA a veure els seus models integrats en sistemes militars no és només una qüestió d’imatge o de responsabilitat corporativa, sinó també un intent de marcar un límit abans que la cadena de decisió —dades, algoritme, objectiu— acabi expulsant els humans de decisions vitals.

La plantada d’Amodei a Trump sembla que, de moment, li ha sortit relativament bé. A la pèrdua del contracte inicial amb el Pentàgon de 200 milions de dòlars i a la declaració d’empresa de risc li ha seguit un efecte inesperat: un augment notable de l’ús de Claude. En pocs dies, les descàrregues de l’aplicació van créixer més d’un 50%, i el xatbot va arribar a situar-se com a aplicació gratuïta número 1 de l’App Store als Estats Units, superant fins i tot ChatGPT. L’empresa afirma que els nous registres superen el milió d’usuaris al dia, mentre que els usuaris actius gratuïts han crescut més d’un 60% des de principi d'any i les subscripcions de pagament també s’han duplicat.

"La resistència d’alguns desenvolupadors d’IA a veure els seus models integrats en sistemes militars no és només una qüestió d’imatge o de responsabilitat corporativa, sinó també un intent de marcar un límit"

A tot això li hem de sumar un gest molt poc habitual en el món de la tecnologia: la solidaritat dels mateixos treballadors del sector, fins i tot dels de la competència. Centenars d’enginyers, investigadors i executius de companyies com Google, OpenAI, Microsoft o Amazon han signat cartes obertes donant suport a la posició d’Anthropic i demanen límits clars a l’ús militar de la IA. 

Recorda aquella carta oberta de fa deu anys, una carta que va acabar recollint més de 30.000 signatures, entre les quals la de Dario Amodei.