La pel·lĂcula Minority Report (Steven Spielberg, 2002), basada en un relat curt homònim de Philip K. Dick, estĂ ambientada en un futur distòpic on la policia tĂ© coneixement dels crims abans no es produeixin. Una de les escenes mĂ©s memorables Ă©s la de quan el protagonista John Anderton (Tom Cruise) entra en uns grans magatzems i la publicitat de les pantalles al seu voltant el menciona pel nom. Mostren anuncis de Lexus, Guiness i d’American Express. Rep aquests impactes i no d’altres perquè la IA darrera les cĂ meres l’ha identificat com algĂş que ha mostrat interès en aquestes marques abans, o com algĂş que Ă©s classificat com a home i que tĂ© possibles.
L’escena Ă©s el somni humit dels publicistes; traslladar a l’espai fĂsic els esquemes de seguiment i influència del comportament de l’en lĂnia. Tots els PowerPoint sobre el futur de la comunicaciĂł persuasiva comencen amb aquesta escena de la pel·lĂcula seguit de “això no Ă©s el futur, això Ă©s el present”. I ara podrien tenir raĂł.
"Resulta que milions de viatgers de Gran Bretanya han estat John Anderson a Minority Report sense saber-ho"
Resulta que milions de viatgers de Gran Bretanya han estat John Anderson a Minority Report sense saber-ho. Les autoritats de Network Rail han utilitzat durant dos anys un sistema d’Amazon basat en intel·ligència artificial anomenat Rekognition per a predir el comportament dels usuaris dels seus serveis. Vuit estacions en total incloent-hi estacions de metro a Londres i a Manchester. Si heu passat per Waterloo o Euston a Londres aquests darrers dos anys, sortiu a la foto.
Sabem de l’afer perquè el grup Big Brother Watch, que vigila els que ens vigilen, ha tingut accés a la documentació del projecte, fruit d’una petició d’informació que les autoritats van satisfer. Sabem que l’objectiu del projecte és la millora de la seguretat del servei: la detecció de gent que salta a la via, la prevenció de suïcidis, la predicció d’aglomeracions, la identificació de comportaments antisocials, el robatori de bicicletes, la prevenció de vandalisme i la seguretat dels passatgers a les estacions.
Tot això està molt bé, però qui ho paga? I, sobretot, tot això com es paga. Doncs com sempre; ho paguem entre tots —els viatgers brità nics en aquest cas— i ho paguem amb dades.
De la documentaciĂł feta pĂşblica tambĂ© se’n desprèn el potencial Ăşs de Minority Report del projecte: la predicciĂł de l’edat, el gènere i les emocions potencials dels usuaris per tal de ser utilitzades amb finalitats publicitĂ ries. La lògica Ă©s que amb totes aquestes dades una IA pugui inferir el missatge persuasiu mĂ©s adequat a aquella persona i moment, a l’espai fĂsic o en mitjans en lĂnia. Què podria sortir malament? En lĂnies generals, tot.
La detecciĂł d’emocions a travĂ©s d’expressions facials Ă©s una fal·lĂ cia. No hi ha una relaciĂł unĂvoca entre emocions i expressions facials, que depenen fortament d’elements externs com la cultura d’origen, l’educaciĂł i l’entorn social. Sabem que en paĂŻsos on la corrupciĂł Ă©s alta com RĂşssia la gent somriu menys en creuar la mirada amb un desconegut perquè s’interpreta com a mostra de falsedat. Això ha portat a molts cientĂfics i enginyers a demanar la prohibiciĂł d’aquestes tecnologies. L'octubre del 2022 l’organisme regulador de dades britĂ nic va emetre un comunicat advertint dels riscos de discriminació de la utilitzaciĂł de tecnologies biomètriques: “Els desenvolupaments en els mercats de la biometria i la IA emocional sĂłn immadurs. Encara no funcionen i potser no ho faran mai”.
"La detecció d’emocions a través d’expressions facials és una fal·là cia"
I suposant que això no fos cert, si la detecciĂł d’emocions funcionĂ©s, el nom de Rekognition amb el cognom Amazon fa saltar totes les alarmes. Rekognition Ă©s utilitzat pel departament de defensa dels EUA. Ho explica molt bĂ© una pĂ gina al web d’Amazon que porta per tĂtol un conspicu *Amazon Rekognition Demo for Defense*. Tradueixo: “Amazon Rekognition pot localitzar cares dins de les imatges i detectar atributs, com ara si la cara somriu o no, o els ulls estan oberts. Amazon Rekognition tambĂ© admet funcionalitats avançades d'anĂ lisi facial, com ara la comparaciĂł de cares i la cerca facial. Mitjançant Amazon Rekognition a AWS GovCloud (EUA), els desenvolupadors poden crear una aplicaciĂł que mesura la probabilitat que les cares de dues imatges siguin de la mateixa persona, gairebĂ© en temps real”.
No cal viatjar a un futur distòpic per veure una implantació reeixida d’aital sistema d’über-vigilà ncia, només cal anar a la Xina. L’any 2016 el periodista de la BBC John Sudworth va voler comprovar l’eficiència del sistema de vigilà ncia orwelliana xinès. La policia de la ciutat de Guyang va escanejar la seva foto que va marcar com a sospitós d’un delicte. L’experiment va consistir en conduir fins al centre de la ciutat, sortir del cotxe i caminar cap a una estació d’autobús. Van trigar 7 minuts a detenir-lo.
L’escena Ă©s el somni humit dels totalitaristes de tot el mĂłn; traslladar a l’espai fĂsic els esquemes de seguiment i influència del comportament de l’en lĂnia. Tots els PowerPoint sobre el futur de la seguretat comencen amb aquesta escena de la BBC seguit de “això no Ă©s el futur, això Ă©s el present”. I ara tenen raĂł.