Etnógrafo digital

Minority Report por la cara

20 de Junio de 2024
Josep Maria Ganyet | VIA Empresa

La película Minority Report (Steven Spielberg, 2002), basada en un relato corto homónimo de Philip K. Dick, está ambientada en un futuro distópico donde la policía tiene conocimiento de los crímenes antes de que se produzcan. Una de las escenas más memorables es la de cuando el protagonista John Anderton (Tom Cruise) entra en unos grandes almacenes y la publicidad de las pantallas a su alrededor lo menciona por el nombre. Muestran anuncios de Lexus, Guiness y de American Express. Recibe estos impactos y no otros porque la IA detrás de las cámaras lo ha identificado como alguien que ha mostrado interés en estas marcas antes, o como alguien que es clasificado como hombre y que tiene posibles.

 

La escena es el sueño húmedo de los publicistas; trasladar al espacio físico los esquemas de seguimiento e influencia del comportamiento del online. Todos los PowerPoint sobre el futuro de la comunicación persuasiva empiezan con esta escena de la película seguido de "esto no es el futuro, esto es el presente". Y ahora podrían tener razón.

"Resulta que millones de viajeros de Gran Bretaña han sido John Anderson en Minority Report sin saberlo"

Resulta que millones de viajeros de Gran Bretaña han sido John Anderson en Minority Report sin saberlo. Las autoridades de Network Rail han utilizado durante dos años un sistema de Amazon basado en inteligencia artificial llamado Rekognition para predecir el comportamiento de los usuarios de sus servicios. Ocho estaciones en total incluyendo estaciones de metro en Londres y en Manchester. Si habéis pasado por Waterloo o Euston en Londres estos últimos dos años, salís en la foto.

 

Sabemos del asunto porque el grupo Big Brother Watch, que vigila los que nos vigilan, ha tenido acceso a la documentación del proyecto, fruto de una petición de información que las autoridades satisficieron. Sabemos que el objetivo del proyecto es la mejora de la seguridad del servicio: la detección de gente que salta a la vía, la prevención de suicidios, la predicción de aglomeraciones, la identificación de comportamientos antisociales, el robo de bicicletas, la prevención de vandalismo y la seguridad de los pasajeros a las estaciones.

Todo esto está muy bien, pero ¿quién lo paga? Y, sobre todo, todo esto cómo se paga. Pues como siempre; lo pagamos entre todos —los viajeros británicos en este caso— y lo pagamos con datos.

De la documentación hecha pública también se desprende el potencial uso de Minority Report del proyecto: la predicción de la edad, el género y las emociones potenciales de los usuarios para ser utilizadas con fines publicitarias. La lógica es que con todos estos datos una IA pueda inferir el mensaje persuasivo más adecuado a aquella persona y momento, en el espacio físico o en medios en linea. ¿Qué podría salir mal? En líneas generales, todo.

La detección de emociones a través de expresiones faciales es una falacia. No hay una relación unívoca entre emociones y expresiones faciales, que dependen fuertemente de elementos externos como la cultura de origen, la educación y el entorno social. Sabemos que en países donde la corrupción es alta como Rusia la gente sonríe menos al cruzar la mirada con un desconocido porque se interpreta como muestra de falsedad. Esto ha llevado a muchos científicos e ingenieros a pedir la prohibición de estas tecnologías. En octubre del 2022 el organismo regulador de datos británico emitió un comunicado advirtiendo de los riesgos de discriminación de la utilización de tecnologías biométricas: "Los desarrollos en los mercados de la biometría y la IA emocional son inmaduros. Todavía no funcionan y quizás no lo harán nunca".

"La detección de emociones a través de expresiones faciales es una falacia"

Y suponiendo que esto no fuera cierto, si la detección de emociones funcionara, el nombre de Rekognition con el apellido Amazon hace saltar todas las alarmas. Rekognition es utilizado por el departamento de defensa de los EE.UU. Lo explica muy bien una página en la web de Amazon que lleva por título un conspicuo *Amazon Rekognition Demo for Defense*. Traduzco: "Amazon Rekognition puede localizar caras dentro de las imágenes y detectar atributos, como por ejemplo si la cara sonríe o no, o los ojos están abiertos. Amazon Rekognition también admite funcionalidades avanzadas de análisis facial, como por ejemplo la comparación de caras y la búsqueda facial. Mediante Amazon Rekognition en AWS GovCloud (EE.UU.), los desarrolladores pueden crear una aplicación que mide la probabilidad que las caras de dos imágenes sean de la misma persona, casi en tiempo real".

No hay que viajar a un futuro distópico para ver una implantación exitosa de este sistema de über-vigilancia, solo hay que ir a China. En el año 2016 el periodista de la BBC John Sudworth quiso comprobar la eficiencia del sistema de vigilancia orwelliano chino. La policía de la ciudad de Guyang escaneó su foto que marcó como sospechoso de un delito. El experimento consistió en conducir hasta el centro de la ciudad, salir del coche y andar hacia una estación de autobús. Tardaron 7 minutos en detenerlo.

La escena es el sueño húmedo de los totalitaristas de todo el mundo; trasladar al espacio físico los esquemas de seguimiento e influencia del comportamiento del online. Todos los PowerPoint sobre el futuro de la seguridad empiezan con esta escena de la BBC seguido de "esto no es el futuro, esto es el presente". Y ahora tienen razón.