La pel·lícula Minority Report (Steven Spielberg, 2002), basada en un relat curt homònim de Philip K. Dick, està ambientada en un futur distòpic on la policia té coneixement dels crims abans no es produeixin. Una de les escenes més memorables és la de quan el protagonista John Anderton (Tom Cruise) entra en uns grans magatzems i la publicitat de les pantalles al seu voltant el menciona pel nom. Mostren anuncis de Lexus, Guiness i d’American Express. Rep aquests impactes i no d’altres perquè la IA darrera les càmeres l’ha identificat com algú que ha mostrat interès en aquestes marques abans, o com algú que és classificat com a home i que té possibles.
L’escena és el somni humit dels publicistes; traslladar a l’espai físic els esquemes de seguiment i influència del comportament de l’en línia. Tots els PowerPoint sobre el futur de la comunicació persuasiva comencen amb aquesta escena de la pel·lícula seguit de “això no és el futur, això és el present”. I ara podrien tenir raó.
"Resulta que milions de viatgers de Gran Bretanya han estat John Anderson a Minority Report sense saber-ho"
Resulta que milions de viatgers de Gran Bretanya han estat John Anderson a Minority Report sense saber-ho. Les autoritats de Network Rail han utilitzat durant dos anys un sistema d’Amazon basat en intel·ligència artificial anomenat Rekognition per a predir el comportament dels usuaris dels seus serveis. Vuit estacions en total incloent-hi estacions de metro a Londres i a Manchester. Si heu passat per Waterloo o Euston a Londres aquests darrers dos anys, sortiu a la foto.
Sabem de l’afer perquè el grup Big Brother Watch, que vigila els que ens vigilen, ha tingut accés a la documentació del projecte, fruit d’una petició d’informació que les autoritats van satisfer. Sabem que l’objectiu del projecte és la millora de la seguretat del servei: la detecció de gent que salta a la via, la prevenció de suïcidis, la predicció d’aglomeracions, la identificació de comportaments antisocials, el robatori de bicicletes, la prevenció de vandalisme i la seguretat dels passatgers a les estacions.
Tot això està molt bé, però qui ho paga? I, sobretot, tot això com es paga. Doncs com sempre; ho paguem entre tots —els viatgers britànics en aquest cas— i ho paguem amb dades.
De la documentació feta pública també se’n desprèn el potencial ús de Minority Report del projecte: la predicció de l’edat, el gènere i les emocions potencials dels usuaris per tal de ser utilitzades amb finalitats publicitàries. La lògica és que amb totes aquestes dades una IA pugui inferir el missatge persuasiu més adequat a aquella persona i moment, a l’espai físic o en mitjans en línia. Què podria sortir malament? En línies generals, tot.
La detecció d’emocions a través d’expressions facials és una fal·làcia. No hi ha una relació unívoca entre emocions i expressions facials, que depenen fortament d’elements externs com la cultura d’origen, l’educació i l’entorn social. Sabem que en països on la corrupció és alta com Rússia la gent somriu menys en creuar la mirada amb un desconegut perquè s’interpreta com a mostra de falsedat. Això ha portat a molts científics i enginyers a demanar la prohibició d’aquestes tecnologies. L'octubre del 2022 l’organisme regulador de dades britànic va emetre un comunicat advertint dels riscos de discriminació de la utilització de tecnologies biomètriques: “Els desenvolupaments en els mercats de la biometria i la IA emocional són immadurs. Encara no funcionen i potser no ho faran mai”.
"La detecció d’emocions a través d’expressions facials és una fal·làcia"
I suposant que això no fos cert, si la detecció d’emocions funcionés, el nom de Rekognition amb el cognom Amazon fa saltar totes les alarmes. Rekognition és utilitzat pel departament de defensa dels EUA. Ho explica molt bé una pàgina al web d’Amazon que porta per títol un conspicu *Amazon Rekognition Demo for Defense*. Tradueixo: “Amazon Rekognition pot localitzar cares dins de les imatges i detectar atributs, com ara si la cara somriu o no, o els ulls estan oberts. Amazon Rekognition també admet funcionalitats avançades d'anàlisi facial, com ara la comparació de cares i la cerca facial. Mitjançant Amazon Rekognition a AWS GovCloud (EUA), els desenvolupadors poden crear una aplicació que mesura la probabilitat que les cares de dues imatges siguin de la mateixa persona, gairebé en temps real”.
No cal viatjar a un futur distòpic per veure una implantació reeixida d’aital sistema d’über-vigilància, només cal anar a la Xina. L’any 2016 el periodista de la BBC John Sudworth va voler comprovar l’eficiència del sistema de vigilància orwelliana xinès. La policia de la ciutat de Guyang va escanejar la seva foto que va marcar com a sospitós d’un delicte. L’experiment va consistir en conduir fins al centre de la ciutat, sortir del cotxe i caminar cap a una estació d’autobús. Van trigar 7 minuts a detenir-lo.
L’escena és el somni humit dels totalitaristes de tot el món; traslladar a l’espai físic els esquemes de seguiment i influència del comportament de l’en línia. Tots els PowerPoint sobre el futur de la seguretat comencen amb aquesta escena de la BBC seguit de “això no és el futur, això és el present”. I ara tenen raó.