• Opinió
  • El quantified-self i les bones intencions de Google

El quantified-self i les bones intencions de Google

14 de Novembre de 2019
Josep Maria Ganyet | VIA Empresa

Aquesta setmana hem sabut per un reportatge del Wall Street Journal que Google ha signat un acord amb Ascension, la segona cadena hospitalària nord-americana, per a la recollida i l’anàlisi de les dades personals de salut dels seus pacients. Ascension compta amb 2.600 centres entre hospitals, consultes i altres instal·lacions. El WSJ especifica —i les notícies que el citen també ho citen— que la cadena hospitalària és catòlica. En desconec el perquè.

Sota el suggerent nom de “Projecte Nightingale” (Projecte Rossinyol), Google fa vora un any que recull les dades mèdiques dels pacients: data de naixement, resultats d’analítiques, diagnosis, membres de la família, al·lèrgies, registres hospitalaris i tot l’historial mèdic. Quan algú entra a cal metge o és ingressat, el sistema en recupera totes les dades a les que s’hi afegeixen les generades en la visita actual. Un cop els algorismes d’IA de Google han fet la màgia, el Rossinyol fa les recomanacions pertinents; entre elles un tractament, un canvi de metge, una addició d’un especialista a l’equip mèdic o bé més proves mèdiques (amb els seus corresponents costos).

"Ascension no va notificar als seus pacients que cedia llurs dades a Google; i no els calia, tot és legal segons la llei federal vigent"

Google compta hores d’ara amb tota aquesta informació de desenes de milions de pacients nord-americans… que fins dilluns passat, abans de l’article del WSJ, no ho sabien. La mala notícia és que Ascension no va notificar cap dels seus pacients que cedia llurs dades a Google; la pitjor és que no els calia, tot és legal segons la llei federal vigent. Segons la Health Insurance Portability and Accountability Act de 1996 les empreses poden compartir dades sense notificar els pacients si té a veure amb la seva salut. Malgrat totes les suspicàcies, no se m’acut ningú millor que Google per fer aquesta feina.

Si us pregunto quines són les empreses més potents del món, us vindran ineludiblement al cap les Google, Apple, Facebook, Amazon i Microsoft. Fa uns anys us haurien vingut al cap bancs i energètiques. Això és així perquè les empreses que gestionen informació no estan limitades per les restriccions físiques; les primeres estan regides per la llei de Moore i les darreres per la llei de la gravetat. D’aquí que el sorpasso s’hagi produït amb tan poc temps.

"El cos humà, com a gran productor de dades biomètriques és la propera gran frontera del capitalisme digital"

Casualment, de les cinc empreses que us han vingut al cap, tret de Facebook, totes tenen projectes relacionats amb la salut si bé no tan avançats com els de Google; el cos humà, com a gran productor de dades biomètriques és la propera gran frontera del capitalisme digital, el que en tecno-marquetinià se’n diu el “quantified self”. No és d’estranyar, doncs, que Google no cobri res a Ascension per les desenes d’enginyers i de recursos computacionals que dediquen al Rossinyol.

Afegim-hi a la notícia la compra que la setmana passada Google va fer de FitBit, el segon actor després d’Apple en dispositius vestibles, i el projecte Baseline, un projecte de monitoratge exhaustiu dels hàbits de vida i les constants de 10.000 voluntaris. Google afirma que el projecte Rossinyol compleix amb tots els requeriments legals i que les dades que recull d’Ascension no aniran a altres projectes del grup. Però això no els limita a no utilitzar les dades i entrenar algorismes d’IA que després vendran a tercers.

En principi jo no tindria cap problema en cedir les meves dades, fins i tot tot el meu “quantified self” a la societat per a un bé comú, de la mateixa manera que dono sang. El problema de cedir-los a una empresa com Google, que té com a missió nominal “ordenar la informació del món i fer-la accessible” i com a real guanyar diners, és que no sé per a què es faran servir en última instància. De fet ni ells ho saben. Podria ser que les dades que cedeixo servissin per entrenar un algorisme que fos venut a un tercer i que un dia em discriminés a mi o a un grup sense tenir-ne cap explicació. La paradoxa seria que allò que jo hauria fet amb la millor de les intencions contribuiria a un resultat nefast a nivell individual o col·lectiu. Inconscientment m’ha vingut al cap la menció del WSJ al catolicisme d’Ascension.