Etnógrafo digital

El quantified-self y las buenas intenciones de Google

14 de Noviembre de 2019
Josep Maria Ganyet | VIA Empresa

Esta semana hemos sabido por un reportaje del Wall Street Journal que Google ha firmado un acuerdo con Ascension, la segunda cadena hospitalaria norteamericana, para la recogida y el análisis de los datos personales de salud de sus pacientes. Ascension cuenta con 2.600 centros entre hospitales, consultas y otras instalaciones. El WSJ especifica —y las noticias que lo citan también lo citan— que la cadena hospitalaria es católica. Desconozco el porqué.

 

Bajo el sugerente nombre de "Proyecto Nightingale" (Proyecto Ruiseñor), Google hace casi un año que recoge los datos médicos de los pacientes: fecha de nacimiento, resultados de analíticas, diagnosis, miembros de la familia, alergias, registros hospitalarios y todo el historial médico. Cuando alguien entra al médico o es ingresado, el sistema recupera todos los datos a las que se añaden las generadas en la visita actual. Una vez los algoritmos de IA de Google han hecho la magia, el Ruiseñor hace las recomendaciones pertinentes; entre ellas un tratamiento, un cambio de médico, una adición de un especialista al equipo médico o bien más pruebas médicas (con sus correspondientes costes).

"Ascension no notificó a sus pacientes que cedía sus datos a Google; y no les hacía falta, todo es legal según la ley federal vigente"

Google cuenta ahora con toda esta información de decenas de millones de pacientes norteamericanos… que hasta el pasado lunes, antes del artículo del WSJ, no lo sabían. La mala noticia es que Ascension no notificó ninguno de sus pacientes que cedía sus datos a Google; lo peor es que no les hacía falta, todo es legal según la ley federal vigente. Según la Health Insurance Portability and Accountability Act de 1996 las empresas pueden compartir datos sin notificar a los pacientes si tiene que ver con su salud. A pesar de todas las suspicacias, no se me ocurre nadie mejor que Google para hacer este trabajo.

 

Si os pregunto cuáles son las empresas más potentes del mundo, os vendrán ineludiblemente a la cabeza Google, Apple, Facebook, Amazon y Microsoft. Hace unos años os habrían venido a la cabeza bancos y energéticas. Esto es así porque las empresas que gestionan información no están limitadas por las restricciones físicas; las primeras están regidas por la ley de Moore y las últimas por la ley de la gravedad. De aquí que el sorpaso se haya producido con tan poco tiempo.

"El cuerpo humano, como gran productor de datos biométricos es la cercana gran frontera del capitalismo digital"

Casualmente, de las cinco empresas que os han venido a la cabeza, quitando Facebook, todas tienen proyectos relacionados con la salud si bien no tan avanzados como los de Google; el cuerpo humano, como gran productor de datos biométricos es la proxima gran frontera del capitalismo digital, lo que en tecno-marquetiniano se llama el "quantified self". No es de extrañar, pues, que Google no cobre nada a Ascension por las decenas de ingenieros y de recursos computacionales que dedican al Ruiseñor.

Añadamos a la noticia la compra que la semana pasada Google se hizo con FitBit, el segundo actor después de Apple en dispositivos vestibles, y el proyecto Baseline, un proyecto de monitorización exhaustiva de los hábitos de vida y las constantes de 10.000 voluntarios. Google afirma que el proyecto Ruiseñor cumple con todos los requerimientos legales y que los datos que recoge de Ascension no irán a otros proyectos del grupo. Pero esto no les limita a no utilizar los datos y entrenar algoritmos de IA que después venderán a terceros.

En principio yo no tendría ningún problema a ceder mis datos, incluso todo mi "quantified self" a la sociedad para un bien común, del mismo modo que doy sangre. El problema de cederlos a una empresa como Google, que tiene como misión nominal "ordenar la información del mundo y hacerla accesible" y como real ganar dinero, es que no sé para qué se usarán en última instancia. De hecho ni ellos lo saben. Podría ser que los datos que cedo sirvieran para entrenar un algoritmo que fuera vendido a un tercero y que un día me discriminará a mí o a un grupo sin tener ninguna explicación. La paradoja sería que aquello que yo habría hecho con la mejor de las intenciones contribuiría a un resultado nefasto a nivel individual o colectivo. Inconscientemente me ha venido a la cabeza la mención del WSJ al catolicismo de Ascension.