Hemos pasado por alto la inclusión digital básica

21 de Octubre de 2024
Act. 21 de Octubre de 2024
Gina Tost | VIA Empresa

En el año 2014, la palabra de moda era big data, y mi pregunta a los profesionales se resumía en "¿A partir de qué casilla del Excel pasaba de datos normales a big data?". En el año 2024 no podemos dar dos pasos sin que se nos hable de la inteligencia artificial, pero no es un tema nuevo.

Hace unos años, hablar de inteligencia artificial (IA) era como hablar de coches voladores y cápsulas hoi-poi: un futuro lejano que solo veíamos en las películas de ciencia ficción y en Bola de Dragón. Hoy, mucha IA sigue siendo pura especulación, pero poco a poco lucha por convertirse en una herramienta que forme parte de nuestro día a día. Desde microondas que calculan cuánto tiempo necesitas para calentar el café, pasando por cámaras de vigilancia que identifican quién llama a la puerta, hasta asistentes virtuales que nos recuerdan que hay que comprar más leche y hacer una transferencia a la cuenta familiar. Pero, más que con cualquier tecnología poderosa que hayamos podido ver hasta ahora, hay un debate muy serio que planea a su alrededor: la ética.

Sigo muy de cerca las preocupaciones de los colectivos más creativos (dibujantes, actores, músicos…) por el uso sin permiso de datos con derechos de autor en el entrenamiento de los modelos de IA. Como no dejan de ser cajas negras, a veces es difícil saber qué hay detrás. No es que una IA haya estado pirateando Star Trek para mejorar su comprensión de la exploración intergaláctica, pero lo cierto es que se ha demostrado que muchas de estas máquinas aprenden con datos que no tienen licencia para ello.

"Hace unos años, hablar de inteligencia artificial (IA) era como hablar de coches voladores y cápsulas hoi-poi: un futuro lejano que solo veíamos en las películas de ciencia ficción y en Bola de Dragón"

Algunas instrucciones hechas con astucia pueden destapar la liebre de estas cajas negras: Si yo le pido un dibujo con el estilo de Azpiri y me lo hace, significa que en algún momento ese sistema ha bebido de su obra. Si yo pido una canción con el estilo de los Amics de les Arts, significa que en algún momento ha escuchado alguna. Y quizás ninguno de los dos ha dado permiso para hacerlo.

Esto abre muchas preguntas y alarmas sobre las obras derivadas, hasta qué punto entra dentro de la legalidad, si hay suficientes obras en el espacio público y libre para entrenar estos sistemas, y si es correcto cobrar una cuota a los mismos artistas a los que se les ha sustraído la obra para usarla. No querríamos que una IA acabe convirtiéndose en un plagiador digital, ¿verdad?

Y, por supuesto, no podemos olvidarnos del tema de los sesgos. El problema es que la IA aprende de lo que ve, y si la entrenamos con datos sesgados, acabaremos con máquinas que reproducen y amplifican los mismos prejuicios.

"El problema es que la IA aprende de lo que ve, y si la entrenamos con datos sesgados, acabaremos con máquinas que reproducen y amplifican los mismos prejuicios"

Cuando preguntas a algunos sistemas que te pinten un ingeniero, acaban poniendo a un montón de señores blancos de entre 30 y 50 años. Es el equivalente a cuando traducías nurse o secretary en Google Translate en el año 2012 y te devolvía "enfermera" y "secretaria", pero no pasaba con enginyer, president o boss.

Pero no es el primer reto con el que nos encontramos con la tecnología, tenemos muchos otros pendientes. Algunos bien grandes, como la accesibilidad o la transparencia.

Si aún no hemos podido hacer que la gente (o un sistema de reconocimiento automático) escriba las descripciones de las imágenes en las fotos que sube para que los sistemas de personas con discapacidad visual puedan saber qué has puesto, ¿cómo pretendemos abordar un problema como el de la ética en la IA?

Y la accesibilidad no es solo para personas con discapacidad. A veces puede ser necesaria para personas que no conviven con ninguna, pero que por un hecho puntual les resulta útil. Como una rampa cuando vas con carrito, o unos subtítulos cuando has perdido los auriculares.

Me (y nos) preocupan estas distorsiones, y con razón: un sistema sin accesibilidad deja fuera a mucha gente, y una IA mal entrenada puede ser tan o más peligrosa que un humano con ideas preconcebidas.

"Una IA mal entrenada puede ser tanto o más peligrosa que un humano con ideas preconcebidas"

¿Cómo puede ser que en pleno 2024, un asistente de voz funcione con el sonido de la voz, pero no se pueda implementar en el ascensor de la biblioteca de la ciudad? ¿Cómo puede ser que las soluciones tecnológicas de muchas empresas no estén en todos los idiomas del mundo?

Y esto no es solo una cuestión de errores o de falta de recursos, es una cuestión de visión y de directiva en las operaciones de una empresa. La inclusión, la mirada crítica a los sesgos, la ética y la accesibilidad tecnológica no deben ser un añadido de última hora, una especie de "si nos sobra tiempo, lo hacemos". Los desarrolladores, ingenieros y tecnólogos debemos pensar en todas estas facetas más "humanistas" como parte del proceso de diseño, no como un parche que ponemos después. Duele decirlo, pero somos la Renfe de la ética tecnológica.

Es sorprendente cómo, mientras dedicamos horas y horas a discutir sobre la privacidad y la ciberseguridad, dos temas fundamentales y también relevantes, los derechos de autor y las implicaciones éticas de la IA, pasamos por alto la inclusión digital básica.

No tiene ningún sentido que seamos capaces de crear sistemas que pueden generar obras de arte digitales increíbles, pero que no pensemos en cómo una persona ciega accederá a esa misma obra o cómo una persona mayor podrá gestionar su cuenta bancaria sin sentirse humillada por un chatbot que la obliga a cambiar de idioma.

La tecnología debería ser una herramienta de libertad, no una barrera. Si estamos dispuestos a debatir durante horas sobre si una IA puede volverse demasiado poderosa o sesgada, también deberíamos debatir durante horas sobre cómo hacer que esta IA y todas las tecnologías sean accesibles para todos. Quizás deberíamos dedicarle al menos el mismo esfuerzo.

"Si estamos dispuestos a debatir durante horas sobre si una IA puede volverse demasiado poderosa o sesgada, también deberíamos debatir durante horas sobre cómo hacer que esta IA y todas las tecnologías sean accesibles para todos"

No se trata solo de ser ético, sino de ser inclusivo. Ser ético también significa ser inclusivo, ¿no? Porque, ¿de qué sirve un futuro en el cual las máquinas son justas y seres de luz, pero la mitad de la población no puede acceder a ello?

Nuestra misión es doble: asegurarnos de que las máquinas que creamos no solo sean éticas en su concepción, sino también accesibles en su ejecución. Un mundo donde todos, independientemente de sus capacidades físicas o cognitivas, puedan beneficiarse de la tecnología. En definitiva, un futuro en el que no solo evitemos el meteorito que ha venido a cargarse la Tierra, sino también hacer útil la televisión y el teléfono de última generación.

Porque sí, el debate sobre la ética de la IA es importante. Pero el debate sobre la accesibilidad tecnológica es igual de esencial, aunque a menudo no hace tanto ruido porque quizás no afecta a los colectivos con más visibilidad, que llevan las Apple VisionPro y viven en casas con comedor.

Quizás la próxima vez que hablemos de inclusión digital lo hagamos con la misma pasión con la que defendemos los derechos de autor en Internet. Y si no, siempre nos quedará la IA para recordarnos que hay que comprar más leche, y que tenemos que pagar la cuota para seguir generando imágenes entrenadas con material sin permiso.