Stephen Thaler es un doctor en física con experiencia en el campo de la aeronáutica que hace 25 años fundó la empresa Imagination Engines, dedicada a lo que él denominaba “computación consciente” y que ahora todo el mundo llama “inteligencia artificial”. Uno de sus proyectos es DABUS, un sistema de redes neuronales que se pueden estimular para generar nociones simples, y estas nociones simples se pueden combinar hasta obtener otras nociones más complejas. Con este método, aquí muy mal explicado, DABUS ha generado dos resultados nuevos y concretos: un contenedor fractal de líquidos, y un sistema de señales luminosas también con fractales. O dicho de otra manera, DABUS es un sistema de inteligencia artificial que ha creado dos inventos.
El 3 de noviembre de 2018 Thaler presentó una solicitud para registrar los derechos de autor de estos inventos, e indicó que la autoría correspondía a una “máquina creativa” indicando que los inventos habían sido “creados de forma autónoma por un algoritmo informático que se ejecuta en una máquina”. Nueve meses después, la Oficina de Derechos de Autor de los Estados Unidos (US Copyright Office) contestó denegando el registro porque “se necesita autoría humana para poder reclamar derechos de autor”. Es decir, solo un humano puede ser autor de una idea, un invento o lo que sea. Thaler apeló y este agosto la Junta de Revisión ha confirmado que no, que no acepta el registro porque hace falta que el autor sea humano. Thaler está llevando el tema a diferentes oficinas de patentes del mundo, y ya lo ha presentado en Europa, Australia, Sudáfrica, Reino Unido y Nueva Zelanda.
El verdadero objetivo de Thaler no es registrar estos dos inventos, que son más bien tontos, sino provocar un debate y obligar a modificar la normativa de derechos de autor. De hecho, lo que hace Thaler es atender el reto que le lanzó el abogado Ryan Abbot, que lo provocó a crear un sistema de inteligencia artificial con el único objetivo de inventar algo que les permitiese ir a una oficina de patentes y provocar el problema.
Pues no, tras cualquier proceso informático hay alguien, una persona humana, que debe hacerse responsable
Lo que estamos discutiendo es el marco moral de nuestro futuro. Si las máquinas son responsables de sus actos, y si tienen derechos y deberes. ¿No os ha pasado nunca que habéis ido al banco a reclamar que os han cobrado una comisión y la persona del mostrador se ha excusado diciendo “la máquina no me deja quitarla”?. No es culpa suya, ni de nadie. Es la máquina la que ha decidido que tú debes pagar comisiones. Pues no, tras cualquier proceso informático, hay alguien, una persona humana, que debe hacerse responsable.
“Si uno de los robots dispara erróneamente y mata a alguien, ¿de quién es culpa?”
En 2018 la gente de Domestic Data Streamers inauguró en Barcelona la exposición “Design Does” (“lo hace el diseño”) que ya ha viajado por medio mundo. Una instalación que lleva al visitante a reflexionar sobre el papel que juega el diseño en nuestras vidas. Una de las piezas presentaba el caso real de los robots armados que vigilan la frontera entre Corea del Norte y Corea del Sur, y preguntaba “si uno de los robots dispara erróneamente y mata a alguien, ¿de quién es culpa?”, ¿del diseñador del sistema?, ¿del comercial que lo ha puesto en el mercado?, ¿del político que lo ha comprado?. Lo que no es, es culpa del robot. Alguien, y no la máquina, es el responsable de aquella muerte.
Actualmente, se están desplegando sistemas de reconocimiento facial en los controles policiales de los aeropuertos. Si el sistema te deniega el acceso a los Estados Unidos no puedes caer en la trampa de limitarte a decir “la máquina no me dejó entrar”. No vuelvas a aceptar como respuesta “lo siento, la máquina no me deja”. No aceptes la tecnología como responsable de ninguna decisión. Alguien ha aceptado esos parámetros, alguien ha aceptado que ese proceso se haga de esa manera, alguien ha aceptado que la máquina tenga ese margen de decisión. La responsabilidad es un atributo humano, otra diferencia más entre humanos y máquinas.