Opinión

Trolleys, trileros y trolls

El dilema de la vagoneta (trolley problem en el original) es un experimento mental en el que una persona debe tomar una decisión entre dos opciones igualmente difíciles. En una de sus formulaciones, una vagoneta descontrolada se dirige hacia cinco personas que serán atropelladas si nadie hace nada. Podemos impedirlo cambiando la aguja y desviando la vagoneta a otra vía donde hay una persona trabajando. ¿Es moralmente correcto sacrificar a una persona para salvar a cinco? ¿Qué principios éticos justifican la decisión?

Este dilema surge de manera natural cuando hablamos de coches autónomos, vehículos que deben tomar decisiones éticas en situaciones de emergencia. Si un coche autónomo se encuentra en una situación en la que tiene que decidir entre atropellar a un grupo de personas o realizar una maniobra que podría poner en riesgo al pasajero del vehículo, ¿qué criterios éticos debe seguir el coche? Sean cuales sean, deberían estar programados de antemano en el sistema de inteligencia artificial; las decisiones de vida o muerte habrían sido codificadas previamente por los ingenieros. Esto implica haber elegido con antelación qué vidas priorizar, pero ¿bajo qué criterios?

"¿Es moralmente correcto sacrificar a una persona para salvar a cinco?"

Algunos fabricantes, como Mercedes, ya lo han respondido: sus coches priorizarían la seguridad de los ocupantes del vehículo por encima de la de los peatones en situaciones de emergencia. Posición controvertida desde la ética —el valor de la vida de los ocupantes es superior al de los demás—, obvia desde un punto de vista de mercado: ¿quién compraría un coche sabiendo que en determinadas circunstancias lo sacrificaría? Este “dilema del vendedor” muestra la complejidad de programar los coches autónomos para gestionar dilemas morales; cualquier priorización puede ser vista como parcial o injusta y comportar consecuencias legales y de reputación para los fabricantes.

Tesla, en cambio, no ha especificado explícitamente qué principios éticos utilizan sus coches autónomos cuando se encuentran en situaciones de dilema moral. Tesla se centra más en la eficiencia tecnológica y la capacidad de su mal llamado Autopilot para evitar accidentes en general: confía en el procesamiento de datos y la predicción de escenarios para reducir los riesgos y eliminar de raíz cualquier dilema moral.

Més info: El Penedès, la línea de salida de los coches autónomos: "No necesitaremos conductores"

A diferencia de Mercedes, desconocemos los principios éticos de Tesla, pero podemos imaginárnoslos. De hecho, siguiendo su trayectoria, no cuesta mucho saber que la intersección entre ética y Tesla es el conjunto vacío. Un ejemplo: los modelos de la marca incorporan artilugios tan “necesarios” para la seguridad como el “modo Navidad” (el coche hace parpadear las luces y abre y cierra las puertas) o bien un sistema de pedos activados por los sensores de presión de los asientos para hacer bromas a los pasajeros. En cambio, en mayo de 2021, la marca anunció que dejaba de incorporar radar en sus vehículos. Poco después, comenzó a desactivarlos en vehículos que ya estaban en el mercado. La decisión de eliminar el radar fue controvertida, y algunos ingenieros de Tesla protestaron.

El nombre Autopilot también ha sido muy criticado. Autopilot es como se llama el piloto automático que hace volar solo a los aviones; una confusión buscada que hace que los usuarios sobreestimen las capacidades reales del sistema. Aunque Tesla insiste en que es un asistente de conducción avanzada y que el conductor debe mantener las manos en el volante y estar siempre preparado para tomar el control, el nombre sugiere una capacidad de conducción autónoma que no es real.

"El nombre Autopilot sugiere una capacidad de conducción autónoma que no es real"

Esto habría quedado en un ingenioso truco de marketing si no fuera porque ha provocado múltiples incidentes debido a que los conductores han confiado demasiado en el sistema, confiados de que el coche tenía piloto automático. Esto ha derivado en accidentes graves, y en algunos casos, mortales. Las agencias reguladoras y expertos en seguridad han pedido que Tesla cambie el nombre para evitar malentendidos y una falsa sensación de seguridad.

Hace quince días, Elon Musk presentó el Cybercab, un coche totalmente autónomo pensado para funcionar como taxi y hacer ganar dinero a sus propietarios mientras duermen (no quiero imaginar el estado del vehículo por la mañana yendo al trabajo después de que haya llevado a gente de fiesta toda la noche). Musk destacó que el Cybercab es el siguiente paso en la visión de Tesla de ofrecer vehículos que puedan ser utilizados para servicios de movilidad autónoma, ofreciendo a los propietarios una forma de generar ingresos pasivos. No acabo de ver el modelo de negocio.

Més info: Mentiras y verdades detrás de Optimus, el robot del futuro

Aun así, el lanzamiento ha generado dudas importantes. Los reguladores continúan mostrando preocupación por la seguridad de los vehículos totalmente autónomos y por la madurez de los sistemas de Tesla, que aún no han demostrado ser fiables al 100%. Muchos expertos creen que la tecnología de conducción autónoma aún está lejos de ser lo suficientemente segura para operar en entornos urbanos complejos sin ningún tipo de supervisión humana. Además, los antecedentes de promesas incumplidas y retrasos en otros proyectos de Musk —lleva anunciando la conducción autónoma total desde 2014— han hecho que la presentación del Cybercab haya sido recibida con una buena dosis de escepticismo por parte del público, la industria y los inversores: las acciones de Tesla cayeron un 9% después de la presentación.

También vimos a Optimus, el robot humanoide que Elon Musk pretende convertir el año que viene en un producto de consumo a un precio de 20 o 30.000 euros la unidad. Optimus es un robot diseñado para realizar tareas repetitivas y potencialmente peligrosas para los humanos. Musk insistió en que este robot podría cambiar la forma en que se hacen muchas tareas, tanto en el taller como en casa. Durante la presentación, se mostraron algunas capacidades del robot: caminar, agarrar objetos y hacer movimientos sencillos.

El robot Optimus, de Tesla | EP

Los Optimus impresionaron a todos: moviéndose libremente entre los asistentes al evento —en su mayoría hombres—, conversando con ellos, saludando y chocando manos. Al final, resultó que estaban controlados remotamente. Las conversaciones de ciencia ficción entre los fanboys y los robots resultaron ser el chat más caro de la historia. Musk ha sido criticado anteriormente por hacer presentaciones demasiado coreografiadas o por mostrar vídeos manipulados —del mismo Optimus o del Autopilot de Tesla—. Existen todas las dudas del mundo sobre lo que el robot es capaz de hacer en el mundo real. De momento, todo lo que hemos visto son vídeos manipulados.

De hecho, fue el mismo Musk quien dijo durante la presentación que la tecnología de un Tesla no es tan diferente de la de un robot humanoide. Argumentó que los componentes básicos de un coche Tesla —sistemas de visión por cámara, los procesadores para la toma de decisiones y algoritmos de aprendizaje automático— son aplicables también a un robot que se mueva e interactúe con su entorno.

"Existen todas las dudas del mundo sobre lo que el robot es capaz de hacer en el mundo real. De momento, todo lo que hemos visto son vídeos manipulados"

Esta comparación forma parte de su visión de que los coches Tesla son "robots sobre ruedas" —lo son efectivamente— y que Optimus es esencialmente una evolución de esta idea: un robot capaz de caminar, manipular objetos y ejecutar tareas de manera autónoma. Aun así, la complejidad de interactuar con entornos humanos desde la perspectiva de un robot humanoide supera con creces la de los vehículos autónomos.

En cualquier caso, no descarto ver prototipos de Optimus en entornos industriales —en Tesla seguro— donde su aplicación es inmediata a la hora de ejecutar tareas repetitivas, pesadas o peligrosas. Los entornos industriales tienen condiciones más controladas, lo que facilita la implantación de robots y reduce las consecuencias de errores graves.

Sin embargo, llevar a Optimus a un hogar, con personas ancianas y niños alrededor, me parece un escenario mucho más complicado y lleno de riesgos. El entorno doméstico es mucho menos predecible y presenta situaciones mucho más variadas y sensibles donde cualquier error puede tener consecuencias serias. La falta de una ética empresarial clara y la dificultad de programar principios éticos en un robot para gestionar decisiones complejas —responder ante situaciones de emergencia o proteger a los más vulnerables— hace que la predicción de Musk para el próximo año sea tan válida como las que hace desde 2014.

Més info: ¿Dilema social? ¿Qué dilema?

Además, el hecho de tener robots como Optimus conviviendo con personas mayores o niños implicaría tener un nivel de confianza muy elevado en sus capacidades. ¿Dormirías tranquilos al lado de una máquina autónoma que puede ser hackeada para hacerle hacer lo que quieran? Sin un marco ético claro y un nivel de fiabilidad muy alto, es difícil imaginar robots como estos en hogares, aunque llevasen incorporadas las tres leyes de la robótica de Asimov. Tampoco sería suficiente. Asimov demostró con una serie de cuentos en su libro Yo, Robot que, a pesar de que los robots cumplían con las tres leyes, su aplicación en situaciones complejas genera dilemas que los robots no siempre pueden resolver de manera satisfactoria para los humanos.

¿Qué haría un Optimus junto al cambio de aguja si viera bajar una vagoneta a toda velocidad que, si no hace nada, matará a cinco personas y que, si actúa, matará a una? Estamos donde estábamos.