Opinió

Trolleys, trilers i trolls

El dilema de la vagoneta (trolley problem en l’original) és un experiment mental en què una persona ha de prendre una decisió entre dues opcions igualment difícils. En una de les seves formulacions, una vagoneta descontrolada es dirigeix cap a cinc persones que seran atropellades si ningú no fa res. Podem impedir-ho canviant l’agulla i desviant la vagoneta a una altra via on hi ha una persona treballant. És moralment correcte sacrificar una persona per salvar-ne cinc? Quins principis ètics justifiquen la decisió?

Aquest dilema sorgeix de manera natural quan parlem de cotxes autònoms, vehicles que han de prendre decisions ètiques en situacions d'emergència. Si un cotxe autònom es troba en una situació en què ha de decidir entre atropellar un grup de persones o fer una maniobra que podria posar en risc el passatger del vehicle, quins criteris ètics ha de seguir el cotxe? Fossin quins fossin haurien d’estar programats d’antuvi en el sistema d'intel·ligència artificial; les decisions de vida o mort haurien estat codificades prèviament pels enginyers. Això implica haver triat amb antelació quines vides prioritzar, però sota quins criteris?

"És moralment correcte sacrificar una persona per salvar-ne cinc?"

Alguns fabricants, com Mercedes, ja ho van respondre: els seus cotxes prioritzarien la seguretat dels ocupants del vehicle per sobre de la dels vianants en situacions d'emergència. Posició controvertida des de l’ètica —el valor de la vida dels ocupants és superior al de la dels altres—, òbvia des d’un punt de vista de mercat: qui compraria un cotxe sabent que en determinades circumstàncies el pelarà? Aquest “dilema del venedor” mostra la complexitat de programar els cotxes autònoms per gestionar dilemes morals; qualsevol priorització pot ser vista com a parcial o injusta i comportar conseqüències legals i de reputació per als fabricants.

Tesla, en canvi, no ha especificat explícitament quins principis ètics utilitzen els seus cotxes autònoms quan es troben en situacions de dilema moral. Tesla se centra més en l'eficiència tecnològica i la capacitat del seu mal anomenat Autopilot per evitar accidents en general: confia en el processament de dades i la predicció d'escenaris per reduir els riscos i eliminar de soca-rel qualsevol dilema moral.

Més info: El Penedès, la línia de sortida dels cotxes autònoms: “No necessitarem conductors”

A diferència de Mercedes, desconeixem els principis ètics de Tesla, però ens els podem imaginar. De fet, seguint-ne la trajectòria no costa massa saber que la intersecció entre ètica i Tesla és el conjunt buit. Un exemple: els models de la marca incorporen ginys tan “necessaris” per a la seguretat com el “mode Nadal” (el cotxe fa pampalluguejar els llums i obre i tanca les portes) o bé un sistema de pets activats pels sensors de pressió dels seients per fer bromes als passatgers. En canvi, el maig del 2021, la marca va anunciar que deixava d’incorporar radar als seus vehicles. Poc després els va començar a desactivar en vehicles que ja eren al mercat. La decisió d'eliminar el radar va ser controvertida, i alguns enginyers de Tesla van protestar.

El nom Autopilot també ha estat molt criticat. Autopilot és com s’anomena el pilot automàtic que fa volar sols els avions; una confusió buscada que fa que els usuaris sobreestimin les capacitats reals del sistema. Tot i que Tesla insisteix que és un assistent de conducció avançada i que el conductor ha de mantenir les mans al volant i estar sempre preparat per prendre’n el control, el nom suggereix una capacitat de conducció autònoma que no és la real.

"El nom Autopilot suggereix una capacitat de conducció autònoma que no és la real"

Això hauria quedat en un enginyós truc de màrqueting si no fos perquè ha provocat múltiples incidents per culpa de què els conductors han confiat massa en el sistema, confiats de què el cotxe tenia pilot automàtic. Això ha derivat en accidents greus, i en alguns casos, mortals. Les agències reguladores i experts en seguretat han demanat que Tesla canviï el nom per evitar malentesos i una falsa sensació de seguretat.

Fa quinze dies, Elon Musk va presentar el Cybercab, un cotxe totalment autònom pensat per funcionar com a taxi i fer guanyar diners als seus propietaris mentre dormen (no em vull imaginar l’estat del vehicle al matí anant a la feina després que hagi portat gent de festa tota la nit). Musk va destacar que el Cybercab és el següent pas en la visió de Tesla d'oferir vehicles que puguin ser utilitzats per a serveis de mobilitat autònoma, oferint als propietaris una manera de generar ingressos passius. No n’acabo de veure el model de negoci.

Més info: Mentides i veritats darrere d'Optimus, el robot del futur

Així i tot, el llançament ha generat dubtes importants. Els reguladors continuen mostrant preocupació per la seguretat dels vehicles totalment autònoms i per la maduresa dels sistemes de Tesla, que encara no han demostrat ser fiables al 100%. Molts experts creuen que la tecnologia de conducció autònoma encara està lluny de ser prou segura per operar en entorns urbans complexos sense cap mena de supervisió humana. A més, els antecedents de promeses incomplertes i retards en altres projectes de Musk —porta anunciant la conducció autònoma total des del 2014— han fet que la presentació del Cybercab hagi estat rebuda amb una bona dosi d'escepticisme per part del públic, indústria i inversors: les accions de Tesla van caure un 9% després de la presentació.

També hi vam veure l'Optimus, el robot humanoide que Elon Musk pretén convertir l’any que ve en un producte de consum a un preu de 20 o 30.000 euros la peça. Optimus és un robot dissenyat per realitzar tasques repetitives i potencialment perilloses per als humans. Musk va insistir que aquest robot podria canviar la forma com es fan moltes feines, tant al taller com a casa. Durant la presentació, es van mostrar algunes capacitats del robot: caminar, agafar objectes i fer moviments senzills. 

El robot Optimus, de Tesla | EP

Els Optimus van impressionar tothom: movent-se lliurement entre els assistents a l’esdeveniment —majoritàriament homes—, donant-los conversa, saludant i xocant mans. Al final resulta que estaven controlats remotament. Les converses de ciència-ficció entre els fanboys i els robots resulta que són una fita per ser el xat més car de la història. Musk ha estat criticat anteriorment per fer presentacions massa coreografiades o per mostrar vídeos manipulats —del mateix Optimus o de l’Autopilot de Tesla—. Hi ha tots els dubtes del món sobre allò que el robot és capaç de fer en el món real. De moment tot el que hem vist són vídeos manipulats.

De fet, va ser el mateix Musk qui va dir durant la presentació que la tecnologia d'un Tesla no és tan diferent de la d'un robot humanoide. Va argumentar que els components bàsics d'un cotxe Tesla —sistemes de visió per càmera, els processadors per a la presa de decisions, i algoritmes d'aprenentatge automàtic— són aplicables també a un robot que es mogui i interactuï amb el seu entorn.

"Hi ha tots els dubtes del món sobre allò que el robot és capaç de fer en el món real. De moment tot el que hem vist són vídeos manipulats"

Aquesta comparació forma part de la seva visió que els cotxes Tesla són "robots sobre rodes" —ho són efectivament— i que l'Optimus és essencialment una evolució d'aquesta idea: un robot capaç de caminar, manipular objectes i executar tasques de manera autònoma. Així i tot, la complexitat d'interactuar amb entorns humans des de la perspectiva d'un robot humanoide supera de llarg la dels vehicles autònoms.

En tot cas, no descarto veure prototips de l'Optimus en entorns industrials —a Tesla segur— on la seva aplicació és immediata a l’hora d'executar tasques repetitives, pesades o perilloses. Els entorns industrials tenen condicions més controlades, fet que facilita la implantació de robots i en redueix les conseqüències d'errors greus.

Ara bé, portar l'Optimus a una llar, amb persones ancianes i infants al voltant, em sembla un escenari molt més complicat i ple de riscos. L'entorn domèstic és molt menys predictible i presenta situacions molt més variades i sensibles on qualsevol error pot tenir conseqüències serioses. La manca d'una ètica empresarial clara i la dificultat de programar principis ètics en un robot per gestionar decisions complexes —respondre davant situacions d'emergència o protegir els més vulnerables— fa que la predicció de Musk per l’any que ve sigui tan vàlida com les que fa des del 2014.

Més info: Dilema social? Quin dilema?

A més, el fet de tenir robots com l'Optimus convivint amb persones grans o canalla implicaria tenir un nivell de confiança molt elevat en les seves capacitats. Dormiríeu tranquils al costat d’una màquina autònoma que pot ser hackejada per fer-li fer el que vulguin? Sense un marc ètic clar i un nivell de fiabilitat molt alt, és difícil imaginar robots com aquests a llars, encara que portés incorporades les tres lleis de la robòtica d’Asimov. Tampoc no n’hi hauria prou. Asimov va fer demostrar amb una sèrie de contes al seu llibre Jo Robot que, malgrat que els robots complien amb les tres lleis, la seva aplicació en situacions complexes genera dilemes que els robots no sempre poden resoldre de manera satisfactòria per als humans.

Què faria un Optimus al costat del canvi d’agulla si veiés baixar una vagoneta a tota velocitat que si no fa res pelarà cinc persones i que si fa en pelarà una? Som on érem.