p(merda_pels_que_quedin)

31 d'Agost de 2023
Act. 31 d'Agost de 2023
Josep Maria Ganyet | VIA Empresa

Ja fa temps que el debat mediàtic sobre la IA s’ha instal·lat malauradament en la possibilitat de l’Apocalipsi. Totes les tecnologies comporten riscos, generalment inquantificables, però no estem parlant de risc. Parlem de les probabilitats que l’espècie humana s’extingeixi per culpa d’una intel·ligència artificial molt superior, o més aviat per l’ús que una intel·ligència natural molt inferior en pugui fer.

Ja fa temps que en vaig llegir que algú havia creat una funció per referir-se a la probabilitat d’apocalipsi anomenada p(doom). p(doom) expressa la probabilitat en tant per cent de que el desenvolupament de la IA acabi malament. Va començar com una broma d’humor negre entre enginyers d’IA i avui és habitual com a tema de conversa a la Bay Area de San Francisco. La fórmula habitual és preguntar a algú “Quin és el teu p(doom)?”, que traduït seria “De l’1 al 100 quant a prop creus que som de la fi del món per culpa de la IA?”. Humor negre de programadors d’IA (si en voleu fer un curs intensiu no us perdeu la sèrie Silicon Valley a HBO, a casa ja és el 3er cop que la veiem).

p(doom) expressa la probabilitat en tant per cent de que el desenvolupament de la IA acabi malament

El psicòleg, empresari, professor i autor Gary Marcus, conegut per la seva recerca a la frontera de la psicologia cognitiva i la IA contava al seu butlletí (també us el recomano) d’un taller al que va assistir a la Bay Area on als participants se’ls demanava que es presentessin amb la fórmula de “digues el teu nom i el p(doom)” (també us en recomano el seu llibre Rebooting AI). Marcus li dona a p(doom) una probabilitat molt baixa. No nega que la IA ens pugui portar molts maldecaps, sobretot en mans d’estupideses naturals, però que carregar-se l’espècie humana no és tan fàcil com sembla. Al cap i a la fi la pandèmia de la covid-19 només va pelar un de cada mil humans i si bé una hecatombe nuclear mataria molta gent, no mataria tothom malgrat que amb tota seguretat tornaria la civilització a la casella de sortida.

Marcus proposa el més realista p(catastrophe), la probabilitat que de l’avenç de la IA se’n derivi algun tipus de catàstrofe. Posa com a exemple que una IA en mans de malànimes pugués fer caure la xarxa elèctrica dels EUA, que aquests culpessin els russos i que l’escalada acabés en una guerra física. Jo sóc del seu parer. Quantificar l’inquantificable p(doom) per culpa de la IA és com si els germans Wright s’haguessin preocupat dels accidents aeris que hi hauria al cap de 100 anys; en canvi podem arribar a imaginar escenaris plausibles on un mal ús de la IA pugui portar a escenaris catastròfics. Els podem imaginar perquè els hem viscut.

A la victòria de Trump el 2016 entre molts factors hi van concórrer les  males arts dels “terroristes de dades” de Cambridge Analytica i la fàbrica de trolls que el criminal Ievgueni Prigojin tenia a Sant Petesburg. Tot amb la col·laboració necessària (i gairebé suficient) de Facebook. No estem parlant d’IA general, estem parlant d’IA molt específica: la dels sistemes de recomanació de contingut que el que volen és maximitzar el temps d’exposició dels usuaris a la publicitat. Un objectiu empresarial ben simple però que està molt mal alineat amb els objectius de la societat. Afegiu-hi els algorismes de recomanació de Twitter i l’amplificador de les conspiracions trumpistes de la Fox i de Newsmax i ja teniu les causes de l’assalt al Capitoli.

Les primeres aplicacions de les tecnologies més avançades sempre són militars: el radar, l’energia nuclear, les comunicacions mòbils, els ordinadors, internet i ara sembla que li toca a la IA

Per tant em sembla més realista parlar de p(catastrophe) que no pas de p(doom). Observeu les similituds amb l’energia atòmica i el projecte Manhattan d’Oppenheimer, que quan va veure la devastació d’Hiroshima i Nagasaki va citar les paraules del text sagrat hindú Bhagavad Gita, allò de “He esdevingut mort, el destructor de móns”. De fet el capteniment d’Oppenheimer s’assembla molt al de Geoffrey Hinton, qui es coneix com el padrí de l’aprenentatge automàtic. Hinton, premi Turing el 2018, és tota una autoritat en el món de la IA i és a qui en devem el ressorgiment actual gràcies a la seva feina en xarxes neuronals a la universitat de Toronto. Rebesnet del matemàtic George Boole, l’inventor de l’àlgebra que porta el seu nom, la dels zeros i uns amb la qual funcionen els ordinadors, va sortir el maig de 2023 de Google per poder parlar amb llibertat sobre els riscos de la IA. Ell mateix diu que se’n penedeix de les seves contribucions perquè en veu els riscos imminents, però que es consola pensant que si no ho hagués desenvolupat ell algú altre ho hauria fet. El mateix argument d’Oppenheimer.

Una de les seves tesis és que les primeres aplicacions de les tecnologies més avançades sempre són militars. En tenim una llarga corrua d’exemples: el radar, l’energia nuclear, les comunicacions mòbils, els ordinadors, internet i ara sembla que li toca a la IA. Aquesta aproximació de Hinton, com la de Marcus, em sembla una aproximació molt enraonada, en la línia de la p(catastrophe) molt allunyada del p(doom) dels gurús de l’Apocalipsi.

Alguns estudiosos defensen que gràcies al poder dissuasori de les armes nuclears, el món ha gaudit del període de pau més longeu i el nombre de conflictes bèl·lics ha minvat

Recordem que per molt que Oppenheimer digués que “havia esdevingut mort” la proliferació d’armes nuclears no ha extingit l’espècie humana. De fet, alguns estudiosos defensen tot el contrari: gràcies al seu poder dissuasori el món ha gaudit del període de pau més longeu i el nombre de conflictes bèl·lics ha minvat en els darrers setanta anys. És per això que em resulten poc creïbles els gurús de l’Apocalipsi entre els que hi ha Musk, Harari i Yudkowsky, que tenen interessos molt més immediats com són els de vendre llibres, que els contractin per fer conferències o el de vendre més cotxes.

Elon Musk ens adverteix dels riscos d’una IA general (segons ell imminent), demana una moratòria en el desplegament de la IA, mentre crea una empresa per competir amb OpenAI. Sam Altman d’OpenAI es passeja per totes les cancelleries del món fent-se fotos amb presidents i primers ministres advertint sobre l’elevat p(doom) actual. Mark Zuckerberg allibera el Llama, un model de llenguatge que qualsevol pot utilitzar sense control. Bill Gates ens adverteix del p(doom) mentre Microsoft co-opta el ChatGPT i l’incorpora al seu cercador. Sundar Pichai de Google allibera Bard al seu cercador en una cursa per la supremacia per la IA amb Microsoft-OpenAI.

Veient el que diuen i el que fan se m’acut una nova mesura probabilística:  p(merda_pels_que_quedin). Aquesta podeu estar segurs que és del 100%.