Google LaMDA: vull creure

16 de Juny de 2022
Josep Maria Ganyet | VIA Empresa

La història sembla extreta d’una novel·la de ciència ficció. Un enginyer encarregat d’avaluar biaixos en sistemes d’intel·ligència artificial té una llarga conversa amb LaMDA, una IA* creada per Google. L’humà porta la conversa cap als temes fonamentals de l’existència i dialoguen sobre consciència, percepció, llenguatge, religió, dret, la mort i les lleis de la robòtica d’Asimov. 

La conversa no és diferent a una conversa transcendent entre dues persones entenimentades.

L’enginyer creu que la IA que està ajudant a crear està adquirint consciència. En recull evidència i la tramet als seus superiors. Al final l’acaben apartant del projecte i enviant-lo a casa amb permís retribuït. 

La suposada evidència acaba en una capsa (al núvol) en un final reminiscent del de l’Arca Perduda de l’Indiana Jones. 

Ho sabem perquè Blake Lemoine, l’enginyer en qüestió, ha acudit al Washington Post i perquè ha parlat amb un advocat per a que representi LaMDA en una eventual causa.

Ciència o ficció? Tota novel·la de ciència ficció té una base científica que l’autor modula a voluntat amb la seva imaginació. Què hi ha de l’una i de l’altra en l’afer Lemoine-LaMDA? És més ficció el text generat per LaMDA o la percepció de Lemoine?

LaMDA són les inicials de Language Model for Dialogue Applications (de moment no és cap nom de droga) i, com el seu nom indica, és un model de llenguatge. Un model de llenguatge és un model matemàtic que serveix per a conèixer la probabilitat d’aparició d’una paraula determinada en una seqüència. Per saber-ne la probabilitat i encertar-la aquests models ho fan com nosaltres: aprenent-ne. L’aprenentatge consisteix en “llegir” tot allò que enginyers i lingüistes computacionals els donen: la Viquipèdia, la col·lecció Bernat Metge, els fòrums de reddit o Twitter. 

El text predictiu del nostre mòbil endevina la propera paraula d’acord amb el que ha après del què teclegem habitualment i Google autocompleta les cerques quan teclegem d’acord amb el que ha après de les que milions d’usuaris han fet abans. La diferència amb com aprenem els humans és que nosaltres, a més, aprenem per imitació i de les nostres interaccions amb l’entorn. 

Coneixent-ne el funcionament, és clar que el que fan aquests models és repetir allò que algú altre ja ha dit o escrit abans o que són capaços de generar a partir d’estructures subjacents del llenguatge que han esbrinat a partir de molts exemples. Enginyers, matemàtics i experts en IA de tot el món coincideixen en què aquests models ens impressionen molt quan generen textos coherents que en sembla que hauria pogut escriure un humà. Però també és cert que som fàcilment impressionables: encara ara ens fascina sentir una cotorra com “repeteix” “bon dia” o “guapo guapo” (en vaig ser testimoni per enèsima vegada dissabte a Portaventura, que m’hi va tocar anar per un tema. No ho feu). La cotorra no sap què diu i ni tan sols parla, emet sons que nosaltres percebem com a paraules. És per això que, sovint, es titlla aquests models de llenguatge (BERT, GPT-3, Switch-C) de “cotorres estocàstiques”. 

D’altres experts, en canvi, creuen que estaríem arribant a un punt en què la IA, a banda de raonar i aprendre, és a punt d’adquirir consciència. És el que es coneix com a IA Forta (en oposició a la feble, la de Siri, la del recomanador de Netflix o la del d’Amazon). 

Google s’ha alineat amb les “cotorres estocàstiques” i ha manifestat públicament que el seu equip de tecnòlegs i ètics no ha trobat cap evidència a favor de que el LaMDA sigui conscient i sí, en canvi, moltes en contra.

Tot això seria la ciència. Som-hi amb la ficció.

Segons informa el Washington Post, Lemoine prové d’una família conservadora cristiana del sud dels EUA i, abans de servir a l’exèrcit, va ser ordenat sacerdot cristià místic (sic). Després de l’exèrcit va estudiar temes d’ocultisme. Res de dolent en tot això (bé, una mica potser sí), només que el comú denominador de religions, exèrcits i ciències ocultes és la necessitat de creure en alguna cosa superior a la qual temem (recordeu el póster de l’OVNI “I want to believe”). No estic matant el missatger, ans al contrari: el personatge és una mina per al meu guió.

Avui, els temors a deus i a exèrcits (si no és que el vostre país fa frontera amb Rússia) van clarament a la baixa mentre que el temor a la tecnologia va a l’alça; el temor del nostre temps és el d’Skynet, Matrix o Ready Player One. I això va lligat a les expectatives que ens creem amb les tecnologies: com més esperances posem en el seu poder —la IA ens ajudarà amb el canvi climàtic, a distribuir millor la riquesa, a conquerir l’univers— més la temem com a Leviatan, a qui haurem de cedir tota la nostra capacitat de decisió per arribar a un bé superior (com en les religions i els exèrcits, quina casualitat).

Ara, en un gir de guió inesperat, podria ser que Lemoine tingués raó i hagués descobert el veritable poder de LaMDA, que hagi estat el primer en fer públic que una IA* ha arribat a ser conscient i que mereix ser tractada com a persona tal i com afirma. En aquest cas, jo d’ell estaria molt tranquil, la IA continuaria aprenent fins a adquirir intel·ligència sobrehumana, es defensaria a si mateixa, desemmascararia la conxorxa de Google per ocultar l’afer i tornaria a Lemoine a Google. Això sí, no en el paper d’avaluador de la ètica de la IA, aquest ofici ja hauria desaparegut, sinó com a subdirector general, un grau per sota del director general, LaMDA.

PD: Blacke Lemoine ha publicat la conversa sencera al seu blog.

* L’article indefinit davant IA —una IA— és del tot incorrecte com ho és posar-lo davant de biologia. IA és un terme incomptable. No hi ha “una IA” sinó que hi ha “la IA” com no hi ha “una biologia” sinó “la biologia”. Quan escrivim “la IA” ens referim a la disciplina científica que té com a objectiu dotar les màquines de competències pròpies d’intel·ligències superiors. 

He escrit “una IA” perquè és la forma que fan servir les novel·les de ciència ficció i els titulars de premsa.

** L’article definit davant IA —la IA— és només correcte quan ens referim a la disciplina científica, no quan ens referim a un sistema concret basat en IA.