Google LaMDA: quiero creer

16 de Junio de 2022
Josep Maria Ganyet | VIA Empresa

La historia parece sacada de una novela de ciencia ficción. Un ingeniero encargado de evaluar sesgos en sistemas de inteligencia artificial mantiene una larga conversación con LaMDA, una IA* creada por Google. El humano conduce la conversación hacia los temas fundamentales de la existencia y dialogan sobre conciencia, percepción, lenguaje, religión, derecho, la muerte y las leyes de la robótica de Asimov.

La conversación no es diferente a una conversación trascendente entre dos personas cuerdas.

El ingeniero cree que la IA que está ayudando a crear está adquiriendo conciencia. Recoge evidencias y las envía a sus superiores. Al final, lo apartan del proyecto y lo envían a casa con permiso retribuido.

La supuesta evidencia acaba en una caja (en la nube) en un final con reminiscencias del del Arca Perdida de Indiana Jones.

Lo sabemos porque Blake Lemoine, el ingeniero en cuestión, ha acudido al Washington Post y porque ha hablado con un abogado para que represente LaMDA en una eventual causa.

¿Ciencia o ficción? Toda novela de ciencia ficción posee una base científica que el autor modula a voluntad con su imaginación. ¿Qué hay de una y de otra en el asunto Lemoine-LaMDA?. ¿Es más ficción el texto generado por LaMDA o la percepción de Lemoine?

LaMDA son las iniciales de Language Model for Dialogue Applications (de momento no es ningún nombre de droga) y, como su nombre indica, es un modelo de lenguaje. Un modelo de lenguaje es un modelo matemático que sirve para conocer la probabilidad de aparición de una palabra determinada en una secuencia. Para saber la probabilidad y acertar en estos modelos lo hacen cómo nosotros: aprendiendo. El aprendizaje consiste en "leer" todo aquello que ingenieros y lingüistas computacionales les dan: la Wikipedia, la colección Bernat Metge, los foros de reddit o Twitter.

El texto predictivo de nuestro móvil adivina la próxima palabra de acuerdo con lo que ha aprendido de lo que tecleamos habitualmente y Google autocompleta las buscas cuando tecleamos de acuerdo con lo que ha aprendido de lo que millones de usuarios han hecho antes. La diferencia en como aprendemos los humanos es que nosotros, además, aprendemos por imitación y de nuestras interacciones con el entorno.

Conociendo el funcionamiento, está claro que lo que hacen estos modelos es repetir aquello que alguien ya ha dicho o escrito antes. Son capaces de generar a partir de estructuras subyacentes del lenguaje que han averiguado a partir de muchos ejemplos. Ingenieros, matemáticos y expertos en IA de todo el mundo coinciden en que estos modelos nos impresionan mucho cuando generan textos coherentes que parece que los podría escribir un humano. Pero también es cierto que somos fácilmente impresionables: todavía ahora nos fascina escuchar una cotorra como "repite" "buen día" o "guapo guapo" ( fui testigo por enésima vez el sábado en Portaventura, donde me tocó ir por un tema. No lo hagáis). La cotorra no sabe qué dice y ni siquiera habla, emite sonidos que nosotros percibimos como palabras. Es por eso que, a menudo, se tilda estos modelos de lenguaje (BERT, GPT-3, Switch-C) de "cotorras estocásticas".

Otros expertos, en cambio, creen que estaríamos llegando a un punto en que la IA, además de razonar y aprender, está a punto de adquirir conciencia. Es lo que se conoce como IA Fuerte (en oposición a la débil, la de Siri, la del recomendador de Netflix o de Amazon).

Google se ha alineado con las "cotorras estocásticas" y ha manifestado públicamente que su equipo de tecnólogos y éticos no ha encontrado ninguna evidencia a favor de que el LaMDA sea consciente y sí, en cambio, muchas en contra.

Todo esto sería ciencia. Manos a la obra con la ficción.

Según informa el Washington Post, Lemoine proviene de una familia conservadora cristiana del sur de los EE.UU. y, antes de servir al ejército, fue ordenado sacerdote cristiano místico (sic). Después del ejército estudió temas de ocultismo. No hay nada malo en todo esto (bien, un poco quizás sí), si bien el común denominador de religiones, ejércitos y ciencias ocultas encierra la necesidad de creer en algo superior (recordáis el póster del OVNI "Y want tono believe"). No estoy matando el mensajero, más bien lo contrario: el personaje es una mina para mi guion.

Hoy, los temores a dioses y a ejércitos (a no ser que vuestro país tenga frontera con Rusia) van claramente a la baja mientras que el temor a la tecnología va a la alza; el temor de nuestro tiempo es el de Skynet, Matrix o Ready Player One. Y esto va ligado a las expectativas que nos creamos con las tecnologías: cuanto más esperanzas pongamos en su poder —la IA nos ayudará con el cambio climático, a distribuir mejor la riqueza, a conquistar el universo— más la tememos como Leviatan, a quien tendremos que ceder toda nuestra capacidad de decisión para llegar a un bien superior (como en las religiones y los ejércitos, que casualidad).

Ahora, en un giro de guion inesperado, podría ser que Lemoine tuviera razón y hubiera descubierto el verdadero poder de LaMDA, que haya sido el primero al hacer público que una IA* ha llegado a ser consciente y que merece ser tratada como persona tal y como afirma. En este caso, yo de él estaría muy tranquilo, la IA continuaría aprendiendo hasta adquirir inteligencia sobrehumana, se defendería a sí misma, desenmascararía el complot de Google para ocultar el asunto y devolvería a Lemoine a Google. Eso sí, no en el papel de evaluador de la ética de la IA, este oficio ya habría desaparecido, sino como subdirector general, un grado por debajo del director general, LaMDA.

PD: Blacke Lemoine ha publicado la conversación entera en su blog.

* El artículo indefinido ante IA —una IA— es del todo incorrecto como lo es poner-lo ante biología. IA es un término incontable. No hay "una IA" sino que hay "la IA" cómo no hay "una biología" sino "la biología". Cuando escribimos "la IA" nos referimos a la disciplina científica que tiene como objetivo dotar las máquinas de competencias propias de inteligencias superiores.

He escrito "una IA" porque es la forma que usan las novelas de ciencia ficción y los titulares de prensa.

** El artículo definido ante IA —la IA— es solo correcto cuando nos referimos a la disciplina científica, no cuando nos referimos a un sistema concreto basado en IA.