Ya hace tiempo que el debate mediático sobre la IA se ha instalado desgraciadamente en la posibilidad del Apocalipsis. Todas las tecnologías conllevan riesgos, generalmente incuantificables, pero no estamos hablando de riesgo. Hablamos de las probabilidades de que la especie humana se extinga por culpa de una inteligencia artificial muy superior, o más bien por el uso que una inteligencia natural muy inferior pueda hacer de ella.
Ya hace tiempo que leí que alguien había creado una función para referirse a la probabilidad de apocalipsis llamada p(doom). p(doom) expresa la probabilidad en tanto por ciento de que el desarrollo de la IA acabe mal. Empezó como una broma de humor negro entre ingenieros de IA y hoy es habitual como tema de conversación en la Bay Area de San Francisco. La fórmula habitual es preguntar a alguien "¿Cuál es tu p(doom)?", que traducido sería "¿De 1 al 100 cuánto cerca crees que somos del fin del mundo por culpa de la IA?". Humor negro de programadores de IA (si quiere hacer un curso intensivo no os perdáis la serie Silicon Valley en HBO, en casa ya es la 3ª vez que la vemos).
p(doom) expresa la probabilidad en tanto por ciento de que el desarrollo de la IA acabe mal
El psicólogo, empresario, profesor y autor Gary Marcus, conocido por su investigación en la frontera de la psicología cognitiva y la IA contaba en su boletín (también os lo recomiendo) de un taller al que asistió a la Bay Area donde participantes se les pedía que se presentaran con la fórmula de “di tu nombre y el p(doom)” (también os recomiendo su libro Rebooting AI). Marcus le da a p(doom) una probabilidad muy baja. No niega que la IA nos pueda traer muchos quebraderos de cabeza, sobre todo en manos de estupideces naturales, pero que cargarse la especie humana no es tan fácil como parece. Al fin y al cabo la pandemia de la covid-19 solo peló a uno de cada mil humanos y si bien una hecatombe nuclear mataría a mucha gente, no mataría a todo el mundo a pesar de que con toda seguridad volvería la civilización a la casilla de salida.
Marcus propone el más realista p(catastrophe), la probabilidad de que del avance de la IA se derive algún tipo de catástrofe. Pone como ejemplo que una IA en manos de malánimes pudiera derribar la red eléctrica de EEUU, que estos culparan a los rusos y que la escalada acabara en una guerra física. Yo soy de su parecer. Cuantificar el incuantificable p(doom) por culpa de la IA es como si los hermanos Wright se hubiesen preocupado de los accidentes aéreos que habría a los 100 años; en cambio, podemos llegar a imaginar escenarios plausibles donde un mal uso de la IA pueda llevar a escenarios catastróficos. Podemos imaginarlos porque los hemos vivido.
A la victoria de Trump en el 2016 entre muchos factores concurrieron las malas artes de los “terroristas de datos” de Cambridge Analytica y la fábrica de trolls que el criminal Ievgueni Prigojin tenía en San Petesburgo. Todo ello con la colaboración necesaria (y casi suficiente) de Facebook. No estamos hablando de IA general, estamos hablando de IA muy específica: la de los sistemas de recomendación de contenido que lo que quieren es maximizar el tiempo de exposición de los usuarios a la publicidad. Un objetivo empresarial muy simple pero que está muy mal alineado con los objetivos de la sociedad. Añada los algoritmos de recomendación de Twitter y el amplificador de las conspiraciones trumpistas de la Fox y de Newsmax y ya tiene las causas del asalto al Capitolio.
Las primeras aplicaciones de las tecnologías más avanzadas son siempre militares: el radar, la energía nuclear, las comunicaciones móviles, los ordenadores, internet y ahora parece que le toca a la IA
Por tanto, me parece más realista hablar de p(catastrophe) que de p(doom). Observe las similitudes con la energía atómica y el proyecto Manhattan de Oppenheimer, que cuando vio la devastación de Hiroshima y Nagasaki citó las palabras del texto sagrado hindú Bhagavad Gita, aquello de “He convertido en muerte, el destructor de mundos”. De hecho, el comportamiento de Oppenheimer se asemeja mucho al de Geoffrey Hinton, quien se conoce como el padrino del aprendizaje automático. Hinton, premio Turing en 2018, es toda una autoridad en el mundo de la IA y es a quien debemos su resurgimiento actual gracias a su trabajo en redes neuronales en la universidad de Toronto. Rebesnet del matemático George Boole, el inventor del álgebra que lleva su nombre, la de los ceros y unos con la cual funcionan los ordenadores, salió en mayo de 2023 de Google para poder hablar con libertad sobre los riesgos de la IA. Él mismo dice que se arrepiente de sus contribuciones porque ve los riesgos inminentes, pero que se consuela pensando que si no lo hubiera desarrollado él alguien lo habría hecho. El mismo argumento de Oppenheimer.
Una de sus tesis es que las primeras aplicaciones de las tecnologías más avanzadas son siempre militares. Tenemos una larga corrua de ejemplos: el radar, la energía nuclear, las comunicaciones móviles, los ordenadores, internet y ahora parece que le toca a la IA. Esta aproximación de Hinton, como la de Marcus, me parece una aproximación muy razonable, en la línea de la p(catastrophe) muy alejada del p(doom) de los gurús del Apocalipsis.
Algunos estudiosos defienden que gracias al poder disuasorio de las armas nucleares, el mundo ha disfrutado del período de paz más longevo y el número de conflictos bélicos ha mermado
Recordemos que por mucho que Oppenheimer dijera que “se había muerto” la proliferación de armas nucleares no ha extinguido la especie humana. De hecho, algunos estudiosos defienden todo lo contrario: gracias a su poder disuasorio el mundo ha gozado del período de paz más longevo y el número de conflictos bélicos ha mermado en los últimos setenta años. Por eso me resultan poco creíbles los gurús del Apocalipsis entre los que están Musk, Harari y Yudkowsky, que tienen intereses mucho más inmediatos como son los de vender libros, que los contraten para dar conferencias o el de vender más coches.
Elon Musk nos advierte de los riesgos de una IA general (según él inminente), pide una moratoria en el despliegue de la IA, mientras crea una empresa para competir con OpenAI. Sam Altman de OpenAI se pasea por todas las cancillerías del mundo haciéndose fotos con presidentes y primeros ministros advirtiendo sobre el elevado p(doom) actual. Mark Zuckerberg libera al Llama, un modelo de lenguaje que cualquiera puede utilizar sin control. Bill Gates nos advierte del p(doom) mientras Microsoft coopta el ChatGPT y lo incorpora a su buscador. Sundar Pichai de Google libera a Bard en su buscador en una carrera por la supremacía por la IA con Microsoft-OpenAI.
Viendo lo que dicen y lo que hacen se me ocurre una nueva medida probabilística: p(mierda_para_los_que_queden). Esta podéis estar seguros de que es del 100%.