ChatGPT pateix un infart

OpenAI pot haver desplegat una IA que clarament no estava preparada per passar cap control i l'hagi realitzat sense cap classe de revisió

Sam Altman, CEO d'OpenAI | Wikimedia Commons
Sam Altman, CEO d'OpenAI | Wikimedia Commons
director del Máster de 'Fintech' y profesor de 'Big Data' en EADA Business School
Barcelona
26 de Febrer de 2024
Act. 26 de Febrer de 2024

Dimecres 21 de febrer: un programador nord-americà es troba atrapat en un problema de codi i recorre al ChatGPT a la recerca d'ajuda, i aquest li comença a recitar poesia. L'usuari totalment desconcertat li repeteix la pregunta, aquest li respon en Spanglish tota una sèrie de frases inconnexes i contrasentit. Aquesta situació va succeir a tot el món, centenars de milers d'usuaris de la famosa IA ChatGPT van quedar totalment perplexos enfront de les respostes que va començar a donar. Alguns preguntant per receptes de cuina o problemes de programació van rebre tota classe de frases inconnexes, uns altres van obtenir poesia d'escassa qualitat i uns pocs van ser amenaçats per la IA. Fa uns dies, Sam Altman, fundador i CEO d'OpenAI, l'empresa darrere de la IA ChatGPT, va anunciar la seva cerca d'un finançament de set mil milions de dòlars per establir una nova empresa de microxips.

El propòsit seria ampliar l'abast del negoci de la IA. A més, va anticipar que en els mesos següents sorprendria el món amb el llançament de ChatGPT 5, amb la promesa de superar el raonament humà i acostar-se a la superintel·ligència. No obstant això, aquestes declaracions sorprenen i inquieten. Quines conseqüències pot tenir una superintel·ligència si es descontrola com hem vist ara? Què pot succeir si les IA que estan començant a reemplaçar treballadors al voltant del món pateixen una crisi com aquesta? OpenAI s'enorgulleix de disposar de l'equip més capdavanter del món en seguretat. No obstant això, el fet succeït ha deixat clar que alguna cosa no funciona com deuria i que les seves mesures de control i seguretat estan fallant. L'empresa no ha aclarit encara la causa d'aquest estrany comportament i el servei va tornar a la normalitat al cap d'unes hores.

És altament probable que el comportament inusual es degui a una recent actualització implementada en la IA que estaven utilitzant. L'empresa sol aplicar ajustos i millores periòdiques als seus sistemes d'IA amb la finalitat de millorar l'experiència de l'usuari. Aquestes noves actualitzacions són teòricament examinades i si passen el control substitueixen la vella IA. El problema radica en el fet que OpenAI hagi desplegat una IA que clarament no estava preparada per passar cap control i l'hagi realitzat sense cap classe de revisió. Pot haver-hi diverses causes. Una falta de controls podria ser una d'elles, és a dir que realment OpenAI no tingui cap classe de procés de revisió per avaluar la seguretat de les seves IA i que tota la seva retòrica sobre la seguretat dels seus models sigui pur màrqueting. Una altra explicació, menys plausible, podria ser que la nova IA que van desplegar fos capaç d'enganyar els processos de seguretat i així burlar els seus controls, malgrat respondre de manera totalment demencial. No obstant això, hi ha una tercera, preocupant i probable: un acte de sabotatge.

Pot passar que OpenAI no tingui cap classe de procés de revisió per avaluar la seguretat de les seves IA i que tota la seva retòrica sobre la seguretat dels seus models sigui pur màrqueting

Cada vegada hi ha més veus dissonants en contra de la IA, i fins i tot fa uns mesos va haver-hi un intent fallit de reemplaçar Sam Altman per un altre director, a causa de les reserves que tenia la junta directiva de l'empresa respecte de la seguretat de les seves IA. Existeix la possibilitat que, dins o fora d'OpenAI, un grup dissident hagi intentat sabotejar l'empresa, desplegant una IA descontrolada amb la intenció de generar preocupació i alarma, per així posar en pausa el desenvolupament de ChatGPT 5, la IA que suposadament ho canviarà tot. El fet recent ha evidenciat la crítica rellevància de la seguretat en l'àmbit de la intel·ligència artificial. Encara que les seves conseqüències han estat limitades i no han generat un impacte considerable, posa en relleu la manca de mesures de protecció efectives contra aquesta mena d'incidents. Si bé el progrés de la IA en l'automatització laboral és imparable i continuarà avançant, és innegable que, quant a seguretat, aquesta tecnologia encara es troba en una etapa primerenca de desenvolupament i maduresa.