En només un any del seu llançament el novembre de 2022, ChatGPT ha tingut un impactesocial i mediàtic sense procedents. Una setmana després del seu llançament, més d'un milió d'usuaris s'hi havien registrat, avui té 100 milions d’usuaris setmanals actius i està valorat en 89.000 milions de dòlars. Innegablement, ChatGPT té la capacitat de transformar el panoramatecnològic i social. Però ho està fent? És només un prototip amb més sobreexpectatives que realitat? Veiem com ha estat aquest darrer any amb ChatGPT; allò bo, allò dolent i allò lleig.
El bo
Democratització
OpenAI es funda el 2015 amb la missió de democratitzar la intel·ligència artificial i utilitzar-la en benefici de tota la humanitat, una iniciativa visionària que contrasta amb les pràctiques monopolístiques imperants dels cinc gegants tecnològics. La filosofia d'OpenAI advocava per un model més inclusiu i obert de desenvolupament i desplegament de la IA per assegurar que el seu poder transformador fos accessible per a tota la societat.
"OpenAI es funda el 2015 amb la missió de democratitzar la intel·ligència artificial"
D’aquesta visió en surt ChatGPT, un xatbot connectat a un model gran de llenguatge que democratitza l’accés a la IA; qualsevol persona que sàpiga enviar un WhatsApp té al seu abast la tecnologia d’IA més avançada. Tant és així que en només un any i per a 100 milions de persones ChatGPT s’ha convertit en una eina versàtil: per a l'educació, per a la recerca, per al lleure i per l’empresa. No sense els seus problemes com veurem més endavant.
Universalització
Aquesta democratització inclou el trencament de barreres lingüístiques; ChatGPT entén la majoria d’idiomes i és capaç de generar textos en idiomes dels quals hi ha poc contingut en línia. No és el cas del català que gràcies a la gran quantitat de contingut que hi ha disponible, i de la seva bona qualitat, ChatGPT és molt proficient en la nostra llengua.
Debat social
Però més enllà de les seves capacitats i limitacions tecnològiques la gran aportació del ChatGPT ha estat el debat social que ha provocat. La seva irrupció ara fa 12 mesos marca un abans i un després, no només en l'evolució de la IA sinó en la conversa global sobre el seu potencial i implicacions. Vull creure que la seva aparició ha estat un catalitzador per a una comprensió més profunda i matisada del seu impacte i que hagi ajudat a fomentar l'esperit crític.
El dolent
Apropiació
Ras i curt: l’entrenament de la xarxa neuronal de ChatGPT podria ser el cas de violació de drets més gran de la història. Per crear un gran model lingüístic (LLM) com el GPT calen grans quantitats de dades en línia, entre les quals hi ha materials amb drets d'autor. Això planteja problemes legals complexos en l'àmbit de la llei de drets d'autor. En una xarxa neuronal, els pesos (paràmetres) es van ajustant a mesura que “aprèn” amb les dades que se li subministren. Podríem considerar la distribució final pesos (fruit de l’entrenament) com una obra creada a partir de les obres utilitzades per entrenar-la. Si s’utilitzen textos, imatges i altres mitjans amb drets d'autor, els pesos de la xarxa neuronal resultant formen en realitat una obra derivada d’obres que prohibeixen explícitament les creacions derivades. Aquest escenari planteja reptes legals importants pel que fa als drets de propietat intel·lectual i sobre com compensar els creadors.
Biaixos
Un altre problema de les dades d’aprenentatge és el dels biaixos. Les dades no surten del buit sinó que surten de la societat que les genera. I les societats, grups i individus tenen biaixos i prejudicis que les dades reflecteixen. Això planteja preguntes sobre l'equitat i la imparcialitat de les respostes generades per ChatGPT, especialment en àrees sensibles com la política, la raça i el gènere. I no només, l’adopció generalitzada d’aquests sistemes podria esbiaixar més encara la societat en un bucle de biaixos de confirmació molt perillós.
Antropomorfització
L’antropomorfització de ChatGPT, on la tecnologia es presenta amb atributs semblants als humans, suposa un risc important. Quan ChatGPT utilitza la primera persona del singular, verbs com "pensar" o "buscar", o simula un temps de resposta més lent per donar la il·lusió d'un processament reflexiu, pot fer que els usuaris li atribuïm erròniament una consciència humana o una capacitat emocional que no té. Aquesta representació antropomòrfica pot crear falses expectatives sobre les capacitats de la IA.
"ChatGPT pot fer que els usuaris li atribuïm erròniament una consciència humana o una capacitat emocional que no té"
En el context d'IA com ChatGPT, l'antropomorfització es pot veure com un “patró fosc d’interacció” perquè enganya els usuaris perquè creguin que la IA té autonomia, comprensió o empatia. Això no només té implicacions ètiques, sinó que també afecta com els usuaris interactuem amb la tecnologia i en la confiança que hi dipositem.
Al·lucinacions
És el terme científic que es fa servir per dir que els sistemes d’IA generativa s’inventen coses. Tot i que el ChatGPT pot generar textos sintàcticament impecables, comet imprecisions i errades garrafals fruit de les limitacions del model. Cal entendre molt bé que un model de llenguatge només és capaç de generar text intel·ligible. És l’observador que li atribueix intel·ligència. Això no té res a veure amb tenir un model del món; amb les seves relacions de causalitat, els principis bàsics de física (se’n diu física naïf) i la capacitat de fer planificacions a llarg termini, tots àmbits en què un gat supera ChatGPT amb escreix. La combinació d’imprecisions que passen inadvertides i la projecció d’intel·ligència que li fem fruit de l’antropomorfització planteja molts riscos.
Els AI Bros
Els algorismes d’aprenentatge profund necessiten moltes dades i de molta capacitat de càlcul. Durant el boom de les criptomonedes, les GPU eren molt buscades per la seva capacitat per realitzar de manera eficient els càlculs complexos necessaris per a la seva mineria. Això va provocar un augment desaforat de la demanda i, per tant, dels preus. Tanmateix, a mesura que el mercat de criptomonedes va experimentar volatilitat i regulacions, l'atractiu de les inversions en criptomoneda va començar a disminuir.
Simultàniament, la IA, especialment l'aprenentatge profund, va començar a guanyar impuls i les GPU que ja no demandaven els Crypto Bros van començar a estar disponibles per a la IA. Les seves capacitats de processament en paral·lel i eficiència les fan perfectes per entrenar models d'IA. Una externalitat negativa ha estat que els Crypto Bros han trobat un nou interès en el camp de la IA; ara proliferen els canals d'AI Bros a les xarxes, que tot el que fan és generar imatges excessivament saturades amb el Dall-E 3 o amb el Midjourney.
L’apocalipsi
Quan Umberto Ecco va encunyar l’expressió “apocalíptics i integrats” poc es pensava que hi hauria un moviment literal d’apocalíptics. Figures tan notables com SamAltman, ElonMusk, YuvalNoahHarari i NickBostrom fan sonar les trompetes sobre les possibles amenaces existencials que suposa la IA avançada. Adverteixen que el desenvolupament de la IA sense control podria donar lloc a escenaris en què la IA superi la intel·ligència i l'autonomia humana, potencialment dominant-nos o fins i tot conduint a l'extinció de la civilització. Tot i que aquestes preocupacions estan arrelades en incerteses legítimes sobre la trajectòria futura de la IA, aquestes advertències obeeixen més a interessos personals i empresarials que a riscos reals.
"La majoria dels sistemes d'IA, inclosos els més sofisticats, operen dins d'un rang reduït de capacitats"
L'estat actual de la IA és molt lluny d'aconseguir el tipus d'autonomia superintel·ligent que pressuposen aquests escenaris. La majoria dels sistemes d'IA, inclosos els més sofisticats, operen dins d'un rang reduït de capacitats i estan lluny de posseir la intel·ligència general o l'autoconsciència que seria necessària per a aquests escenaris apocalíptics.
Sobreinformaciódesinformada
El paper dels mitjans a l'hora d'informar sobre la IA és fonamental tot i que massa sovint és víctima del sensacionalisme i del pescaclics, que irònicament està impulsat pels algorismes d'IA de les xarxes socials. Aquesta tendència al sensacionalisme sovint condueix a representacions exagerades o enganyoses de les capacitats i els riscos de la IA. Això crea a una percepció distorsionada de la IA que resulta en pors infundades o expectatives poc realistes. Falta periodisme responsable en aquest camp que tingui com a objectiu educar i informar. Els mitjans tenen l'obligació de desmitificar la IA, posant el pes en les persones i no en els algorismes. D’ençà de la irrupció de ChatGPT que estan fent just el contrari.
ChatGPT o no?
Malgrat la seva tecnologia innovadora i les seves impressionants capacitats de conversa, es percep encara com un prototip i la seva aplicació pràctica en l’entorn empresarial és escadussera. Moltes empreses lluiten per trobar aplicacions concretes i de valor afegit per a l'eina, més enllà dels xatbots d'atenció al client o de la generació de contingut. Aquesta bretxa entre la sobreexpectativa i la utilitat real en contextos empresarials posa de manifest un patró comú en les tecnologies emergents: l'excitació inicial i les expectatives inflades precedeixen el procés d’adopció.
I tot això, qui m’ho paga?
La creació de models d'IA a partir de grans quantitats de dades en línia, sense compensar els creadors del contingut original ni respectar els propietaris és un dels pecats originals de ChatGPT. Aquesta situació recorda una mica l'era de Napster, on el contingut digital es distribuïa sense l'autorització ni la compensació adequada als creadors. OpenAI no té un model de negoci clar que tingui en compte els drets i les contribucions d'aquests creadors, cosa que genera preocupacions sobre la sostenibilitat de les indústries creatives. A més, a mesura que els xatbots es tornin més sofisticats i s'utilitzin per a la recuperació d'informació, hi ha el risc que puguin suplantar els motors de cerca tradicionals tallant el trànsit a les fonts de contingut originals. Aquest canvi podria tenir implicacions profundes per a l'ecosistema mediàtic, deixant-lo més magre de recursos encara.
El lleig
La màgia és el cervell d’un altre
Un dels aspectes més preocupants de l'evolució de ChatGPT i d'altres plataformes d’IA generativa té a veure amb la qualitat de les converses que hi tenim. Sembla màgic que ens puguin respondre tot allò que els demanem, però perquè això passi, les respostes dubtoses són revisades per milers d’humans a l’altra punta de món, que n’anoten l’error i en suggereixen una resposta correcta. Anotadors en països de renda baixa supervisen models d'IA en condicions de treball menys que ideals, a 2 i 3 dòlars l’hora, sense possibilitat de sindicar-se i treballant des de casa. Darrere la novetat de la IA, hi ha les velles pràctiques d’explotació laboral i de vulnerabilitat social de sempre.
Joc de trons
La lluita pel poder dins d'OpenAI, que va culminar amb l'acomiadament i la readmissió de Altman, il·lustra clarament la profunda divisió a la comunitat d'IA sobre el ritme i la direcció del seu desenvolupament. D'una banda, figures com Altman advoquen per la necessitat del desenvolupament ràpid i el desplegament públic com a essencials. En canvi, d’altres, inclòs el científic en cap d'OpenAI, IlyaSutskever, expressen la seva preocupació per la seguretat i la controlabilitat de la IA que creuen que avança massa ràpidament. Aquesta divisió no és només teòrica; reflecteix visions diferents de com aprofitar de manera responsable el potencial transformador de la IA, equilibrant la innovació amb la precaució.
Una partida de Monopoly?
El teló de fons d'aquest conflicte intern inclou les inversions de fins a 13.000 milions de dòlars que Microsoft ha fet en OpenAI, que han complicat encara més la situació. El llançament de ChatGPT va provocar un augment de la inversió en empreses d'IA. Aquesta afluència de capital, especialment dels principals actors tecnològics, ha influït al seu torn en el ritme i les prioritats del desenvolupament d'OpenAI, alineant-se amb l'enfocament d'Altman cap al creixement i l'expansió agressius. Tanmateix, aquest enfocament ha suscitat preocupacions sobre l'allunyament de la missió original sense ànim de lucre d'OpenAI.
"El teló de fons d'aquest conflicte intern inclou les inversions de fins a 13.000 milions de dòlars que Microsoft ha fet en OpenAI"
El nom no fa la cosa
L'evolució d'OpenAI, especialment des de la seva associació amb Microsoft, marca un canvi significatiu respecte a la seva missió original de democratitzar la IA per al benefici de la societat. El compromís inicial de l'organització amb l'obertura està ara qüestionat, sobretot per la falta de transparència que envolta el seu darrer model, GPT-4. A diferència dels seus predecessors, OpenAI no ha publicat informació detallada sobre els paràmetres, la mida, la documentació o les dades d'entrenament de GPT-4. Aquest canvi d'enfocament indica una sortida de l'ethos obert que va ser fonamental per a la identitat i la missió de l'empresa durant els seus primers set anys. Aquesta transició reflecteix la complexa dinàmica entre mantenir la recerca oberta i les pressions comercials i competitives en el camp de la IA. El nom li ha durat set anys.
Llargterminisme
L’estratègia d'Altman i d'altres responsables d’OpenAI de posar el focus en els hipotètics problemes que la IA ens pot portar a llarg termini és vista per molts com una cortina de fum per no parlar dels problemes reals actuals. Si parles de l’extinció humana, l’ètica, els drets intel·lectuals, l’impacte social, la propietat de les dades i la privadesa deixen de tenir importància. Yann LeCun, un dels popes de la IA i cap de Meta, deia que preocupar-se pels efectes a llarg termini és com si els germans Wright s’haguessin preocupat pels accidents d’aviació aquell dia de 1903 que van fer volar un biplà 12 segons a Carolina del Nord.
Frankenstein i el Dr. Frankenstein
El fet que Altman hagi estat rebut per tota mena de líders mundials, només fa que confirmar la creixent intersecció entre tecnologia i la política. Altman s’ha reunit amb el primer ministre britànic RishiSunak, el president francès EmmanuelMacron, el president espanyol PedroSánchez, el canceller alemany OlafScholz i el president de Corea del Sud YoonSukYeol, entre d’altres. És la visualització de la tecnopolítica, de les relacions entre la tecnologia i l’ofici de govern, de la influència creixent dels líders tecnològics en els afers globals.
"La influència que exerceixen individus com Altman, Musk o Zuckerberg, competeix o fins i tot supera la de molts estats"
És un canvi significatiu en la dinàmica de poder global. La influència que exerceixen individus com Altman, Musk, Zuckerberg o Bezos, i les seves empreses, competeix o fins i tot supera la de molts estats. La seva capacitat per donar forma al discurs, la política i, fins i tot, a les polítiques econòmiques i militars globals albira una època en què el poder es defineix cada cop més no només per la força política o militar, sinó per la destresa tecnològica i el control de la infraestructura digital.
Solow
L’economista i Nobel Robert Solow, reflexionava el 1987 sobre l'impacte dels ordinadors en l'economia. Deia: "Podeu veure l'era dels ordinadors a tot arreu, excepte en les estadístiques de productivitat". Aquesta afirmació, avui es coneix com la paradoxa de la productivitat de Solow i és aplicable a qualsevol tecnologia. La paradoxa encapsula les complexitats i els reptes de mesurar amb precisió els impactes de productivitat de les innovacions tecnològiques, especialment en les seves primeres etapes.
Un any després de ChatGPT, pel que fa a l’impacte econòmic som encara als 1980 de Solow; pel que fa a l’impacte en els creadors som als 2000 de Napster i pel que fa al poder d’OpenAI som als 1990 de Microsoft.