Hi ha qui qualifica la intel·ligència artificial (IA) com a Tecnologia de Propòsit General al nivell de l’electricitat i el foc. Diferents reguladors de tot el món —de l’àmbit local al supranacional— s’estan debatent per equilibrar els beneficis potencials de la IA amb la necessitat de regular-ne el desenvolupament per tal de garantir-ne la seguretat, l'equitat i els estàndards ètics. Aquesta anàlisi, aprofitant que la Llei d'IA de la Unió Europea entra en vigor el 2 d’agost, pretén aprofundir en l'impacte de les regulacions al voltant de la IA. Mitjançant la comparació dels models reguladors i els nivells d'inversió en IA a la Unió Europea, els Estats Units i la Xina; més enllà de percepcions, mems, pors i narratives simplistes.
Inspirat en el mestratge del Dr. Hans Rosling (Factulness), que va demostrar que les estimacions sobre la realitat dels micos del Zoo d’Estocolm són més fiables que les dels experts assistents a Davos. Rosling va defensar la idea que les percepcions sovint es veuen condicionades per biaixos cognitius i informació incompleta, donant lloc a decisions que no reflecteixen l'estat real del món. En el context de la regulació de la IA, això significa evitar visions tecno-alarmistes que puguin exagerar els riscos o les tecno-solucionistes que exageren els beneficis de determinades tecnologies.
La llei d'IA de la UE
La Llei d'IA de la Unió Europea, proposada l'abril de 2021, és un marc regulador complet que té com a objectiu garantir el desenvolupament, el desplegament i l'ús segur i ètic de tecnologies d’IA a la UE. La Llei representa un pas important cap a l'establiment d'un enfocament estructurat de la governança de la IA que pretén harmonitzar la innovació amb els drets fonamentals i les consideracions de seguretat.
La Llei d'IA de la UE representa un enfocament pioner a la regulació de la IA
Entre els objectius de la llei hi ha el d’assegurar que els sistemes d'IA no representin riscos inacceptables per a la salut, la seguretat i els drets fonamentals de les persones i la societat; millorar la transparència de les operacions d'IA i establir mecanismes clars de responsabilitat per a desenvolupadors i usuaris; i el de crear un marc regulador unificat que promogui un mercat únic per a les tecnologies d'IA a la UE, reduint la fragmentació i facilitant el comerç transfronterer. Un altre dels objectius és construir la confiança pública en les tecnologies d'IA demostrant un compromís amb els principis ètics i una supervisió reguladora robusta. Finalment, la llei també vol proporcionar un entorn clar que suporti i encoratgi la innovació en les tecnologies d'IA dins de la UE.
Això comporta obligacions per als desenvolupadors com ara la realització d'avaluacions de conformitat. Els sistemes d'IA d'alt risc han de sotmetre's a proves i processos de validació rigorosos per garantir que compleixen els estàndards de seguretat i rendiment establerts. Un cop desplegats, aquests sistemes requereixen un seguiment continu per assegurar que es manté el compliment de les normatives i per detectar qualsevol risc emergent. A més, els desenvolupadors estan obligats a mantenir registres detallats i documentació de les dades utilitzades en els sistemes d'IA, assegurant així la traçabilitat i la responsabilitat en l'ús de la tecnologia.
Per als reguladors suposarà la designació d'autoritats competents nacionals a cada estat membre de la UE per a supervisar la implantació i el compliment de la llei d'IA. A més, es crea l’Oficina Europea d'IA, un nou organisme encarregat de facilitar la cooperació entre les autoritats nacionals i proporcionar orientació sobre l'aplicació de la llei d'IA. També s'establiran sancions significatives per a les empreses que incompleixin les regulacions, amb multes que poden anar dels 35 milions d’euros al 7% del seu volum de negocis anual global.
Què passa amb gegants com els EUA on hi ha poc respecte per la dada privada o la Xina on hi ha poc respecte per l’individu en general?
Estem d’acord que la Llei d'IA de la UE representa un enfocament pioner a la regulació de la IA, i que, tal i com ho va fer la GDPR, servirà de patró per als governs a l’hora d’abordar els reptes i les oportunitats que presenta la IA. Segur que ens farà millors persones, però més pròspers? Què passa amb gegants com els EUA on hi ha poc respecte per la dada privada o la Xina on hi ha poc respecte per l’individu en general? Ens estem disparant un tret al peu o ben al contrari, necessitem aquest tipus de regulacions si no volem acabar a 1984? El Departament de l’Interior dels EUA utilitza reconeixement facial que creua amb dades de gimnasos, targetes de compra de supermercats i activitat en línia per reconèixer persones i deportar-les en massa. Volem el sistema de puntuació social de la Xina i que un dia ens trobem desposseïts dels nostres drets digitals i dels no-digitals?
Els riscos
La llei classifica els riscos d'aplicació de la IA en diverses categories. Els sistemes d'IA que representen un risc inacceptable, és a dir, que posen en perill la seguretat, els mitjans de subsistència i els drets de les persones, estan prohibits. Això inclou, per exemple, els sistemes d'IA utilitzats per al puntuació social per part dels governs i aquells que manipulen el comportament humà per causar danys. Els sistemes d'IA d'alt risc, que s'utilitzen en sectors crítics com la salut, el transport, l'aplicació de la llei i l'ocupació, estan subjectes a requisits estrictes abans de poder ser comercialitzats o utilitzats. Els sistemes d'IA amb risc limitat, com els xatbots o els sistemes de categorització biomètrica, tenen obligacions específiques de transparència. Els usuaris han de ser informats que estan interactuant amb un sistema d'IA. Finalment, tots els altres sistemes d'IA que representen un risc mínim o nul estan majoritàriament desregulats per la llei.
1. Potencial fre a la innovació
Tot i que la Llei d'IA de la UE té com a objectiu protegir els interessos públics i garantir un desenvolupament ètic de la IA, l’efecte podria ser el contrari. El balanç és molt inestable i hi ha la preocupació que els seus estrictes requisits reglamentaris puguin obstaculitzar la innovació.
Hi ha la preocupació que els seus estrictes requisits reglamentaris puguin obstaculitzar la innovació
2. Més costos de conformitat
Els estrictes requisits de conformitat, especialment per als sistemes d'IA d'alt risc, comporten costos significatius. Les empreses han d'invertir en proves extenses, processos de validació i documentació per complir amb les avaluacions de conformitat, que és precisament el que OpenAI, Google i Meta no fan. Aquests costos poden ser prohibitius per a les pimes i molt especialment per a les empreses emergents.
Les empreses poden haver d'assignar recursos substancials al compliment, en lloc d'innovar. Aquest canvi de focus pot limitar la seva capacitat per invertir en recerca i desenvolupament.
3. Alentiment dels cicles d’innovació
Les avaluacions de conformitat detallades i les certificacions necessàries poden allargar significativament el temps necessari de portar els productes al mercat. Aquest retard pot ser un desavantatge crític en la indústria d'IA, on ser el segon és el primer dels perdedors.
Aquest retard pot ser un desavantatge crític en la indústria d'IA, on ser el segon és el primer dels perdedors
L'establiment d'autoritats competents nacionals i a la EU introduirà capes addicionals de burocràcia que alentiran els processos de presa de decisions i aprovació: més temps que no es dedica a l’R+D+i.
4. Tap generacional
Les empreses emergents són sovint la força impulsora darrere dels desenvolupaments d'IA més innovadors. Els procediments complexos associats amb el compliment poden actuar com a barreres d'entrada, desanimant noves empreses i limitant la diversitat d'innovació en l'ecosistema d'IA.
La possibilitat de multes significatives per incompliment, pot desincentivar l’assumpció de risc per part de les emergents. Un enfocament massa conservador podria sufocar l'experimentació i la innovació, conduint a un entorn de desenvolupament d'IA massa cautelós i poc dinàmic.
5. El diner és covard
Els capitalistes de risc i altres inversors podrien ser reticents a invertir en emergents d'IA dins de la UE a causa dels riscos reguladors percebuts i els possibles retards en aconseguir rendiments de la inversió. En tenim la prova en els recents casos de les plataformes nord-americanes de generació de música Udio i Suno, que la RIAA ha portat als tribunals per violació de drets de còpia: els seus inversors afirmen que si tot hagués estat legal de partida, no hi haurien invertit.
6. Desavantatge competitiu
En un mercat globalitzat, les empreses de la UE poden trobar-se en desavantatge en comparació amb les seves homòlogues als EUA on els entorns reguladors són generalment més permissius, i a la Xina on no se sap quan acaba el regulador i comença l’empresa. La capacitat de les empreses d'aquestes regions per innovar ràpidament i portar productes al mercat pot erosionar la posició competitiva de les empreses basades a la UE.
7. Fuga de cervells
Els investigadors i professionals més capacitats en l’àmbit de la IA podrien sentir-se temptats a traslladar-se a països amb entorns reguladors menys restrictius, més competitius i per tant amb salaris més suculents. Una fuga de talentt que a la UE no ens podem permetre. Aquesta pèrdua de capital humà pot debilitar la capacitat global de la UE per a la innovació i no només en l'àmbit de la IA.
Calerons
Si donem un tomb pels altres grans ecosistemes d'IA i comparem amb la UE ens adonarem que la inversió i la innovació en IA varien significativament segons la regió.
La inversió en IA ha vist un creixement exponencial durant l'última dècada. Segons IDC, es preveu que la despesa global en sistemes d'IA superi els 184 mil milions de dòlars el 2024, reflectint una taxa de creixement anual del 50% respecte l’any anterior. La inversió en IA prové de diverses fonts, incloent finançament governamental, capital risc privat, inversions corporatives i mercats públics. La interacció d'aquestes fonts de finançament varia segons les regions.
Es preveu que la despesa global en sistemes d'IA superi els 184 mil milions de dòlars el 2024
1. UE
La UE destina recursos substancials a la IA a través d'iniciatives estratègiques com el programa Horizon Europe, que assigna el 2023-24 112 mil milions d'euros a la recerca i la innovació en IA i computació quàntica. La UE està invertint des del 2021 i fins el 2027 mil milions d'euros anuals. La UE posa èmfasi en la creació d'un ecosistema col·laboratiu per al desenvolupament de la IA, aprofitant els punts forts dels seus estats membres. Iniciatives com l'Aliança Europea d'IA i el Consell Europeu d'Innovació proporcionen plataformes per a la cooperació entre acadèmia, indústria i govern. Tant els sectors públics com els privats estan invertint en IA. No obstant això, els nivells d'inversió generalment són inferiors als dels EUA i la Xina i les emergents europees sovint s'enfronten a desafiaments per escalar degut a mercats fragmentats i complexitats reguladores.
2. EUA
Els EUA lideren la inversió en IA, especialment a través del capital risc. Silicon Valley i gegants tecnològics com Google, Apple i Facebook, atrauen una part significativa del finançament global d'IA. En el que va de 2024, les emergents d'IA als EUA han concentrat més de 100 milions de dòlars en finançament de capital risc. El govern dels EUA també hi juga un paper crucial, amb inversions substancials d'agències com DARPA i la NSF. De l’agost del 2022 a l’agost del 2023, els EUA van incrementar la despesa pública en un 1.200% , de 35 milions de dòlars a 4,6 mil milions. Empreses globals com IBM, Microsoft i Amazon estan a l'avantguarda del desenvolupament de tecnologies d'IA que tenen integrades en els seus models de negoci.
Els EUA lideren la inversió en IA, especialment a través del capital risc
3. Xina
A la Xina, l'estratègia d'IA es caracteritza per una forta inversió liderada per l'estat. El govern xinès ha fixat objectius ambiciosos, amb l'objectiu de convertir-se en el líder mundial en IA per al 2030. El finançament governamental dóna suport a centres nacionals de recerca en IA i a projectes de gran escala. Segons IDC la projecció de la inversió de Xina en IA arribarà als 38 mil milions de dòlars el 2027, un 9% de la inversió total. Els gegants tecnològics xinesos com Alibaba, Tencent i Baidu són grans inversors en IA. Aquestes empreses no només financen R+D intern, sinó que també inverteixen en emergents d'IA i adquireixen empreses d'IA estrangeres per reforçar les seves capacitats. La Xina fomenta les associacions público-privades per accelerar el desenvolupament de la IA. Iniciatives com el Pla de Desenvolupament d'Intel·ligència Artificial de Nova Generació encoratgen la col·laboració entre entitats governamentals, institucions de recerca i el sector privat. Sense aquesta col·laboració públic-privada no s’entendria com TikTok, de matriu xinesa, ha conquerit el món. Recordem que TikTok és únicament i exclusiva un algorisme molt ben engreixat de recomanació basat en IA i aprenentatge automàtic.
Segons fonts del Parlament Europeu, el mercat global d'IA que estava valorat el 2024 en més de 130 mil milions d'euros, s’espera que creixi a gairebé 1,9 bilions d'euros el 2030. La inversió privada representa la major part de la inversió en IA, que lidera els EUA amb 62.500 milions d'euros seguit de la Xina amb 7.300 milions d'euros. La UE i El Regne Unit van atreure conjuntament 9.000 milions d'euros d'inversió privada el 2023.
Antíntesi
D’acord, regular la IA té costos. Però, i els costos de no fer-ho? Els EUA i la Xina lideren, però a canvi de què? Mentre que els EUA i la Xina lideren el desenvolupament de la IA, aquests avenços sovint es produeixen a canvi de compromisos significatius en ètica, drets humans i seguretat.
"D’acord, regular la IA té costos. Però, i els costos de no fer-ho?"
Privacitat i drets humans
Un dels costos més evidents de no regular la IA és la violació de la privacitat i els drets humans. En un entorn sense regulacions, les empreses poden recollir, emmagatzemar i utilitzar dades personals sense el consentiment informat dels individus. Ara que hi torna a haver eleccions als EUA no ens podem abstraure del cas de Cambridge Analytica, on dades personals de milions d'usuaris de Facebook van ser utilitzades sense el seu consentiment per influir en les seves eleccions polítiques. Aquest escàndol va posar de manifest la necessitat de regulacions estrictes per protegir la privacitat dels usuaris.
A la Xina, la falta de regulacions estrictes ha permès el desenvolupament i ús extensiu de tecnologies de reconeixement facial per a la vigilància massiva. Aquesta tecnologia s'ha utilitzat per monitorar i controlar minories ètniques, com els uigurs a Xinjiang, violant els seus drets humans fonamentals. Aquest ús indiscriminat de la IA per a la vigilància és un clar exemple de com la falta de regulació pot conduir a abusos significatius dels drets humans.
Discriminació i biaixos
Un altre cost important de no regular la IA és la perpetuació i amplificació de biaixos i discriminacions existents. Els algoritmes d'IA sovint aprenen a partir de dades històriques, que poden contenir els biaixos implícits de les societats que les han generat. Sense una regulació adequada, aquests sistemes poden prendre decisions discriminatòries en àrees crítiques com l'ocupació, la justícia penal i els préstecs financers.
Un cost de no regular la IA és la perpetuació i amplificació de biaixos i discriminacions existents
Un exemple clar és l'algoritme COMPAS, utilitzat als EUA per avaluar el risc de reincidència dels acusats. Estudis han demostrat que aquest algoritme tenia un biaix racial significatiu, ja que sovint predeia incorrectament que els acusats negres eren més propensos a reincidir en comparació amb els acusats blancs. Aquest tipus de discriminació automatitzada condueix a tot menys a una societat més justa, especialment pels més febles.
Seguretat i fiabilitat
La seguretat és un altre àmbit crític que es veu compromès en absència de regulacions. Els sistemes d'IA poden ser vulnerables a atacs cibernètics, manipulacions i fallades operacionals. Sense estàndards de seguretat rigorosos, aquests riscos poden tenir conseqüències devastadores.
Per exemple, en el cas dels vehicles autònoms, una fallada en els sistemes d'IA podria provocar accidents mortals. A Uber, el 2018, un vehicle autònom va atropellar i matar una vianant a Arizona, posant en relleu la necessitat de regulacions estrictes per garantir la seguretat d'aquests sistemes abans que puguin ser utilitzats àmpliament.
Pèrdua de confiança pública
La falta de regulació també pot conduir a una pèrdua de confiança pública en la tecnologia d'IA. Quan els ciutadans perceben que les seves dades no estan segures o que els sistemes d'IA poden actuar de manera injusta, insegura i inexplicable, es redueix la seva predisposició a utilitzar aquestes tecnologies. Aquesta pèrdua de confiança pot frenar l'adopció i el desenvolupament de la IA a llarg termini i erosionar, encara més, la confiança en les administracions que les implantin.
Final
Tot i que la regulació de la IA pot comportar costos i desafiaments per a les empreses, no regular aquesta tecnologia pot tenir conseqüències encara més greus. La protecció de la privacitat i els drets humans, la prevenció de la discriminació, la garantia de la seguretat i la fiabilitat, i la preservació de la confiança pública són essencials per al desenvolupament ètic i sostenible de la IA. Els exemples i casos d'estudi dels EUA i la Xina demostren clarament els riscos de no regular adequadament aquesta tecnologia. D’altra banda una regulació que erri el focus pot provocar l’efecte contrari; desincentivar la innovació i augmentar la dependència d’actors que la única llei que entenen és la de l’oferta i la demanda.
Qui sap si la IA ens pot ajudar també a trobar l’equilibri.