Avui en dia, la intel·ligència artificial projecta una ombra i genera por degut a la desinformació, bombolles de contingut impulsades per algoritmes i possibles pèrdues de feina. Aquesta por prové principalment de no entendre el funcionament i les decisions de la IA. Malgrat la integració de la IA durant dècades, oferint beneficis significatius i destacant en tasques com la previsió i l'optimització, encara hi ha preguntes a resoldre: si la IA supera els humans en molts àmbits, per què preocupar-se de comprendre-la i regular-la?
Aquesta qüestió ha arribat a una necessitat màxima especialment durant l'últim any, quan ChatGPT i Midjourney van entrar al món de la IA i van marcar una nova era en la creació de contingut i van plantear preguntes sobre la nostra interacció futura amb la IA. Tot i que l'opacitat en la presa de decisions de la IA pot semblar menor per a tasques simples com escriure un haiku, esdevé una preocupació important per a decisions vitals significatives. Comprendre els criteris de presa de decisions de la IA, els biaixos potencials i la rellevància de les dades esdevé crucial. La IA responsable aborda aquests reptes ètics i pràctics, amb l'objectiu d'alinear la implementació de la IA amb els valors socials, i destacant la necessitat de transparència i responsabilitat tant com una necessitat tècnica com un imperatiu moral.
La IA responsable posa de manifest una realització crucial: els models de IA són essencialment eines obedients, sense ètica, consciència de si mateixos o pensament crític. Les seves accions són un reflex directe de les instruccions que els proporcionem i només són tan bons com les dades amb què es formen. Si les dades contenen biaixos, els models reproduiran inherentment aquests biaixos. A diferència dels humans, els models de IA no evolucionen amb els canvis en els valors i normes socials. Això planteja qüestions fonamentals:
Hauríem d'implementar un model que millori l'estat actual si sabem que porta biaixos? Hauríem d'utilitzar un model fins i tot si ens falta un enteniment clar de com funciona? L'experiment d'Amazon amb la IA en la contractació va afavorir involuntàriament els candidats masculins, posant de relleu les conseqüències no desitjades dels algorismes de IA amb biaixos.
L'experiment d'Amazon amb la IA en la contractació va afavorir involuntàriament els candidats masculins
Una altra limitació de la IA radica en la representativitat de les dades que rep. És imperatiu qüestionar si les dades que proporcionem ofereixen una imatge completa. Prenem com a exemple el cas d'un robot de seguretat anomenat Steve, que va caure accidentalment a una font a Washington DC, generant inicialment sospites de "suïcidi robòtic". No obstant això, una anàlisi més detallada de les dades de Steve va revelar que l'accident es va deure a una manca de dades d'entrenament i formació.
De manera similar, investigadors de la Universitat de Tübingen van descobrir el comportament peculiar d'una xarxa neuronal entrenada per reconèixer imatges. Quan se li va demanar que identifiqués "tenca", un tipus de peix, la xarxa neuronal destacava consistentment dits humans contra un fons verd. Aquest resultat estrany va ser conseqüència de la xarxa neuronal associant la majoria d'imatges de tenca amb persones que tenien el peix com a trofeu, mancant un enteniment més profund de què és un peix tenca.
Aquests exemples poden provocar diversió, però un incident greu va ocórrer el 2019 amb l'Autopilot de Tesla, que tràgicament no va reconèixer un camió, provocant una col·lisió fatal. El sistema Autopilot de Tesla havia après predominantment de dades relacionades amb autopistes i mai no s'havia trobat amb una pista perpendicular a la carretera, ja que és un escenari tècnicament impossible per a les autopistes. Aquest tràgic incident subratlla la necessitat que els sistemes de IA s'entrenin en una gamma diversa d'escenaris per garantir la seguretat i l'eficàcia.
Un altre repte fonamental en el món de la IA és el desenvolupament de models basats en hipòtesis raonables. Per exemple, considerem la controvèrsia entorn de la tecnologia de reconeixement facial. En un informe de la BBC, els investigadors de la Universitat de Harrisburg van afirmar que el seu programari podia predir si algú era un criminal basant-se només en una imatge de la seva cara. Un altre exemple inquietant prové del The Washington Post, on els investigadors van utilitzar eines de reconeixement facial per predir l'orientació sexual.
A més, la qüestió crítica no és només sobre les capacitats dels models de IA, sinó també com les utlitzem. Un exemple notable és la dimissió del govern neerlandès després d'un escàndol de beneficis. Un informe parlamentari va trobar que les autoritats tributàries van dirigir injustament les famílies de baixos ingressos en relació amb els beneficis per a la cura dels infants, conduint a la dimissió del primer ministre Mark Rutte i tot el seu gabinet.
La IA actua com a mirall de la societat que la crea i la utilitza
En resposta als desafiaments esmentats anteriorment, UIC Barcelona ha adoptat una postura proactiva llançant l'Observatori d'Intel·ligència Artificial. Aquest projecte té com a objectiu proporcionar coneixements crítics per a les decisions estratègiques de la universitat, donar suport al desenvolupament d'un programa de gestió del canvi per a la seva comunitat i establir un fòrum reflexiu que utilitzi les forces de la universitat, especialment en ètica, legislació i medicina. La missió de l'Observatori inclou assegurar-se que els graduats de UIC Barcelona estiguin ben versats en AI, centrant-se en les implicacions professionals i ètiques de les tecnologies emergents en l'àmbit acadèmic i la societat.
Aquesta iniciativa és particularment pertinent donat que la IA actua com a mirall de la societat que la crea i la utilitza. Per aprofitar al màxim el potencial de la IA, la comunicació efectiva amb ella és crucial. No obstant això, aquesta interacció planteja qüestions ètiques complexes sobre a qui beneficia les aplicacions de IA, que requereixen una reflexió profunda.
L'Observatori, per tant, juga un paper crític no només en comprendre la IA, sinó en guiar el seu desenvolupament de manera responsable i ètica per al bé col·lectiu de la societat, alineant-se amb la perspectiva més ample que l'impacte de la IA transcendeix els avanços tecnològics per tocar preguntes ètiques i socials fonamentals.