El risc de seguretat de ChatGPT alerta les empreses: "Ningú sap què passa amb les dades"

Grans companyies es blinden amb un model propi mentre els experts insisteixen en la importància de formar la plantilla

Un usuari entra a ChatGPT | ACN Un usuari entra a ChatGPT | ACN

Les eines d'intel·ligència artificial generativa com ChatGPT han passat a formar part del dia a dia de molts treballadors quan fa poc més de sis mesos que l'empresa Open AI va llançar al públic una versió que ha arribat a les 10 milions de consultes al dia. Els experts avisen que es tracta d'un instrument "experimental" fet amb una dinàmica de 'gamificació' que no està exempta de problemes de seguretat i que ja ha provocat filtracions a empreses com Samsung. Per evitar córrer aquests riscos, les empreses han impulsat formacions als treballadors. D'altres, han anat més enllà i han començat a generar models propis, una possibilitat només a l'abast de grans empreses amb pressupostos elevats en innovació.

Un dels cursos que ha aparegut últimament és el de prompt engineering on s'aprèn a fer preguntes a l'eina. En aquest sentit, alguns centres tecnològics com Eurecat estan "començant a idear" cursos perquè les empreses puguin extreure tot el valor que es pugui d'eines com ChatGPT, que, són "un gran ajut a la productivitat perquè fan desaparèixer la síndrome de la pàgina en blanc". Joan Mas Albaigès, que és coordinador del Centre d'Innovació en Tecnologia de Dades i Intel·ligència Artificial (CIADAI), considera que no es pot ignorar l'existència d'aquesta revolució que suposa la IA avançada sinó "dominar-les i portar-les al nostre terreny".

Una altra opció és desenvolupar el seu propi model, com ha fet la multinacional Continental, que apostarà per crear el seu propi xatbot per als seus 3.000 empleats. "Les persones fan servir ChatGPT com si fos un amic i obliden a, a l'altre costat, es fa servir la informació per entrenar la xarxa perquè millori", apunta Pedro Ramos, director d'equips d'enginyers a Continental.

Catalunya va ser pionera a liderar la Declaració de Barcelona de la IA el 2017, fent una crida a la prudència perquè sempre hi hagués un humà supervisant les decisions de la intel·ligència artificial

Amb tot, aquesta aposta queda lluny de les pimes que "difícilment tenen aquestes capacitats". Precisament, aquest és un altre motiu que complica l'ús segur de dades confidencials en eines com ChatGPT és el model de subcontractar la gestió de les dades de les empreses especialitzades. "Cada vegada que externalitzes, estàs delegant, i no és el mateix que ho vigilis tu, que ho faci un altre", exemplifica la catedràtica de la UPC.

Mercat no regulat

En aquest escenari de creixement d'ús exponencial i de mercat no regulat, altres empreses com Google o Antrohpic van anunciar la seva intenció de llançar un model propi de llenguatge, Bard i Claude. Gibert assenyala que "un dels problemes que té que el sector no estigui regulat és que tots treuen coses al mercat de qualsevol manera, i s'estan obrint al públic eines experimentals, que no van amb un manual d'instruccions", com és el cas de ChatGPT.

Més info: ChatGPT i el seu potencial per a l’ensenyament i la recerca

Una de les conseqüències de no regular aquesta tecnologia es pot veure als Estats Units on és legal elaborar un perfil a partir de dades de galetes no consentides i vendre-les a tercers, com headhunters o asseguradores i pot passar que s'usin sense dir-t'ho per avaluar si estàs capacitat per una feina o si t'han de fer una assegurança de cotxe o de vida.

De fet, Catalunya va ser pionera a liderar la Declaració de Barcelona de la IA el 2017, amb més de 200 científics de la comunitat internacional adherits, fent una crida a la prudència perquè sempre hi hagués un humà supervisant les decisions de la intel·ligència artificial, després que aquesta tecnologia saltés de forma "insensata" al món productiu.

Més informació
La IA és molt més que ChatGPT
Què està passant amb el ChatGPT?
ChatGPT i Google no són el mateix. Com fer-los servir
Avui et destaquem
El més llegit