Ètica periodística per a màquines

02 de Maig de 2024
Josep Maria Ganyet | VIA Empresa

El ràpid avenç de la intel·ligència artificial (IA) ha provocat canvis significatius en la manera com consumim i interactuem amb la informació. Podríeu dir si aquest text l’he escrit jo o ha estat generat amb ChatGPT?* Tanmateix, aquest progrés planteja preguntes importants sobre les implicacions ètiques sobre l'ús de l'IA, de la utilització de materials amb drets d'autor, del seu impacte en el sector periodístic i del seu impacte social.

A mesura que la IA forma part cada cop més dels processos de selecció, recomanació i de generació de continguts, és necessari que l'ètica periodística, que fins ara només era aplicable a periodistes i editors humans, s’estengui també a la IA, o el que és el mateix, a les empreses que les desenvolupen.

Fins ara, empreses com OpenAI, amb Microsoft darrera, o bé Google han actuat en zones grises pel que fa al respecte als drets d’autor. Escudant-se en l’argument de “l’ús raonable” han pogut utilitzar el contingut que entre tots hem generat —el lliure de drets i el que té propietat intel·lectual— per crear un negoci multimilionari anàleg. Aquest escenari recorda poderosament l'era de Napster, on la tecnologia i els usuaris van canviar els models de distribució de contingut musical. Hi va haver damnificats, però sense el Napster d’antany no tindríem els serveis d’streaming d’avui. De la mateixa manera que la indústria de la música finalment es va adaptar i l’arribada de les plataformes va reduir la pirateria a un esport, l’època Napster de la IA generativa també passarà. I per que això sigui així han de passar dues coses: que els propietaris de continguts s’adaptin al nou paradigma de creació/distribució i que, sobre tot, els creadors de grans models de llenguatge respectin els drets dels primers. Sembla que n’estem veient els primers passos.

"El contingut del New York Times utilitzat en l’entrenament serveix després per competir contra el mateix mitjà"

OpenAI, entre altres empreses d'IA, ha signat acords amb els principals editors de notícies per utilitzar el seu contingut per entrenar models d'IA, pagant. Ho ha fet amb editors com Axel Springer, The Financial Times, Le Monde, Prisa Media i The Associated Press. Aquests acords permeten que les eines d'IA utilitzin material amb drets d'autor de manera legal. No tothom hi està d’acord. El New York Times va demandar el desembre del 2023 OpenAI i Microsoft per infracció de drets d'autor. L’argument no és tant per si paguen o no per l’entrenament com pel fet que el contingut del NYT utilitzat en l’entrenament serveix després per competir contra el mitjà: els seus enginyers van ser capaços de reproduir amb ChatGPT articles sencers del diari.

L’altre gran competidor, Google amb el seu Gemini, treballa en un altra direcció. De moment, que sapiguem, no ha tancat cap acord amb els grans grups editorials. Malgrat tot, les seves aportacions a l’ètica periodística podrien ser fonamentals. Un dels problemes dels grans models de llenguatge és que “al·lucinen”, que és el terme tècnic que s’utilitza per dir que s’inventen coses. Les “al·lucinacions” estan molt bé quan l’objectiu que es persegueix és “creatiu”; sens al·lucinacions la IA generativa seria predictiva i tot el que faria seria “regurgitar” (sí, aquest també és el terme tècnic) tot el que ha après textualment. Cal doncs una certa imprevisibilitat a l’hora de generar continguts si volem que aquests models ens siguin útils. Sense aquesta imprevisibilitat no seríem on som. Nogensmenys, aquesta característica de la IA generativa és un problema quan el que ens interessa són continguts factuals, vertaders i de qualitat.

Un article recent dels investigadors de Google DeepMind ha proposat una nova metodologia anomenada Safe que intenta minimitzar les “al·lucinacions”. Safe és avaluador de fets augmentat amb els algorismes de cerca de Google, que d’això hi entén una mica. Les respostes generades pel model es desglossen en oracions simples que es contrasten amb la cerca de Google per veure'n la realitat o la falsedat. El document afirma que aquest sistema experimental supera els anotadors humans de verificació de fets en termes de precisió i és més de 20 vegades més barat. Sembla que els llocs de feina d’anotador a 1 i 2 dòlars l’hora que la IA generativa va crear a Nepal, Bangla Desh i Nigèria també tenen els dies comptats.

"Sembla que els llocs de feina d’anotador a 1 i 2 dòlars l’hora que la IA generativa va crear a Nepal, Bangla Desh i Nigèria també tenen els dies comptats"

Us deixo amb cinc punts d’ètica periodística per a màquines com a resum de tot plegat:

  1. Respectar els materials amb drets d'autor: les empreses d'IA han de respectar els drets de propietat intel·lectual dels creadors i obtenir permís abans d'utilitzar materials amb drets d'autor. Això inclou pagar drets d'autor a editors i creadors per l'ús de la seva obra.
  2. Donar crèdit a les fonts: les empreses d'IA han de donar crèdit a les fonts i als creadors per la informació que proporcionen. Això inclou citar fonts i proporcionar enllaços al contingut original.
  3. Compensar els creadors: les empreses d'IA han de compensar els creadors per l'ús del resultat de la seva feina. Això inclou pagar drets d'autor i oferir una compensació justa per l'ús de materials amb drets d'autor.
  4. Garantir la veracitat i la factualitat: les empreses d'IA han de garantir la veracitat i la factualitat de la sortida. Això inclou l'ús de mètodes de verificació de fets per garantir que la informació proporcionada és precisa i fiable.
  5. Transparència en la creació de models: les empreses d'IA han de ser transparents en la creació dels seus models. Això inclou proporcionar informació sobre les dades utilitzades per entrenar els models i els algorismes utilitzats per generar la sortida.

Cinc punts que casualment no són gens diferents que els que hem d’exigir també als periodistes. Però aquest tema sembla que costarà més.

*Sí, ha estat generat per ChatGPT.