Opinió

Dilema social? Quin dilema?

L'any 2021 Facebook va canviar el seu nom a Meta. La versió oficial va ser que era perquè la pròxima iteració d’internet seria immersiva, una internet on canviaríem el verb accedir pel verb ser, on les visites es convertirien en presència. Però la realitat real distava molt de la realitat virtual que ens volia vendre Zuckerberg.

En realitat, Meta va néixer per culpa d’una crisi de reputació sense precedents que superava per sota l’anterior, la de Cambridge Analytica. El 2021 havien sortit a la llum múltiples escàndols relacionats amb la privacitat i els efectes nocius de les xarxes socials sobre els usuaris, especialment els menors. El canvi de nom era l'única estratègia per distanciar-se’n i mirar de passar pàgina molt lluny del salt tecnològic amb el qual pretenien justificar-ho.

Per això Zuckerberg va recuperar un concepte que des dels anys 80 havia estat l’eterna promesa, el metavers, que estava cridat a ser la nova internet, un espai on la gent viuria, treballaria i es relacionaria virtualment. L’èxit de l’empresa el podeu comprovar vosaltres mateixos. Hi sou? Doncs tot dit. Meta va heretar els problemes de Facebook de la gestió de la privacitat i el contingut nociu, problemes que malgrat el rentat de cara, persisteixen.

Diversos filtradors i extreballadors de Facebook, com Frances Haugen i Arturo Béjar, van confirmar que l'empresa era conscient dels danys causats per les seves plataformes. Béjar, treballador de Meta del 2009 al 2015 i del 2019 al 2021 i expert a combatre l'assetjament en línia, va enviar un correu a Mark Zuckerberg el 2021 advertint sobre els efectes nocius d'Instagram en els més joves. Ho sabia bé perquè a la seva filla de 14 anys li va tocar el rebre. Béjar va testificar davant el Congrés el 2023, afirmant que Meta no va fer prou per solucionar aquests problemes, malgrat tenir el poder i els recursos per fer-ho.

Segurament n’havíeu llegit alguna cosa en aquestes mateixes pàgines, en vau seguir l’escàndol al seu moment o fins i tot vau veure The Social Dilemma de Netflix. Però una cosa és sentir els fets en tercera persona via un periodista i l’altra en primera via el seu protagonista. Diumenge passat, el programa Salvados de La Sexta va emetre Las Redes del Terror, un títol que no enganya, i que va mostrar el costat més fosc de les xarxes socials que és també el de la societat. Amb la seva doble condició d’expert i de pare de dos adolescents, Arturo Béjar va compartir el seu testimoni més personal sobre com la seva filla va patir bullying i va rebre insinuacions no desitjades de caràcter sexual a Instagram. 

Documentals com The Social Dilemma o bé The Unsocial Network aborden aquest problema. Estan ben documentats, ben produïts, ben narrats, i, sobretot, aconsegueixen l’objectiu de despertar l’esperit crític de l’espectador, que és alhora usuari de xarxes socials. Al Salvados, en canvi, no hi havia massa recursos audiovisuals, ni una narrativa complexa, ni excés de personatges: només un entrevistat i un entrevistador que escoltava.

"Malgrat els avisos interns i les dades que revelaven la gravetat dels problemes, l’empresa va preferir no actuar per no comprometre els seus beneficis"

Béjar va destacar com, malgrat els avisos interns i les dades que revelaven la gravetat dels problemes, l’empresa va preferir no actuar per no comprometre els seus beneficis. Un déjà vu de la indústria del tabac dels anys 60 i 70, quan sabent els danys que causaven van optar per no actuar, prioritzant els beneficis per sobre de la salut pública. Wayne McLaren, l’icònic cow boy del bigoti de l’anunci de Marlboro va morir amb càncer de pulmó i amb la boca tapada per clàusules que li impedien fer pública la seva condició (fins a quatre actors de Marlboro han mort de càncer de pulmó).

He seguit una mica la trajectòria de Béjar d’ençà que va filtrar el famós correu a Mark Zuckerberg, i no es queda només amb la denúncia; també aporta solucions que tenen tant de tecnològic com de social. N’hi ha una de molt fàcil: que siguin els usuaris adolescents qui entrenin l’algorisme de selecció de continguts d’Instagram. Si els dotem d’eines senzilles per indicar que cert contingut no és adequat, Instagram pot utilitzar aquesta informació per entrenar els seus algorismes d’IA perquè els estalviï de veure continguts nocius. Us sonen els filtres d’spam del correu que aprenen del que marquem com a “nociu”? Doncs això.

I ja de passada, Béjar també diu que hi ha una mesura més senzilla i efectiva: restringir l’accés dels adolescents a les xarxes socials fins als 16 anys. No cal que els demanin cap document d’identitat; saben millor que els seus pares qui són i què hi fan.