Les xarxes socials han contribuït des dels seus inicis a propagar tota mena d’informació. Es van veure com una àgora pública per moviments socials com el 15M, la Primavera Àrab o Occupy WallStreet, on el debat i la deliberació tenien lloc a les places i es complementaven a les xarxes, que es van convertir en espais per facilitar la comunicació i l’organització. Avui dia, aquesta visió s’ha vist clarament alterada per debats condicionats per múltiples interessos i per la poca transparència en la manera de difondre i de moderar el contingut, així com per la limitació de l'accés a les dades per part de la societat, i més concretament de la comunitat investigadora. Aquests factors són determinants a l’hora de definir les xarxes com a un espai segur.
Actualment, a més, estan sota escrutini per la proliferació de continguts de diversa naturalesa. Fa uns mesos el cofundador de Telegram, Pavel Durov, va ser detingut i acusat de múltiples càrrecs per no impedir l’activitat il·lícita a l’aplicació, fet que va obligar Telegram a implementar mesures més estrictes de moderació de contingut. Amb l’adquisició de Twitter (ara X) per part d’Elon Musk, una part de la comunitat d’usuaris de la plataforma es va traslladar a Mastodon, una xarxa social amb un model de governança descentralitzat. Aquest comportament col·lectiu s’ha repetit recentment, aquesta vegada cap a la plataforma, també descentralitzada, BlueSky. Algunes de les raons que esgrimeixen les persones i organitzacions que fan el canvi estan relacionades amb el tipus de contingut que prolifera a les plataformes, com ara missatges tòxics que afecten col·lectius vulnerables; desinformació, especialment prevalent en èpoques d’incertesa, i narratives extremes que tendeixen a la polarització durant períodes electorals o conflictes bèl·lics.
La Comissió Europea, a través de la Llei de Serveis Digitals, exigeix a les plataformes que eliminin contingut il·legal, per protegir els drets fonamentals i salvaguardar la llibertat d’expressió de la ciutadania que participa del debat públic a les plataformes. La normativa obliga les empreses a garantir una major transparència sobre com es modera el contingut i a fer públics els criteris que determinen què veiem als nostres feeds. Els algoritmes, sovint dissenyats amb interessos comercials o polítics, prioritzen la informació i, per tant, condicionen l’accés a certs tipus de contingut, influenciant i modelant així l’opinió pública. Ens trobem exposats a l’eco del contingut que confirma les nostres pròpies idees i, per altra banda, ens allunyem de xarxes on els mateixos algoritmes potencien un contingut que considerem esbiaixat.
En aquest escenari, les dades són essencials, no només per comprendre les dinàmiques de propagació de la informació, sinó també per detectar continguts que atempten contra les llibertats individuals. Una de les primeres decisions que va prendre Elon Musk en assumir el control de Twitter va ser eliminar l’accés a dades obertes i gratuïtes per a la comunitat investigadora, privant-la de la possibilitat de fer recerca en aquest àmbit. Així mateix, val a dir que altres plataformes socials mai han tingut una política d’accés obert a dades i la major part de treballs usaven les dades de Twitter per aquesta raó. En aquest sentit, la Comissió Europea, a través de l’article 40 de la Llei de Serveis Digitals, preveu que la comunitat pugui sol·licitar dades a les plataformes i als motors de cerca per dur a terme estudis sobre els riscos sistèmics associats, però els mecanismes per fer-ho encara no estan del tot clars.
"Una de les primeres decisions que va prendre Elon Musk en assumir el control de Twitter va ser eliminar l’accés a dades obertes i gratuïtes per a la comunitat investigadora"
Tot i això, la ciutadania participa de manera massiva en xarxes socials, compartint no només la informació explícita que publica en forma de post, sinó també l'accés a dades dels seus dispositius. Això permet que un conjunt molt reduït d'empreses i individus disposin de perfils detallats per a les seves campanyes comercials o polítiques, entre altres, o per entrenar grans models d’intel·ligència artificial, com s’ha vist recentment. Malgrat la despreocupació de la ciutadania per les conseqüències que té la gran quantitat de dades que cedeixen diàriament a aquestes plataformes, en general existeix una reticència a compartir dades, encara que siguin per projectes de recerca pel bé comú.
La idea d’una xarxa social com a espai segur per a la discussió i la deliberació, que compleixi el paper d’una esfera pública a l’estil Habermas, és llunyana. La desinformació, sigui a xarxes socials digitals o en altres mitjans, continua propagant-se. Per limitar-ne els efectes, calen aproximacions holístiques, essencialment fomentar l'esperit crític de la ciutadania, la capacitat de prendre decisions basades en evidències, juntament amb models de governança alternatius als actuals. Aquests models han de fomentar el control de les dades per part de les persones que les generen i, sobretot, la transparència algorítmica i l’accés obert a les dades de les plataformes. Això permetrà proveir d’eines que ajudin a estudiar l'impacte de les xarxes i, ulteriorment, la presa de decisions davant l’allau d’informació. Només així podrem entendre i minimitzar les narratives tòxiques, alhora que debatre obertament sobre els efectes que les metodologies de moderació de xarxes socials tenen sobre la llibertat de les persones.