Las redes sociales han contribuido desde sus inicios a propagar toda clase de información. Se vieron como una ágora pública para movimientos sociales como el 15M, la Primavera Árabe o Occupy WallStreet, donde el debate y la deliberación tenían lugar en las plazas y se complementaban en las redes, que se convirtieron en espacios para facilitar la comunicación y la organización. Hoy en día, esta visión se ha visto claramente alterada por debates condicionados por múltiples intereses y por la poca transparencia en la manera de difundir y moderar el contenido, así como por la limitación del acceso a los datos por parte de la sociedad, y más concretamente de la comunidad investigadora. Estos factores son determinantes a la hora de definir las redes como un espacio seguro.
Actualmente, además, están bajo escrutinio por la proliferación de contenidos de diversa naturaleza. Hace unos meses el cofundador de Telegram, Pavel Durov, fue detenido y acusado de múltiples cargos por no impedir la actividad ilícita en la aplicación, hecho que obligó a Telegram a implementar medidas más estrictas de moderación de contenido. Con la adquisición de Twitter (ahora X) por parte de Elon Musk, una parte de la comunidad de usuarios de la plataforma se trasladó a Mastodon, una red social con un modelo de gobernanza descentralizado. Este comportamiento colectivo se ha repetido recientemente, esta vez hacia la plataforma, también descentralizada, BlueSky. Algunas de las razones que esgrimen las personas y organizaciones que hacen el cambio están relacionadas con el tipo de contenido que prolifera en las plataformas, como por ejemplo mensajes tóxicos que afectan a colectivos vulnerables; desinformación, especialmente prevalente en épocas de incertidumbre, y narrativas extremas que tienden a la polarización durante períodos electorales o conflictos bélicos.
La Comisión Europea, a través de la Ley de Servicios Digitales, exige a las plataformas que eliminen contenido ilegal, para proteger los derechos fundamentales y salvaguardar la libertad de expresión de la ciudadanía que participa del debate público en las plataformas. La normativa obliga a las empresas a garantizar una mayor transparencia sobre cómo se modera el contenido y a hacer públicos los criterios que determinan qué vemos en nuestros feeds. Los algoritmos, a menudo diseñados con intereses comerciales o políticos, priorizan la información y, por tanto, condicionan el acceso a ciertos tipos de contenido, influyendo y modelando así la opinión pública. Nos encontramos expuestos al eco del contenido que confirma nuestras propias ideas y, por otro lado, nos alejamos de redes donde los mismos algoritmos potencian un contenido que consideramos sesgado.
En este escenario, los datos son esenciales, no sólo para comprender las dinámicas de propagación de la información, sino también para detectar contenidos que atentan contra las libertades individuales. Una de las primeras decisiones que tomó Elon Musk al asumir el control de Twitter fue eliminar el acceso a datos abiertos y gratuitos para la comunidad investigadora, privándola de la posibilidad de hacer investigación en este ámbito. Asimismo, cabe decir que otras plataformas sociales nunca han tenido una política de acceso abierto a datos y la mayor parte de trabajos usaban los datos de Twitter por esta razón. En este sentido, la Comisión Europea, a través de el artículo 40 de la Ley de Servicios Digitales, prevé que la comunidad pueda solicitar datos a las plataformas y a los motores de búsqueda para llevar a cabo estudios sobre los riesgos sistémicos asociados, pero los mecanismos para hacerlo aún no están del todo claros.
"Una de las primeras decisiones que tomó Elon Musk al asumir el control de Twitter fue eliminar el acceso a datos abiertos y gratuitos para la comunidad investigadora"
A pesar de ello, la ciudadanía participa de manera masiva en redes sociales, compartiendo no sólo la información explícita que publica en forma de post, sino también el acceso a datos de sus dispositivos. Esto permite que un conjunto muy reducido de empresas e individuos dispongan de perfiles detallados para sus campañas comerciales o políticas, entre otros, o para entrenar grandes modelos de inteligencia artificial, como se ha visto recientemente. A pesar de la despreocupación de la ciudadanía por las consecuencias que tiene la gran cantidad de datos que ceden diariamente a estas plataformas, en general existe una reticencia a compartir datos, aunque sean para proyectos de investigación por el bien común.
La idea de una red social como espacio seguro para la discusión y la deliberación, que cumpla el papel de una esfera pública al estilo Habermas, es lejana. La desinformación, ya sea en redes sociales digitales o en otros medios, continúa propagándose. Para limitar sus efectos, se requieren aproximaciones holísticas, esencialmente fomentar el espíritu crítico de la ciudadanía, la capacidad de tomar decisiones basadas en evidencias, junto con modelos de gobernanza alternativos a los actuales. Estos modelos deben fomentar el control de los datos por parte de las personas que los generan y, sobre todo, la transparencia algorítmica y el acceso abierto a los datos de las plataformas. Esto permitirá proveer de herramientas que ayuden a estudiar el impacto de las redes y, ulteriormente, la toma de decisiones ante la avalancha de información. Sólo así podremos entender y minimizar las narrativas tóxicas, al mismo tiempo que debatir abiertamente sobre los efectos que las metodologías de moderación de redes sociales tienen sobre la libertad de las personas.