Este pasado fin de semana el diario británico The Guardian publicaba en su web documentos internos de Facebook sobre la política de filtraje de contenidos ofensivos. Más de cien documentos en total sobre como la popular red social gestiona contenidos como la pornografía infantil, la incitación al odio, las amenazas, la pornorevenja, el acoso, el maltrato animal, el suicidio, el racismo y el terrorismo. Parece que Facebook está asumiendo su rol de medio de información global, una responsabilidad que Zuckerberg siempre había rehuido, y que despacio va poniendo en marcha medidas de control de que se publica a la plataforma.
Después de negar su influencia directa en las elecciones presidenciales norteamericanas vía la distribución de información falsa, más fácil de compartir que de verificar, Facebook programó un sistema de marcaje de información que permite a los usuarios señalar posibles informaciones falsas. Casualmente esta misma semana Evan Williams (@ev), uno de los co-fundadores de Twitter, pedía disculpas por la influencia de Twitter también en la distribución de información falsa que habría facilitado la victoria de Trump.
"2.000 millones de usuarios conectados (casi un tercio de la humanidad) dan por mucho"
A Facebook podemos encontrar el mejor y el peor de la especie humana. 2.000 millones de usuarios conectados (casi un tercio de la humanidad) dan por mucho. No haré la lista para no asustarme a mí mismo, pero últimamente hemos podido asistir a maltratos y asesinatos en directo vía Facebook Live (el servicio de vídeo en directo de Facebook). Para luchar contra todo esto la red social ––lo gran medio–– dispone de potentes algoritmos capaces de detectar un contenido ofensivo en una foto en sólo pitjar el botón de publicarla.
Pero los algoritmos por muy inteligentes que sean no tienen el conocimiento del mundo que se necesita para saber si un contenido es ofensivo o no o, si todo y siéndolo, el hecho de exponerlo ayuda a visibilitzar un problema. Pasó en el caso de la icónica fotografía Vietnam Girl donde sale una niña desnuda escapando de un bombardeo en el Vietnam que fue marcada como pornografía infantil. La foto es un premio Pulitzer y su valor en contra de la barbarie es muy superior a cualquier consideración pornográfica.
"Facebook tiene un ejército de 4.500 moderadores humanos que trabaja junto con los algoritmos para filtrar los contenidos ofensivos de la red"
Es por eso que Facebook continúa contando con las personas. Un ejército de 4.500 moderadores humanos trabaja junto con los algoritmos para filtrar los contenidos ofensivos de la red a los que según informaciones oficiales de la empresa se añadirán en breve 3.000 más, a los que nos tenemos que sumar los 2.000 millones de usuarios: aunque activamente no marcamos contenidos como ofensivos, a cada clic que hacemos, cada compartición de contenidos o cada página o usuario que seguimos estamos haciendo de editores y validando aquello que leemos. Pensemos antes de hacer clic en según qué mierdas.