¿Puede Facebook controlar la conversación de millones de personas?

Para hacer frente a esta quijotesca tarea Facebook acaba de abrir en Barcelona un centro de control de contenidos que contará con 800 moderadores y que abrió sus puertas a un grupo de periodistas.

Una de las trabajadores de Facebook en el centro de revisión de Essen, en Alemania - FACEBOOK

España EFE

Cada día 1.490 millones de personas se conectan a Facebook y cada día la red revisa dos millones de piezas de contenido sospechoso. Asediada por los escándalos, la compañía trata de frenar el racismo, el terrorismo y las noticias falsas: ¿Es posible controlar la conversación de millones de personas?

Para hacer frente a esta quijotesca tarea Facebook acaba de abrir en Barcelona un centro de control de contenidos que contará con 800 moderadores y que abrió sus puertas a un grupo de periodistas.

La red social tiene dos maneras de detectar contenido sospechoso: las denuncias de usuarios y un sistema de inteligencia artificial y ‘machine learnign’ que lo identifica de manera automática. “Antes eramos más reactivos, ahora somos más proactivos”, reconoce.

Este último es, por ejemplo, responsable de que el 99 por ciento del contenido terrorista que se intenta distribuir por la red sea detectado antes de publicarse, aunque un humano siempre tiene la última palabra.

«La combinación de tecnología y personas es la mejor herramienta», reconoce Geraghty.  2018 ha sido el ‘annus horribilis’ de la red: primero Cambrydge Analityca, luego la investigación sobre la injerencia rusa en las elecciones de Estados Unidos ponían el foco en la red y, tras múltiples dimisiones de directivos, una investigación del New York Times revelaba que la compañía había pagado una empresa para crear noticias falsas contra sus críticos.

En paralelo, Facebook ha recibido múltiples críticas por la proliferación de discurso racista y violento en su plataforma. En el caso de los rohinyá en Myanmar, Mark Zuckerberg pidió disculpas y reconoció que no hicieron lo suficiente para frenar el discurso violento contra esta minoría musulmana.  La inversión de la compañía en control de contenidos se ha incrementado “sustancialmente”, según reconoce Geraghty.

El centro de control de contenidos de Barcelona es prueba de ello, varias plantas de un céntrico edificio en el que los trabajadores cuentan con apoyo psicológico 24 horas –hay pegatinas con un teléfono de asistencia en cada ordenador- y todo tipo de beneficios como áreas de descanso y clases de relajación. 

LEE TAMBIÉN: Tumblr prohibirá los contenidos pornográficos a partir del 17 de diciembre

La moderación de contenidos «no es un trabajo de oficina normal» y tampoco es para todo el mundo; en ocasiones los controladores tienen que ver imágenes que pueden generar mucho estrés como violencia gráfica, abuso a niños o contenido terrorista, explica Ulf Herbrechter, responsable de CCC, la empresa que gestiona el centro.

El equipo de Facebook dedicado a control de contenidos supera los 30.000 empleados en todo el mundo -la mitad son moderadores-, una parte se dedica a revisar y modificar de manera periódica la extensa política de contenidos de la plataforma.

La red intenta mantener la objetividad e instruye a sus moderadores para basar sus decisiones en las normas reflejadas en la política de contenidos de la empresa, no en opiniones personales.

El foco de la controversia está centrado en el discurso de odio y el uso de la plataforma para el avance del populismo en procesos electorales.

Según los últimos datos públicos de Facebook en los tres primeros trimestres del año la compañía actuó contra cerca de 8 millones de contenidos por discurso de odio, aunque la compañía no ofrece datos de prevalencia de este tipo de supuestos y dice que los datos son provisionales.

“Nuestra política sobre discurso de odio es igual en todos los países y se aplica a todo el mundo, incluidas figuras públicas” da igual que seas Bolsonaro, Trump o un ciudadano anónimo, asegura la máxima responsable europea en política de contenidos de la compañía, Siobhan Cummiskey.