Como decide Facebook qué fotos eliminar de la red

La cuestión de la censura en Facebook no es un asunto menor. Las fotos que se publican a diario pueden llegar a pasar por estrictos controles. Y si por lo que sea, los responsables de Facebook consideran que una imagen no es apta para seguir publicada en la red, puede ser fulminada en poco tiempo.

Ahora el medio The Guardian ha publicado una serie de informes que revelan de qué manera modera Facebook los contenidos gráficos (imágenes y vídeos) que se publican en la red.

Los moderadores del sitio – gente que Facebook tiene contratada para dedicarse exclusivamente a revisar informes y denuncias – cuentan con más de 100 manuales que hablan sobre temas prohibidos.

Y cuando decimos prohibidos es porque su naturaleza misma ya entraña gravedad: violencia, abusos sexuales, crueldad contra los animales, etcétera. Estos manuales de instrucciones son los que ayudan a los moderadores a decidir acerca si eliminar o no una imagen.

¿Cómo decide Facebook qué fotos eliminar de la red?

Según estos documentos, Facebook está continuamente sopesando en una balanza un par de cuestiones. Por un lado, la libertad de expresión. Por el otro, el nivel de daño que puede causar una publicación.

Para determinadas publicaciones se usan algunos sistemas automatizados. Y esto es así para los casos más graves, como por ejemplo, abusos sexuales en niños y terrorismo.

El resto de publicaciones son ciertamente controvertidas. Por ejemplo, en uno de los manuales se indica que la gente suele usar expresiones violentas de manera muy arbitraria. Por ejemplo, puede que alguien diga: “Pepe, te voy a matar” para responderle en broma sobre algo. Como por ejemplo, haber publicado una foto de la noche anterior.

Sin embargo, Facebook considera que deben eliminarse publicaciones en las que se exprese algo parecido a esto: “Pepe, te voy a matar y tengo el cuchillo perfecto para hacerlo”.

facebook moderación

Existe una clasificación para colectivos vulnerables

En este sentido, pues, lo que pide Facebook a sus moderadores es que sepan distinguir cuándo se trata de una amenaza seria o de una simple manera de hablar.

Para facilitar las cosas, Facebook cuenta con una clasificación que puede ayudar. Y aquí se tienen en cuenta grupos específicos más vulnerables (autoridades públicas, políticos, policías, etcétera) y colectivos (personas sin techo, miembros de determinadas religiones…).

Curiosamente, sí están permitidas las publicaciones de animales torturados, algo que nos parece llamativo. Dicen que es para concienciar a la gente de lo que no se debe hacer. Sin embargo, para muchas personas ver este tipo de imágenes puede ser profundamente desagradable.

Hay que revisar millones de publicaciones todos los días

El trabajo de los moderadores es realmente complicado. A menudo se sienten abrumados. No en vano, todos los días llegan millones y millones de informes con contenidos sospechosos.

La cantidad de publicaciones que tienen sobre la mesa es ingente. Por si esto fuera poco, a veces es complicado clasificar una publicación como válida. De hecho, algunas imágenes o publicaciones en general pueden resultar inaceptables en algunos contextos y aceptables en otros.

En las últimas semanas, Facebook se ha visto desbordada por algunos hechos que han puesto en duda sus sistemas de moderación. Hablamos de la publicación en directo, a través de Facebook Live, de dos asesinatos perpetrados en Estados Unidos y la India.

Y es que además de emitirse en tiempo real, las publicaciones permanecieron publicadas durante demasiado tiempo. De ahí que al cabo de unos días, Mark Zuckerberg anunciara la incorporación de 3.000 moderadores más.

Estos se sumarán a los 4.500 moderadores que actualmente ya tiene la red social. ¿El objetivo? Que contenidos tan desagradables como pueden ser las imágenes de un suicidio o un asesinato dejen de mostrarse lo antes posible en Facebook.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *