Facebook admite una falla en control de contenidos

Facebook admite una falla en control de contenidos. Facebook reconoció este martes falta de supervisión sobre contenidos que promueven la violencia contra la mujer en su red social, y prometió soluciones en respuesta a un boicot publicitario promovido por grupos feministas.

179572

 En un texto publicado en su página Facebook Safety, la compañía de internet admitió que los “sistemas para identificar y eliminar discursos de odio no han funcionado” como deberían, en particular “en lo referente a violencia de género”.

 “En algunos casos, el contenido no es borrado tan rápido como queremos. En otros, contenido que debería ser eliminado no lo ha sido o ha sido evaluado con criterios desfasados”, indicó la vicepresidenta de Política Pública Global de Facebook, Marne Levine.

 “Necesitamos mejorar y lo haremos”, declaró Levine.

 

La decisión de Facebook se produjo después de que el pasado 21 de mayo varias decenas de asociaciones como The Everyday Sexism Project y Women, Action & Media, enviaron a la dirección de la red social una carta abierta en la que pedían que dejara de tolerar los mensajes que aplauden comportamientos agresivos contra la mujer.

 “Los participantes enviaron más de 60.000 tuits y 5.000 correos electrónicos, y nuestra coalición de firmantes de la carta ha crecido hasta superar el centenar de grupos a favor de la mujer y organizaciones de justicia social”, aseguró en un comunicado Women, Action & the Media.

 En total, una quincena de compañías se sumaron al boicot contra Facebook, algunas de gran tamaño, como Nissan en Reino Unido.

 “Prohibimos contenido considerado dañino de forma directa, pero permitimos contenido que es ofensivo o controvertido“, aclaró Levine, quien apuntó que Facebook también es tajante con los “discursos del odio”, en donde incluyó la violencia de género.

 La red social enumeró una serie de medidas de aplicación inmediata para “asegurar que esto no ocurra de nuevo en la comunidad de Facebook”: revisar las directrices para evaluar contenidos, actualizar la formación de sus equipos que filtran contenidos nocivos y exponer la identidad real de quienes usan Facebook para promover el odio.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *