31 DéC. 2017 Facebook admite fallos en sus filtros para el «discurso de odio» El último informe de la agencia de noticias independiente ProPublica ha provocado que el gigante Facebook se haya visto en la obligación de reconocer errores en la verificación de posts con discurso de odio y ha anunciado que duplicará el número de revisores en 2018. Koldo LANDALUZE DONOSTIA ProPublica es una agencia de noticias independiente y especializada en elaborar reportajes de investigación que son publicados por medios como CNN, “Newsweek”, “USA Today” y “New York Times”. En su último trabajo, esta agencia estadounidense ha puesto de manifiesto los peligros que conlleva para Facebook poner en marcha la red de filtros con la que pretende evitar la proliferación de “noticias falsas” y contenidos relacionados con el discurso de odio. En concreto, dicha agencia envió a Facebook una muestra de 49 publicaciones consideradas como “intolerantes” y que eran parte de un conjunto de más de 900 posts que habían sido remitidos por varios colaboradores de ProPublica. Todos ellos incumplían, supuestamente, las normas de uso de la red social, pero sus revisores habían declinado retirarlos de la plataforma a pesar de las peticiones realizadas por varios usuarios. De estas 49 publicaciones, la red social reconoció errores de criterio en 22, mientras defendió la postura de sus analistas en otras 19. En las restantes, la compañía justificó su decisión en base a una incorrecta notificación por parte de los usuarios denunciantes o a la ausencia de información suficiente para tomar una decisión. El vicepresidente de operaciones globales de la red social, Justin Osofsky, ha pedido disculpas por los «errores» cometidos durante el proceso de revisión de los contenidos a través de un comunicado, al tiempo que ha reconocido que la compañía debe «hacerlo mejor», para lo que prevé incrementar a 20.000 el número de trabajadores de su equipo de seguridad en 2018, duplicando su actual plantilla. Facebook cuenta en estos momentos con 7.500 revisores de contenido y suprime en torno a 66.000 publicaciones denunciadas por semana, según datos citados por Justin Osofsky. No obstante, el directivo ha matizado que ciertos posts válidos pueden incluir contenido «polémico» o «de mal gusto», que puede servir de «crítica de figuras públicas, religiones, profesiones e ideologías políticas». Las directrices de Facebook precisan que el contenido que muestra sesgo contra un determinado grupo pero carece de un lenguaje explícitamente hostil o denigrante, permanece como público. La red social distingue entre siete tipos de ataque considerados como discurso de odio: llamada a la exclusión, incitación a la violencia, promoción de la segregación, generalización denigrante, desprecio, maldición y calumnia.