Mark Zuckerberg, creador de Facebook. El escándalo de Cambridge Analytica golpea a la red social. ARCHIVO
stop

Facebook se ve obligada a buscar una forma de brindar un ambiente más seguro después de recibir críticas por su moderación de contenidos ofensivos

Alessandro Solís

Mark Zuckerberg, creador de Facebook. El escándalo de Cambridge Analytica golpea a la red social. ARCHIVO

Barcelona, 30 de diciembre de 2017 (11:51 CET)

Después de que una investigación desnudase los errores del sistema de moderación de Facebook, la empresa anunció que pretende más que duplicar su grupo de moderadores. De 7.500 en la actualidad la red social quiere terminar 2018 con 20.000 policías que vigilen y fiscalicen los contenidos ofensivos que se publican en el sitio.

Facebook dice que en una semana normal elimina hasta 66.000 publicaciones que incitan al odio, pero un análisis de la agencia Pro Publica demostró que el esfuerzo no es suficiente. Una muestra de 900 comentarios o imágenes ofensivas que, pese a la supervisión de los moderadores, prosperaron en los pasillos de la red social fue el punto de partida del estudio.

Pro Publica preguntó directamente al equipo de moderación acerca de 49 mensajes específicos que se mantuvieron en la plataforma a pesar de que los usuarios los reportaran. Facebook respondió que en 22 de esos casos sus moderadores se equivocaron al permitir los contenidos, lo que representa un 45% de la muestra.

En asuntos tan polémicos y relevantes como la propagación del odio en las redes sociales, ninguna empresa puede defender un porcentaje de consistencia cercano al 50%. El vicepresidente de Facebook Justin Osofsky dijo que “tenemos que hacerlo mejor” después de pedir perdón por los errores cometidos. “Esto no refleja la comunidad que queremos ayudar a construir”, agregó.

Alemania: Facebook se expone a multas de hasta 50 millones si no elimina el contenido ofensivo rápidamente

Las redes sociales —no solo Facebook, sino también otras como Twitter y Youtube— cierran 2017 con mucho trabajo pendiente para mitigar los discursos del odio en sus plataformas. Google contrata a 10.000 moderadores para revisar los vídeos de Youtube, y aún así ha dejado pasar contenidos relacionados a la misoginia, la pedofilia y el racismo.

En Alemania, estas empresas se exponen a multas de hasta 50 millones de euros si fallan en eliminar los contenidos ofensivos en un plazo razonable, una medida que la UE estudia impulsar. No obstante, el problema es la inconsistencia: el reportaje de Pro Publica demuestra que los moderadores de Facebook juzgan publicaciones muy similares de forma distinta.

"Las publicaciones que expresan un sesgo contra un grupo específico pero que carecen de un lenguaje explícitamente hostil o degradante a menudo permanecen en línea. Un portavoz de Facebook explicó que debido a que la empresa intenta escribir reglas que se puedan aplicar consistentemente en todas las regiones y culturas, sus directrices son a veces más difíciles de lo que le gustaría”, según informó Pro Publica.

Suscribir a boletines

Al suscribirte confirmas nuestra política de privacidad