Facebook publica su primer reporte de remoción de contenido

Las discusiones en torno a las políticas de seguridad de Facebook y el control de la red sobre las publicaciones de los usuarios son temas que están a la orden del día desde el comienzo mismo de su masificación. Todo se exacerbó por errores no forzados de la propia plataforma como los que estallaron con el Russiagate y el reciente escándalo de Cambridge Analytica. Es por eso que los movimientos para recuperar la confianza perdida se han multiplicado en el último tiempo. El martes 15 de Mayo, fue Facebook quien se encargó de publicar el primer reporte sobre remoción de contenido. Aunque resulte extraño, y casi a contramano de los fundamentos más extremos de los defensores de la world wide web, la confianza no se busca a través de una mayor libertad sino de un mayor control.

Violencia gráfica, desnudos en adultos y actividad sexual, propaganda terrorista, discursos de odio, spam y cuentas falsas parecen ser las categorías principales sobre las que Facebook ha decidido avanzar, siempre con la colaboración/complicidad de los millones de usuarios que tiene alrededor del mundo. Con la ambivalencia a la orden del día y la arbitrariedad como única regla comprobable, la empresa de Mark Zuckerberg viene tomando medidas para eliminar contenidos de la red social.

Guy Rosen, el vicepresidente de producto de Facebook, fue el encargado de informar los resultados del primer trimestre de 2018:

  • 837 millones de mensajes spam fueron eliminados. El dato es que casi todos fueron detectados antes de que los propios usuarios lleguen a reportarlos.
  • Fueron desactivadas 583 millones de cuentas falsas. Entre el 3% y el 4% de las cuentas activas durante el primer trimestre eran falsas.
  • 21 millones de publicaciones de desnudos de adultos o material pornográfico fueron eliminadas de la red. El 96% de ese contenido fue detectado antes de ser reportado.
  • De cada 10.000 publicaciones visualizadas, entre 6 y 9% incluía material que infringía las normas de seguridad de la empresa.
  • Cerca de 3.500.000 publicaciones con contenido violento, de las cuales el 86% fue identificado antes de ser reportado, fueron bajadas o se les colocaron advertencias.
  • 2.500.000 artículos con discursos de odio fueron eliminados, un 38% habían sido identificados gracias a los mecanismos de inteligencia artificial con los que cuenta la red.

En el informe, Facebook admite que para la identificación y remoción de algunos contenidos necesita aún de la participación activa de los usuarios ya que los mecanismos de inteligencia artificial no son suficientes para avanzar sobre su eliminación inmediata. Las publicaciones con violencia gráfica y discursos de odio están a la cabeza de esa lista.

En el primer período del 2018 la cantidad total de contenidos eliminados o intervenidos alcanzo las 3.400.000 publicaciones, según informa la empresa, 1.200.000 más que en el anterior trimestre.