Lamentablemente, Facebook se ha convertido en un espacio relativamente seguro para aquellos que desean compartir discursos de odio y desinformación.

Dado el tamaño de la base de usuarios del sitio y la forma en que se construye la plataforma, abordar el contenido dañino en todos los grupos públicos y privados de Facebook es una tarea difícil para los 30.000 equipos de seguridad de Facebook.

 

Seguridad de grupos privados de Facebook

 

En una publicación reciente de su blog, Tom Alison, vicepresidente de ingeniería del gigante tecnológico, ha tratado de explicar cómo Facebook está ayudando a mantener seguros a los grupos privados. La compañía ahora se está dando cuenta de que «estar en un grupo privado no significa que sus acciones no deban controlarse».

Es refrescante ver que Facebook reconoce su nivel de responsabilidad para mantener seguros al sitio y a sus usuarios. Mediante una combinación de tecnología y recursos humanos, busca castigar a cualquiera que viole sus Estándares de la Comunidad.

El blog describe tres formas principales en que la empresa está tomando medidas enérgicas, que incluyen:

 

  • Uso de detección proactiva para grupos moderados
  • Herramientas para administradores
  • Transparencia y control para los miembros.

 

En la sección «Herramientas para administradores», Facebook explica que ha desarrollado una nueva herramienta: Calidad de grupo.

Esto «brinda a los administradores una visión general del contenido que Facebook ha eliminado y marcado para la mayoría de las infracciones de los Estándares de la Comunidad», pero el concepto de una herramienta de Administración de Calidad de Grupo ya está causando mucha preocupación entre los expertos.

Si bien Facebook cree que «estas herramientas les dan a los administradores más claridad sobre cómo y cuándo aplicamos nuestras políticas en sus grupos y les da una mayor visibilidad de lo que está sucediendo en sus comunidades», los especialistas de la industria expresaron al instante sus preocupaciones sobre la herramienta.

Benjamin Decker, CEO de la consultora de investigaciones digitales Memetica, fue muy claro en su evaluación de la herramienta:

«Poner el poder en manos de los moderadores crea una mentalidad de ‘por nosotros, para nosotros’. […] Este modelo para rastrear infracciones es problemático porque estos administradores tienen cero incentivos para moderar a favor de un Internet más limpio. Más bien, impondrán su propia ley».

Lo que está claro es que Facebook, con los rincones ocultos de su plataforma proporcionando espacios tan perfectos para compartir contenido dañino, puede tener una tarea imposible en sus manos.

Puntuación