Supuestos documentos internos de Facebook revelarían cómo es que la gigantesca red social modera contenidos con temas tan sensibles como discurso de odio, racismo, terrorismo, pornografía explícita, la autoflagelación, y otros tópicos así de fuertes en su plataforma, según indicó The Guardian en base a directrices de la empresa, a las que habría tenido acceso.
Pero no es todo, ya que nuevas ‘ramas’ como la “pornovenganza” ponen en aprietos a los moderadores, que casi siempre tienen apenas unos 10 segundos para tomar una decisión.
Muchos de estos encargados de ‘depurar’ la red se muestran preocupados sobre la inconsistencia y naturaleza peculiar de algunas de las políticas.
Las relativas a contenido sexual, serían las más complejas y confusas para este personal.
Según políticas de la empresa, revelan los documentos, existen tres señales de una posible pornovenganza: una imagen subida en privado, que muestra a una persona desnuda o en actividad sexual y sin su consentimiento. Este último punto se confirma mediante un contexto de venganza o por otras fuentes.
Facebook permite mostrar a una persona hiriéndose, y según las directrices esto es debido a que en Facebook “no queremos censurar o castigar a personas que sufren o que están intentando suicidarse”.
La red aplica medidas posteriores, ya que el contenido sería removido “una vez que ya no hay oportunidad de ayudar a la persona”, aunque The Guardian añade que la publicación podría mantenerse si tiene algún ‘interés noticioso’.
Lo curioso es que, los moderadores han recibido la instrucción de reportar cualquier contenido parecido o relacionado a la serie “13 reasons why”, que trata sobre el suicidio de una adolescente, esto sería por temores a una posible conducta de imitación.
Otras instrucción también señalan que, por ejemplo, un estado que diga “alguien debería matar a Donald Trump” debe ser eliminado, ya que los jefes de Estado pertenecen a una categoría protegida. Pero, si alguien comenta “púdrete y muérete” en un post de dicha personalidad, no debe ser tomado como una amenaza creíble.
Las muertes violentas, un tema que a últimas fechas ha causado polémica debido a varios casos dentro de Facebook, deberán ser marcadas como “contenido perturbador”, pero no necesariamente eliminadas, señala el documento, ya que pueden “crear conciencia sobre temas tales como enfermedades mentales”.
Otro apartado indica que abusos físicos de niños podrían no ser borrados, siempre y cuando no sea un ataque sexual, sádico o que celebre dicho daño.
Un punto que podría causar polémica, es que la red social permite videos de abortos, pero será eliminado si muestra a la involucrada desnuda.
La compañía de Mark Zuckerberg no hizo comentarios específicos cuando se le cuestionó sobre dicho documento.
“Mantener a la gente segura en Facebook es lo más importante que hacemos. Trabajamos duro para hacer que Facebook sea lo más seguro posible al tiempo que permite la libertad de expresión. Esto requiere mucha reflexión sobre interrogantes detalladas y, a menudo, difíciles, y hacerlo bien es algo que tomamos muy en serio”, dijo en un comunicado Monica Bickert, jefa de política de productos de Facebook.
Facebook por lo pronto está utilizando software para interceptar contenido gráfico antes de que se publique en el sitio de internet, pero todavía está en sus primeras etapas.
Con información de The Guardian