Si alguna vez se ha preguntado qué tipo de cosas no quiere exactamente Facebook en su propia red, está de suerte. Por primera vez, Facebook publicó el martes las directrices detalladas sobre lo que permite y prohíbe en su propia web: 27 páginas en total.
No realice amenazas violentas creíbles ni se deleite con la violencia sexual; no promueva el terrorismo ni la caza furtiva de especies amenazadas; no intente comprar marihuana, vender armas de fuego o publicar los precios de venta de medicamentos con receta; no publique instrucciones para lesionarse; no muestre a menores en un contexto sexual ni cometa múltiples homicidios en diferentes momentos o lugares.
Facebook ya había vetado la mayoría de estas acciones su anterior página “estándares de la comunidad”, que esbozaba a grandes rasgos los estándares de la red social, pero el documento publicado el martes incluye algunos detalles que a veces pueden resultar sangrientos.
Las pautas actualizadas reflejan los criterios que emplean sus 7.600 moderadores para revisar publicaciones cuestionables y decidir si son eliminadas y, en ocasiones, alertar a las autoridades.
Los criterios en sí no cambian, pero los detalles revelan información interesante. Las fotos de senos están permitidas en algunos casos _como en imágenes de lactancia materna o en pinturas_ pero no en otros. El documento detalla lo que considera explotación sexual de adultos o menores, pero deja espacio para prohibir otras formas de abuso en caso de que surjan.
Dado que Facebook no permite la presencia de asesinos en serie, las nuevas guías definen el término: cualquier persona que haya cometido dos o más asesinatos en “múltiples incidentes o ubicaciones”. Las personas que cometieron un único homicidio no serán excluidas, pues podría haber sido en defensa propia.
El repaso a las pautas da una idea de lo difícil que debe ser la labor de un moderador de Facebook. Estas personas deben leer y observar material cuestionable de todo tipo y tomar decisiones complicadas, como por ejemplo si un video hace apología de los desórdenes alimenticios o simplemente busca ayudar a la gente. O cuando se cruza la línea entre la broma y el acoso, o se pasa de una reflexión teórica a una amenaza directa, y similares.
Los moderadores operan en 40 idiomas distintos. El objetivo de Facebook es responder a los reportes sobre contenidos cuestionables en un plazo 24 horas, aunque dice que no impone cuotas ni límite de tiempo a las revisiones.
La red social ha cometido varios errores sonados en los últimos años. Por ejemplo, grupos de derechos humanos dicen que Facebook ha dado una respuesta inadecuada al discurso de odio y la incitación a la violencia contra las minorías musulmanas en Myanmar.
En 2016, Facebook se retractó luego de eliminar una fotografía icónica de 1972 de The Associated Press en la que aparece una niña corriendo desnuda y gritando tras un ataque con napalm en Vietnam. En un primer momento, la firma insistió en que no podía crear una excepción para una fotografía en concreto de un menor desnudo, pero pronto se retractó apuntando que la imagen tenía una “importancia global”.