Asamblea de Facebook elige los primeros casos para revisar contenido, desde el discurso del odio hasta la desnudez.
La Asamblea de Supervisión independiente de Facebook Inc anunció el martes los primeros seis casos para revisar si se elimina contenido de la red social o no.
Esta Asamblea fue creada por Facebook en respuesta a las críticas por su manejo de contenido problemático. Ha recibido 20.000 casos desde que abrió sus puertas en octubre.
Los seis casos elegidos son:
Una captura de pantalla de los tuits del ex primer ministro de Malasia, Mahathir Mohamad, que decía que los musulmanes tenían derecho a perpetrar actos de violencia contra los franceses "por las masacres del pasado".
Una publicación con una foto de un niño fallecido que incluía comentarios sobre el trato de China a los musulmanes uigures.
Una publicación que pretendía mostrar fotos históricas de iglesias en Bakú, Azerbaiyán, con una leyenda que, según Facebook, indicaba “desdén” por el pueblo azerbaiyano y apoyo a Armenia.
Fotos de Instagram que muestran pezones femeninos que, según el usuario en Brasil, tenían como objetivo crear conciencia sobre los síntomas del cáncer de mama.
Una supuesta cita del ministro de propaganda nazi Joseph Goebbels.
El caso elegido que presentó Facebook, en lugar de un usuario, fue una publicación en un grupo que afirmaba que ciertos medicamentos podían curar el COVID-19, que criticaba la respuesta del gobierno francés a la pandemia.
Se ha abierto un período de comentarios públicos
Los casos serán revisados por paneles de cinco miembros de la junta.
Tres de los seis casos involucraron contenido que Facebook eliminó por violar las reglas de incitación al odio. Un portavoz de la Asamblea de Supervisión dijo que los casos de incitación al odio habían sido "la proporción más significativa" de las apelaciones recibidas.
"El discurso de odio es un área especialmente difícil", dijo a Reuters en una entrevista Jamal Greene, uno de los copresidentes y profesor de la Facultad de Derecho de Columbia. "No es tan fácil ... para un algoritmo obtener el contexto de" tal discurso.
En noviembre, Facebook reveló por primera vez cifras sobre la prevalencia del discurso de odio en la plataforma, y dijo que de cada 10,000 vistas de contenido en el tercer trimestre, de 10 a 11 incluían discurso de odio. Greene dijo que los casos, que también involucraban contenido eliminado sobre las reglas sobre la desnudez de adultos, las personas y organizaciones peligrosas, y la violencia y la incitación, planteó "preguntas importantes para marcar líneas".
Facebook también puede solicitar a la Asamblea recomendaciones de políticas no vinculantes, pero Greene dijo que aún no lo había hecho.
Dicha agrupación, que ha sido criticada por su mandato limitado, también tiene como objetivo ampliar su alcance para escuchar casos de usuarios a principios de 2021 sobre contenido que se ha dejado en el sitio, así como publicaciones eliminadas.
Esta semana, un grupo de críticos de Facebook apodado "La Asamblea de Facebook Verdadera" dijo que escucharía tres casos que aún no son elegibles, incluida una disputa sobre la cuenta de Facebook de Steve Bannon, ex presidente de Donald Trump. asesor.
Con informaciónn de Reuters.