"Hoje estamos a publicar o nosso relatório de aplicação dos padrões de comunidade para o terceiro trimestre", referiu o Facebook, num documento que fornece métricas sobre a forma como a rede social aplicou as suas políticas entre Julho e Setembro deste ano.
De acordo com o relatório, no terceiro trimestre o Facebook removeu 22,1 milhões de peças de conteúdo de discurso de ódio, das quais 95% foram pro-activamente identificadas (detectadas pela própria rede social).
No mesmo período, foram removidos 6,5 milhões de conteúdos do mesmo género no Instagram (tinham sido 3,2 milhões no segundo trimestre), sendo que a maioria (95%) foi pro-activamente detetada, contra 85% nos três meses anteriores.
No que respeita a peças de conteúdo violento e gráfico, foram removidos 19,2 milhões (acima dos 15 milhões no segundo trimestre) no Facebook.
Ainda nesta plataforma, foram removidos 12,4 milhões de peças de nudez infantil e conteúdo de exploração sexual (9,5 milhões no segundo trimestre) e 3,5 milhões de conteúdos relativos a 'bullying' e assédio (acima dos 2,4 milhões no segundo trimestre).
No terceiro trimestre, o Instagram removeu 4,1 milhões de peças de conteúdo violento e gráfico (acima de 3,1 milhões no trimestre anterior) e um milhão sobre nudez infantil e conteúdo de exploração sexual (acima dos 481 mil nos três meses anteriores).
No que respeita a conteúdos relativos a 'bullying' e de assédio, foram retirados 2,6 milhões, ligeiramente acima dos 2,3 milhões no trimestre anterior.
Por fim, o Instagram retirou 1,3 milhões de peças sobre suicídio e automutilação (acima dos 277.400 no segundo trimestre).
O aumento da taxa de deteção pro-activa no discurso de ódio no Instagram "foi conduzida, em parte, pela melhoria da nossa tecnologia" para o inglês, árabe e espanhol, "e expansão da tecnologia de automação", refere o Facebook.
"Esperamos flutuações nestes números à medida que continuamos a adaptar-nos aos desafios da covid relacionados com a força de trabalho", adianta a rede social.
O Facebook actualizou hoje também os padrões de comunidade do 'website' para incluir políticas adicionais.
Por exemplo, o Facebook passa a exigir informação adicional, nomeadamente de um membro familiar, antes de remover a conta de uma pessoa falecida.
Outras políticas já foram anunciadas anteriormente, como aquela que proíbe de colocar 'posts' de desinformação e de rumores não verificados que contribuem para o risco de violência iminente ou de danos físicos.