O Facebook pode remover conteúdo, adicione avisos se o conteúdo puder ser perturbador para alguns usuários e não violar os padrões, ou notificar a polícia em caso de "específico, ameaça iminente e credível à vida humana "
O Facebook puxou ou lançou avisos em quase 30 milhões de postagens contendo imagens sexuais ou violentas, propaganda terrorista ou discurso de ódio nos primeiros três meses de 2018, o gigante da mídia social disse terça-feira.
Em um relatório sem precedentes em resposta a apelos por transparência após o escândalo de privacidade de dados Cambridge Analytica, O Facebook detalhou suas ações contra esse tipo de conteúdo de acordo com seus "padrões da comunidade".
O Facebook disse que a tecnologia aprimorada usando inteligência artificial o ajudou a agir em 3,4 milhões de postagens contendo violência gráfica, quase três vezes mais do que no último trimestre de 2017.
Em 85,6 por cento dos casos, O Facebook detectou as imagens antes de ser alertado pelos usuários, disse o relatório, emitido um dia após a empresa ter dito que "cerca de 200" aplicativos foram suspensos em sua plataforma como parte de uma investigação sobre o uso indevido de dados privados de usuários.
O número representa entre 0,22 e 0,27 por cento do conteúdo total visto pelos mais de dois bilhões de usuários do Facebook de janeiro a março.
"Em outras palavras, de cada 10, 000 visualizações de conteúdo, uma estimativa de 22 a 27 continha violência gráfica, "disse o relatório.
As respostas às violações das regras incluem a remoção de conteúdo, adicionar avisos ao conteúdo que pode ser perturbador para alguns usuários, embora não viole os padrões do Facebook; e notificando a aplicação da lei no caso de um "específico, ameaça iminente e credível à vida humana ".
A TI aprimorada também ajudou o Facebook a tomar medidas contra 1,9 milhão de postagens contendo propaganda terrorista, um aumento de 73%. Quase todos foram tratados antes de qualquer alerta ser acionado, disse a empresa.
Ele atribuiu o aumento ao uso aprimorado da tecnologia de detecção de fotos.
O Facebook se desculpou em março por remover temporariamente um anúncio com a famosa obra do artista francês Eugene Delacroix, "Liberty Leading the People", porque mostra uma mulher de seios nus
O discurso do ódio é mais difícil de policiar usando métodos automatizados, Contudo, já que o discurso de ódio racista ou homofóbico é frequentemente citado em postagens por seus alvos ou ativistas.
Sarcasmo precisa de toque humano
"Pode ser necessário um ser humano para entender e interpretar com precisão as nuances como ... comentários autorreferenciais ou sarcasmo, "o relatório disse, observando que o Facebook tem como objetivo "proteger e respeitar a expressão e a segurança pessoal".
O Facebook tomou medidas contra 2,5 milhões de peças de conteúdo de discurso de ódio durante o período, um aumento de 56 em relação a outubro-dezembro. Mas apenas 38 por cento foram detectados por meio dos esforços do Facebook - o resto sinalizado pelos usuários.
As postagens que mantêm os revisores do Facebook mais ocupados são aquelas que mostram nudez adulta ou atividade sexual - além de pornografia infantil, que não é coberto pelo relatório.
Cerca de 21 milhões de tais postagens foram tratadas no período, um número semelhante a outubro-dezembro de 2017.
Isso era menos de 0,1 por cento do conteúdo visualizado, o que inclui texto, imagens, vídeos, links, vídeos ao vivo ou comentários em postagens - disse o Facebook, acrescentando que lidou com quase 96 por cento dos casos antes de ser alertado para eles.
O Facebook foi criticado por mostrar muito zelo nesta frente, como remover imagens de obras de arte toleradas por suas próprias regras.
Em março, O Facebook se desculpou por remover temporariamente um anúncio com a famosa obra do artista francês Eugene Delacroix, "Liberty Leading the People", porque mostra uma mulher de seios nus.
© 2018 AFP