• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Facebook:eram melhores no policiamento da nudez do que do discurso de ódio
    p Neste dia 16 de maio, 2012, foto do arquivo, o logotipo do Facebook é exibido em um iPad na Filadélfia. O Facebook acredita que seu sistema de policiamento é melhor para eliminar a violência gráfica, nudez gratuita e propaganda terrorista de sua rede social do que na remoção de racistas, sexistas e outras observações odiosas. A autoavaliação na terça-feira, 15 de maio, 2018, veio três semanas depois que o Facebook tentou dar uma explicação mais clara sobre os tipos de postagens que não tolera. (AP Photo / Matt Rourke, Arquivo)

    p Livrar-se do racista, Comentários sexistas e outros comentários odiosos no Facebook são mais desafiadores do que eliminar outros tipos de postagens inaceitáveis ​​porque os programas de computador ainda tropeçam nas nuances da linguagem humana, a empresa revelou terça-feira. p O Facebook também divulgou estatísticas que quantificam o quão difundidas contas falsas se tornaram em seu serviço influente, apesar de uma política de longa data que exige que as pessoas abram contas com suas identidades da vida real.

    p De outubro a dezembro sozinho, O Facebook desativou quase 1,3 bilhão de contas - e isso nem conta todas as vezes que a empresa bloqueou perfis falsos antes que eles pudessem ser configurados.

    p Se a empresa não tivesse encerrado todas aquelas contas falsas, sua audiência de usuários mensais teria aumentado além dos atuais 2,2 bilhões e provavelmente criado material mais potencialmente ofensivo para o Facebook eliminar.

    p A autoavaliação do Facebook mostrou que seu sistema de triagem é muito melhor para eliminar a violência gráfica, nudez gratuita e propaganda terrorista. Ferramentas automatizadas detectaram de 86% a 99,5% das violações que o Facebook identificou nessas categorias.

    p Para discurso de ódio, Os revisores humanos e algoritmos de computador do Facebook identificaram apenas 38% das violações. O resto veio depois que os usuários do Facebook sinalizaram o conteúdo ofensivo para revisão.

    p Tudo dito, O Facebook tomou medidas em cerca de 1,6 bilhão de peças de conteúdo durante os seis meses encerrados em março, uma pequena fração de toda a atividade em sua rede social, de acordo com a empresa.

    p O relatório marcou o primeiro colapso do Facebook sobre a quantidade de material que ele remove por violar suas políticas. Ele não revelou quanto tempo leva para o Facebook remover o material que viola seus padrões. O relatório também não cobre a quantidade de conteúdo impróprio que o Facebook perdeu.

    p "Mesmo que removam 100 milhões de postagens ofensivas, haverá um ou dois que têm coisas realmente ruins e esses serão os que todo mundo acabará falando no noticiário da TV a cabo, "disse Timothy Carone, que ensina tecnologia na Universidade de Notre Dame.

    p Em vez de tentar determinar quanto material ofensivo ele não pegou, O Facebook forneceu uma estimativa da frequência com que acredita que os usuários viram postagens que violam seus padrões, incluindo conteúdo que seu sistema de triagem não detectou. Por exemplo, a empresa estimou que para cada 10, 000 vezes que as pessoas viram conteúdo em sua rede social, 22 a 27 das visualizações podem ter incluído postagens que incluíam violência gráfica inadmissível.

    p O relatório também não aborda como o Facebook está abordando outra questão incômoda - a proliferação de notícias falsas plantadas por agentes russos e outros fabricantes que tentam influenciar eleições e a opinião pública.

    p Contas falsas no Facebook têm chamado mais atenção porque os agentes russos as usaram para comprar anúncios para tentar influenciar as eleições de 2016 nos EUA.

    p Embora tenha se concentrado no encerramento de contas falsas, O Facebook disse que 3 a 4 por cento de seus usuários ativos mensais são falsos. Isso significa que até 88 milhões de contas falsas do Facebook ainda estavam escapando pelas rachaduras do sistema de policiamento da empresa em março.

    p Não é surpreendente que os programas automatizados do Facebook tenham a maior dificuldade em tentar descobrir as diferenças entre opiniões permissíveis e linguagem desprezível que ultrapassa os limites, Carone disse.

    p “É como tentar descobrir o equivalente entre gritar 'Fogo!' em um teatro lotado quando não há nada e o equivalente a dizer algo que é desconfortável, mas que se qualifica como liberdade de expressão, " ele disse.

    p O Facebook disse que removeu 2,5 milhões de peças de conteúdo considerado discurso de ódio inaceitável durante os primeiros três meses deste ano, de 1,6 milhões no trimestre anterior. A empresa credita a melhor detecção, mesmo que tenha dito que os programas de computador têm dificuldade em entender o contexto e o tom da linguagem.

    p O Facebook retirou 3,4 milhões de peças de violência gráfica durante os primeiros três meses deste ano, quase o triplo dos 1,2 milhão nos três meses anteriores. Nesse caso, a melhor detecção era apenas parte do motivo. O Facebook disse que os usuários postam imagens de violência de forma mais agressiva em lugares como a Síria, devastada pela guerra.

    p O aumento da transparência vem com o Menlo Park, Califórnia, A empresa tenta reparar um escândalo de privacidade desencadeado por políticas vagas que permitiram a uma empresa de mineração de dados ligada à campanha de 2016 do presidente Donald Trump coletar informações pessoais de até 87 milhões de usuários. A triagem de conteúdo não tem nada a ver com proteção de privacidade, no entanto, e visa manter uma atmosfera familiar para usuários e anunciantes. p © 2018 The Associated Press. Todos os direitos reservados.




    © Ciência https://pt.scienceaq.com