• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Por que o Facebook não consegue se consertar? É parcialmente humano

    Uma página gerada automaticamente no Facebook para um grupo que se identifica como o grupo terrorista "Al-Qaeda na Península Arábica" exibe uma foto do navio de guerra USS Cole da Marinha dos EUA bombardeado. A página ainda estava ativa na terça-feira, 7 de maio, 2019, quando a captura de tela foi feita. O Facebook diz que possui sistemas robustos para remover conteúdo de grupos extremistas, mas a reclamação de um denunciante lacrado analisada pela AP diz que o conteúdo proibido permanece na web e é fácil de encontrar. (Facebook via AP)

    A pergunta surge repetidamente, com material extremista, discurso de ódio, intromissão eleitoral e invasões de privacidade. Por que o Facebook não pode simplesmente consertar?

    É complicado, com razões que incluem o tamanho do Facebook, seu modelo de negócios e limitações técnicas, para não falar de anos de crescimento descontrolado. Oh, e o elemento da natureza humana.

    A última revelação:o Facebook está inadvertidamente criando vídeos comemorativos usando conteúdo extremista e páginas de negócios geradas automaticamente para empresas como ISIS e Al Qaeda. A empresa afirma que está trabalhando em soluções e que os problemas estão melhorando. Isso é verdade, mas os críticos dizem que melhor não é o suficiente quando tiroteios em massa estão sendo transmitidos ao vivo e multidões online espalham rumores que levam à violência mortal.

    "Eles têm sido frustrantemente lentos em lidar com tudo, desde o abuso sexual infantil ao terrorismo, supremacia branca, assédio moral, pornografia não consensual "e coisas como permitir que os anunciantes segmentem categorias como" Odiador de judeus, "simplesmente porque alguns usuários listaram o termo como um" interesse, "disse Hany Farid, um especialista forense digital da Universidade da Califórnia, Berkeley.

    À medida que novos problemas surgem, A fórmula do Facebook tem sido pedir desculpas e prometer fazer mudanças, às vezes também observando que não antecipou como os agentes mal-intencionados poderiam usar mal sua plataforma com tanta facilidade. Mais recentemente, a empresa também enfatizou o quanto está melhorando, tanto tecnicamente em seu uso de inteligência artificial para detectar problemas quanto em termos de concentrar mais dinheiro e esforço em corrigi-los.

    Um banner dizendo "O Estado Islâmico" é exibido na página do Facebook de um usuário que se identifica como Nawan Al-Farancsa. A página ainda estava no ar na terça-feira, 7 de maio, 2019, quando a captura de tela foi feita. O Facebook diz que possui sistemas robustos para remover conteúdo de grupos extremistas, mas a reclamação de um denunciante selado analisada pela AP diz que o conteúdo proibido permanece na web e é fácil de encontrar. (Facebook via AP)

    "Depois de fazer grandes investimentos, estamos detectando e removendo conteúdo de terrorismo com uma taxa de sucesso muito maior do que há dois anos, "O Facebook disse na quarta-feira em resposta às revelações sobre as páginas geradas automaticamente." Não afirmamos encontrar tudo, e permanecemos vigilantes em nossos esforços contra grupos terroristas em todo o mundo. "

    Ele teve algum sucesso. No final de 2016, O CEO Mark Zuckerberg descartou de forma infame como "muito maluca" a ideia de que notícias falsas sobre seu serviço poderiam ter influenciado a eleição. Mais tarde ele voltou atrás, e, desde então, a empresa reduziu a quantidade de informações incorretas compartilhadas em seu serviço, conforme medido por vários estudos independentes.

    Zuckerberg também, em geral, evitou gafes semelhantes admitindo erros e apresentando desculpas ao público e aos legisladores.

    Mas, mesmo que a empresa resolva um problema, outros aparecem. A razão para isso pode estar embutida em seu DNA. E não é só porque seu modelo de negócios depende do maior número de pessoas possível, usando-o tanto quanto possível, deixando para trás detalhes pessoais que podem então ser direcionados pelos anunciantes.

    • Nesta quinta-feira, 29 de março 2018, foto do arquivo, o logotipo do Facebook aparece nas telas do Nasdaq MarketSite, na Times Square de Nova York. A questão surge repetidamente, com material extremista, discurso de ódio, interferência nas eleições, invasões de privacidade, discriminação habitacional. Por que o Facebook não pode simplesmente consertar? (AP Photo / Richard Drew, Arquivo)

    • Neste 11 de abril, 2018, foto do arquivo, O CEO do Facebook, Mark Zuckerberg, testemunhou antes de uma audiência da House Energy and Commerce no Capitólio, em Washington. O Facebook dá a impressão de que está interrompendo a grande maioria das postagens extremistas antes que os usuários as vejam. Mas a reclamação de um denunciante confidencial à Securities and Exchange Commission obtida pela The Associated Press alega que a empresa de mídia social exagerou seu sucesso. (AP Photo / Andrew Harnik, Arquivo)

    "Quase tudo o que o Facebook projetou foi projetado para pessoas boas. Pessoas que são legais umas com as outras, quem tem aniversários para comemorar, que têm novos filhotes e geralmente gostam de tratar bem os outros, "disse Siva Vaidhyanathan, diretor do Center for Media and Citizenship da University of Virginia. "Basicamente, o Facebook é feito para uma espécie melhor do que a nossa. Se fosse feito para golden retrievers, tudo ficaria ótimo. "

    Mas se apenas 1% dos 2,4 bilhões de pessoas no Facebook quiserem fazer coisas terríveis para os outros, são 24 milhões de pessoas.

    "A cada duas semanas, ouvimos sobre o Facebook derrubando páginas problemáticas, fazendo promessas sobre a contratação de mais pessoas, construir IA e assim por diante, "Vaidhyanathan disse." Mas na escala do Facebook, nada disso importará. Estamos basicamente presos a todo esse lixo. "

    Chris Hughes, um cofundador do Facebook, pediu o fim do gigante da mídia social em um artigo de quinta-feira. Vaidhyanathan também acha que uma forte regulamentação governamental pode ser a resposta, como as leis que "limitam a capacidade das empresas de absorver todos os nossos dados e usá-los para direcionar a publicidade".

    "Nós realmente deveríamos abordar o back-end do Facebook, "ele disse." Isso é o que você tem que atacar. "

    © 2019 Associated Press. Todos os direitos reservados.




    © Ciência https://pt.scienceaq.com