• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • A ansiedade em relação às transmissões ao vivo pode nos ajudar a projetar melhor moderação de conteúdo do Facebook e YouTube

    O Livestream no Facebook não é apenas uma ferramenta para compartilhar violência - ele tem muitos usos sociais e políticos populares. Crédito:glen carrie / unsplash, CC BY

    Enquanto famílias em Christchurch enterram seus entes queridos após o ataque terrorista de sexta-feira, a atenção global agora se volta para evitar que tal coisa aconteça novamente.

    Em particular, o papel que a mídia social desempenhou na transmissão de imagens ao vivo e na ampliação de seu alcance está sob o microscópio. O Facebook e o YouTube enfrentam um escrutínio intenso.

    A primeira-ministra da Nova Zelândia, Jacinta Ardern, teria entrado em contato com executivos do Facebook para pressionar o caso de que a filmagem não deveria estar disponível para visualização. O primeiro-ministro australiano, Scott Morrison, pediu uma moratória sobre os serviços de transmissão ao vivo amadores.

    Mas além dessas respostas imediatas, este terrível incidente apresenta uma oportunidade para uma reforma de longo prazo. É hora de as plataformas de mídia social serem mais abertas sobre como funciona a transmissão ao vivo, como é moderado, e o que deve acontecer se ou quando as regras falharem.

    Aumento do escrutínio

    Com o suposto autor do crime aparentemente voando sob o radar antes deste incidente em Christchurch, nosso foco coletivo agora está voltado para a radicalização online de homens jovens.

    Como parte disso, as plataformas online enfrentam um escrutínio cada vez maior e o Facebook e o Youtube têm atraído críticas.

    Após a divulgação da transmissão ao vivo original no Facebook, O YouTube se tornou um local para o reenvio e propagação das imagens gravadas.

    Ambas as plataformas fizeram declarações públicas sobre seus esforços de moderação.

    O YouTube observou os desafios de lidar com um "volume sem precedentes" de uploads.

    Embora tenha sido relatado que menos de 4.000 pessoas viram o stream inicial no Facebook, O Facebook disse:"Nas primeiras 24 horas, removemos 1,5 milhão de vídeos do ataque em todo o mundo, dos quais mais de 1,2 milhões foram bloqueados no upload [...] "

    Focar principalmente na transmissão ao vivo é um tanto redutor. Embora o atirador tenha transmitido inicialmente suas próprias filmagens, o maior desafio de controlar o vídeo está relacionado principalmente a dois problemas:

    1. por quanto tempo ele ficou disponível na plataforma do Facebook antes de ser removido
    2. a moderação da publicação de vídeo "espelho" por pessoas que optaram por fazer o download, editar, e reenvie o vídeo para seus próprios fins.

    Esses problemas ilustram os pontos fracos das políticas e práticas de moderação de conteúdo existentes.

    Não é uma tarefa fácil

    A moderação de conteúdo é uma responsabilidade complexa e nada invejável. Espera-se que plataformas como o Facebook e o YouTube equilibrem as virtudes da liberdade de expressão e valor jornalístico com as normas socioculturais e desejos pessoais, bem como os regimes regulatórios locais dos países em que operam.

    Quando as plataformas desempenham essa responsabilidade mal (ou, abdicar totalmente) eles passam a tarefa para outros - como os provedores de serviços de Internet da Nova Zelândia que bloquearam o acesso a sites que estavam redistribuindo as filmagens do atirador.

    As pessoas podem esperar que plataformas como Facebook e YouTube tenham controles completos sobre o que é carregado em seus sites. Contudo, as enormes bases de usuários das empresas significam que muitas vezes devem equilibrar a aplicação de sistemas automatizados, sistemas algorítmicos para moderação de conteúdo (como o PhotoDNA da Microsoft, e ContentID do YouTube) com equipes de moderadores humanos.

    Sabemos por reportagens investigativas que as equipes de moderação em plataformas como Facebook e YouTube têm a tarefa de um trabalho particularmente desafiador. Eles parecem ter uma rotatividade relativamente alta de funcionários, que são rapidamente exauridos por cargas de trabalho severas enquanto moderam o pior conteúdo da Internet. Eles são sustentados com apenas salários escassos, e o que poderia ser visto como saúde mental inadequada.

    E embora alguns sistemas algorítmicos possam ser eficazes em escala, eles também podem ser subvertidos por usuários competentes que entendem aspectos de sua metodologia. Se você já encontrou um vídeo no YouTube em que as cores estão distorcidas, a reprodução de áudio está um pouco fora de sincronia, ou a imagem está muito ampliada e cortada, você provavelmente já viu alguém tentar contornar os algoritmos do ContentID.

    Para plataformas online, a resposta aos ataques terroristas é ainda mais complicada pelo difícil equilíbrio que eles devem encontrar entre o desejo de proteger os usuários de filmagens gratuitas ou terríveis e o compromisso de informar as pessoas que buscam notícias por meio de sua plataforma.

    Devemos também reconhecer as outras maneiras pelas quais o livestreaming se apresenta na vida moderna. Livestreaming é uma lucrativa indústria de entretenimento de nicho, com milhares de usuários inocentes transmitindo hobbies com amigos, de jogos de tabuleiro a mukbang (alimentação social), para videogames. O livestreaming é importante para ativistas em países autoritários, permitindo que eles compartilhem imagens de testemunhas de crimes, e mudar as relações de poder. A proibição da transmissão ao vivo impediria muitas dessas atividades.

    Precisamos de uma nova abordagem

    Os desafios do Facebook e do YouTube para lidar com a questão dos crimes de ódio transmitidos ao vivo nos dizem algo importante. Precisamos de um mais aberto, abordagem transparente à moderação. As plataformas devem falar abertamente sobre como esse trabalho é feito, e estar preparado para incorporar feedback de nossos governos e da sociedade de forma mais ampla.

    Um bom lugar para começar são os princípios de Santa Clara, gerado inicialmente a partir de uma conferência de moderação de conteúdo realizada em fevereiro de 2018 e atualizada em maio de 2018. Eles oferecem uma base sólida para a reforma, afirmando:

    • as empresas devem publicar o número de postagens removidas e contas permanentemente ou temporariamente suspensas devido a violações de suas diretrizes de conteúdo
    • as empresas devem notificar cada usuário cujo conteúdo seja removido ou conta suspensa sobre o motivo da remoção ou suspensão
    • as empresas devem fornecer uma oportunidade significativa para apelar em tempo hábil de qualquer remoção de conteúdo ou suspensão de conta.

    Uma abordagem mais socialmente responsável para os papéis das plataformas como moderadores do discurso público exige um afastamento das plataformas de sigilo de caixa preta estão acostumadas - e um movimento em direção a discussões públicas mais completas sobre moderação de conteúdo.

    No fim, maior transparência pode facilitar um cenário político menos reativo, onde as políticas públicas e a opinião têm uma maior compreensão em torno das complexidades da gestão de novas e inovadoras tecnologias de comunicação.

    Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.




    © Ciência https://pt.scienceaq.com