Por que o Facebook não bloqueou o vídeo de gravação ao vivo na Nova Zelândia (atualização)
p Esta combinação de imagens mostra logotipos para empresas a partir da esquerda, Twitter, YouTube e Facebook. Essas empresas de Internet e outras dizem que estão trabalhando para remover imagens de vídeo filmadas por um atirador no tiroteio na mesquita da Nova Zelândia, que estavam amplamente disponíveis nas redes sociais horas após o terrível ataque. (Fotos / arquivo AP)
p Por que o Facebook transmitiu o vídeo ao vivo da mesquita da Nova Zelândia durante 17 minutos? Ninguém alertou a empresa enquanto estava acontecendo? p Facebook diz não. De acordo com seu vice-conselheiro geral, Chris Sonderby, nenhuma das cerca de 200 pessoas que assistiram ao vídeo ao vivo o sinalizou para os moderadores. Em uma postagem do blog na terça-feira, Sonderby disse que o primeiro relatório do usuário não veio até 12 minutos após o término da transmissão.
p Tudo isso levanta questões adicionais, entre elas, porque tantas pessoas assistiram sem dizer nada, se o Facebook depende muito de estranhos e máquinas para relatar problemas, e se os usuários e policiais sabem como entrar em contato com o Facebook para se preocuparem com o que estão vendo no serviço.
p "Quando vemos as coisas por meio de nossos telefones, imaginamos que são como um programa de televisão, "disse Siva Vaidhyanathan, professor de estudos de mídia na Universidade da Virgínia. "Eles estão distantes, e não temos poder. "
p O Facebook disse que removeu o vídeo "poucos minutos" após ser notificado pela polícia da Nova Zelândia. Mas desde então, O Facebook e outras empresas de mídia social tiveram que lidar com cópias postadas por outras pessoas.
p O suspeito do tiroteio modelou cuidadosamente seu ataque para a era da internet, enquanto transmitia ao vivo a morte de 50 pessoas em duas mesquitas em Christchurch, Nova Zelândia.
p Tim Cigelske, que ensina sobre mídia social na Marquette University em Milwaukee, disse que embora os espectadores tenham as mesmas obrigações morais de ajudar que um espectador no mundo físico, as pessoas não sabem necessariamente o que fazer.
p "É como ligar para o 911 em uma emergência, "disse ele." Tivemos que treinar as pessoas e tornar isso mais fácil para elas. Você tem que treinar as pessoas de uma nova maneira se vir uma emergência acontecendo não pessoalmente, mas online. "
p Para relatar um vídeo ao vivo, o usuário deve saber clicar em um pequeno conjunto de três pontos cinza no lado direito da postagem. Um usuário que clica em "relatar vídeo ao vivo" pode escolher entre os tipos de conteúdo questionáveis, incluindo violência, intimidação e assédio. Os usuários também são orientados a entrar em contato com as autoridades policiais se alguém estiver em perigo imediato.
p O Facebook também não parece publicar nenhuma informação pública instruindo os policiais sobre como denunciar vídeos perigosos ou criminosos. A empresa tem uma página com o título "informações para autoridades policiais, ", mas apenas descreve os procedimentos para fazer solicitações legais de registros de contas de usuários. O Facebook não respondeu imediatamente a um pedido de comentários e perguntas sobre suas comunicações com a polícia.
p O Facebook usa inteligência artificial para detectar material questionável, enquanto confia no público para sinalizar conteúdo que viole seus padrões. Esses relatórios são então enviados para revisores humanos, a empresa disse em um vídeo de novembro.
p O vídeo também descreve como usa "visão computacional" para detectar 97% da violência gráfica antes que alguém denuncie. Contudo, é menos claro como esses sistemas se aplicam à transmissão ao vivo do Facebook.
p Especialistas dizem que o vídeo ao vivo apresenta desafios únicos, e reclamações sobre suicídios ao vivo, assassinatos e espancamentos surgem regularmente. Apesar disso, eles dizem que o Facebook não pode se esquivar da responsabilidade.
p "Se eles não podem lidar com a responsabilidade, então é culpa deles continuarem a fornecer esse serviço, "disse Mary Anne Franks, professor de direito na Universidade de Miami.
p Um policial monta guarda em frente à mesquita Masjid Al Noor em Christchurch, Nova Zelândia, Domigo, 17 de março, 2019, onde ocorreu um dos dois tiroteios em massa. Os residentes atingidos pela Nova Zelândia entraram em contato com os muçulmanos em seus bairros e em todo o país no sábado, para mostrar bondade a uma comunidade em sofrimento enquanto um supremacista branco de 28 anos permanecia em silêncio diante de um juiz, acusados de tiroteios em massa em duas mesquitas que deixaram dezenas de mortos. (AP Photo / Vincent Yu)
p Ela chama de "incrivelmente ofensivo e impróprio" atribuir responsabilidade a usuários submetidos a vídeos traumáticos.
p Em alguns casos, não está claro no início se um vídeo ou outra postagem viola os padrões do Facebook, especialmente em um serviço com uma variedade de idiomas e normas culturais. A indecisão não parecia ser o caso aqui, no entanto. O Facebook simplesmente não soube disso a tempo.
p Sonderby do Facebook disse em uma postagem do blog de terça-feira que a empresa "designou ambos os tiroteios como ataques terroristas, o que significa que qualquer elogio, suporte e representação dos eventos "são violações.
p Vaidhyanathan disse que o recurso de vídeo ao vivo do Facebook se transformou em uma besta que o Facebook pode fazer pouco "além de apertar o botão". Embora o Facebook tenha contratado mais moderadores para complementar sua detecção de máquina e relatórios de usuários, “não dá para contratar gente suficiente” para policiar um serviço com 2,3 bilhões de usuários.
p "As pessoas sempre encontrarão novas maneiras de expressar ódio e instigar a violência, " ele disse.
p A primeira-ministra da Nova Zelândia, Jacinda Ardern, expressou frustração com o fato de a filmagem ter permanecido online quatro dias após o massacre.
p As máquinas podem detectar quando os usuários tentam repassar vídeos proibidos combinando padrões, ou impressões digitais, nos arquivos. Mas os usuários determinados a contornar essas verificações podem fazer pequenas alterações, como ajustar a cor ou a velocidade do vídeo.
p O Fórum Global da Internet para Contra o Terrorismo, um grupo de empresas globais de internet liderado pelo Facebook, Youtube, Microsoft e Twitter, disse que identificou 800 versões diferentes e as adicionou a um banco de dados compartilhado usado para bloquear imagens e vídeos de terroristas violentos.
p Sonderby disse que algumas variantes são difíceis de detectar e que o Facebook "se expandiu para sistemas de detecção adicionais, incluindo o uso de tecnologia de áudio".
p Em uma série de tweets um dia após o tiroteio, Ex-chefe de segurança do Facebook, Alex Stamos, expôs o desafio para as empresas de tecnologia enquanto elas corriam para acompanhar as novas versões do vídeo.
p "O que você está vendo nas plataformas principais é a água vazando em torno de milhares de dedos enfiados em uma represa, " ele disse.
p Stamos estimou que as grandes empresas de tecnologia estão bloqueando o envio de mais de 99 por cento dos vídeos, "o que não é suficiente para torná-lo impossível de ser encontrado." p © 2019 Associated Press. Todos os direitos reservados.