Da esquerda Monika Bickert, chefe de gestão de política global do Facebook, Nick Pickles, diretor de políticas públicas do Twitter, Derek Slater, diretor global de política de informações do Google, e o vice-presidente sênior de programas da Liga Anti-Difamação, George Selim, testemunham perante o Senado de Comércio, Comitê de Ciência e Transporte sobre como as empresas de internet e mídia social estão preparadas para impedir o terrorismo e o extremismo, Quarta-feira, 18 de setembro, 2019, no Capitólio, em Washington. (AP Photo / J. Scott Applewhite)
Executivos do Facebook, O Google e o Twitter disseram ao Congresso na quarta-feira que eles ficaram melhores e mais rápidos na detecção e remoção de conteúdo extremista violento em suas plataformas de mídia social em face de tiroteios em massa alimentados pelo ódio.
Questionado em uma audiência pelo Comitê de Comércio do Senado, os executivos disseram que estão gastando dinheiro em tecnologia para melhorar sua capacidade de sinalizar conteúdo extremista e tomando a iniciativa de entrar em contato com as autoridades policiais para tentar evitar possíveis incidentes violentos.
“Continuaremos a investir em pessoas e tecnologia para enfrentar o desafio, "disse Derek Slater, Diretor de política de informações do Google.
Os legisladores querem saber o que as empresas estão fazendo para remover o discurso de ódio de suas plataformas e como estão se coordenando com a aplicação da lei.
"Estamos passando por uma onda de ódio. ... A mídia social é usada para amplificar esse ódio, "disse a senadora Maria Cantwell, do estado de Washington, o democrata sênior do painel.
Os executivos da empresa testemunharam que sua tecnologia está melhorando para identificar e remover conteúdo suspeito com mais rapidez.
Dos 9 milhões de vídeos removidos do YouTube do Google no segundo trimestre do ano, 87% foram sinalizados por uma máquina usando inteligência artificial, e muitos deles foram retirados antes de terem uma única visão, Disse Slater.
Da esquerda Monika Bickert, chefe de gestão de política global do Facebook, Nick Pickles, diretor de políticas públicas do Twitter, e Derek Slater, diretor global de política de informação do Google testemunha perante o Senado de Comércio, Comitê de Ciência e Transporte sobre como as empresas de internet e mídia social estão preparadas para impedir o terrorismo e o extremismo, Quarta-feira, 18 de setembro, 2019, no Capitólio, em Washington. (AP Photo / J. Scott Applewhite)
Depois do tiroteio em fevereiro de 2018 no colégio na Flórida que matou 17 pessoas, O Google começou a entrar em contato proativamente com as autoridades policiais para ver como elas podem coordenar melhor, Disse Slater. Nikolas Cruz, o suspeito do tiroteio, postou em uma página do YouTube antes, "Eu vou ser um atirador profissional da escola, "disseram as autoridades.
O Facebook disse esta semana que trabalhará com organizações de aplicação da lei para treinar seus sistemas de IA para reconhecer vídeos de eventos violentos como parte de um esforço mais amplo para reprimir o extremismo. Os sistemas de IA do Facebook não foram capazes de detectar o vídeo transmitido ao vivo do tiroteio em uma mesquita na Nova Zelândia em março, que matou 50 pessoas. O autoproclamado supremacista branco acusado dos tiroteios havia transmitido o ataque ao vivo.
O esforço usará imagens de câmera corporal do treinamento com armas de fogo fornecido pelo governo dos EUA e do Reino Unido e por agências de aplicação da lei.
Monika Bickert, chefe de gestão de política global do Facebook, testemunha perante o Senado de Comércio, Comitê de Ciência e Transporte durante uma audiência sobre como as empresas de internet e mídia social estão preparadas para combater o terrorismo e o extremismo, Quarta-feira, 18 de setembro, 2019, no Capitólio, em Washington. (AP Photo / J. Scott Applewhite)
O Facebook também está expandindo sua definição de terrorismo para incluir não apenas atos de violência destinados a atingir um objetivo político ou ideológico, mas também tentativas de violência, especialmente quando dirigido a civis com a intenção de coagir e intimidar. A empresa teve um sucesso misto em seus esforços para limitar a disseminação de material extremista em seu serviço.
O Facebook parece ter feito pouco progresso, por exemplo, em seus sistemas automatizados para remover conteúdo proibido que glorificam grupos como o Estado Islâmico nos quatro meses desde que a The Associated Press detalhou como as páginas do Facebook geradas automaticamente para empresas estão ajudando extremistas do Oriente Médio e supremacistas brancos nos EUA. Os novos detalhes vêm de uma atualização de uma queixa à Securities and Exchange Commission que o National Whistleblower Center planeja apresentar esta semana.
O Facebook disse em resposta que remove todas as páginas geradas automaticamente "que violam nossas políticas. Embora não possamos capturar todas, permanecemos vigilantes neste esforço. "
Monika Bickert, chefe de gestão de política global do Facebook, juntou-se à direita por Nick Pickles, diretor de políticas públicas do Twitter, testemunha perante o Senado de Comércio, Comitê de Ciência e Transporte durante uma audiência sobre como as empresas de internet e mídia social estão preparadas para combater o terrorismo e o extremismo, Quarta-feira, 18 de setembro, 2019, no Capitólio, em Washington. (AP Photo / J. Scott Applewhite)
Monika Bickert, O chefe de gerenciamento de políticas globais do Facebook, disse na audiência do Senado que a empresa aumentou sua capacidade de detectar o terror, violência e discurso de ódio muito mais cedo. "Sabemos que as pessoas precisam de segurança, "disse ela. Bickert observou que o Facebook remove qualquer conteúdo que promova violência, supremacia branca ou nacionalismo, além de indicar suicídio, e desabilita contas quando ameaças são detectadas.
Diretor de estratégia de políticas públicas do Twitter, Nick Pickles, disse que o serviço suspendeu mais de 1,5 milhão de contas para promover o terrorismo entre 1º de agosto, 2015, e 31 de dezembro, 2018. Mais de 90% das contas estão suspensas por meio de medidas proativas do Twitter, ele disse, sem esperar por relatórios do governo e da aplicação da lei.
Sen. Rick Scott, R-Fla., perguntou a Pickles por que o Twitter não suspendeu a conta do líder socialista venezuelano Nicolas Maduro, que presidiu uma crise econômica e política que se agravou e ameaçou os políticos da oposição com processo criminal.
Monika Bickert, chefe de gestão de política global do Facebook, juntou-se à direita por Nick Pickles, diretor de políticas públicas do Twitter, testemunha perante o Senado de Comércio, Comitê de Ciência e Transporte durante uma audiência sobre como as empresas de internet e mídia social estão preparadas para combater o terrorismo e o extremismo, Quarta-feira, 18 de setembro, 2019, no Capitólio, em Washington. (AP Photo / J. Scott Applewhite)
Derek Slater, diretor global de política de informações do Google, ouve antes de testemunhar em um Senado de Comércio, Audiência do Comitê de Ciência e Transporte sobre como as empresas de internet e mídia social estão preparadas para impedir o terrorismo e o extremismo, Quarta-feira, 18 de setembro, 2019, no Capitólio, em Washington. (AP Photo / J. Scott Applewhite)
Da esquerda Monika Bickert, chefe de gestão de política global do Facebook, Nick Pickles, diretor de políticas públicas do Twitter, e Derek Slater, diretor global de política de informação do Google testemunha perante o Senado de Comércio, Comitê de Ciência e Transporte sobre como as empresas de internet e mídia social estão preparadas para impedir o terrorismo e o extremismo, Quarta-feira, 18 de setembro, 2019, no Capitólio, em Washington. (AP Photo / J. Scott Applewhite)
Se o Twitter removeu a conta de Maduro, "não mudaria os fatos no terreno, "Pickles disse.
Scott disse que discordou porque a conta de Maduro com cerca de 3,7 milhões de seguidores lhe dá legitimidade como líder mundial.
© 2019 Associated Press. Todos os direitos reservados.