Crédito CC0:domínio público
Uma equipe de pesquisadores, incluindo professores da Binghamton University, desenvolveram algoritmos de aprendizado de máquina que podem identificar com sucesso os agressores e agressores no Twitter com 90 por cento de precisão.
Ferramentas eficazes para detectar ações prejudiciais nas redes sociais são escassas, já que este tipo de comportamento é frequentemente ambíguo por natureza e / ou exibido por meio de comentários e críticas aparentemente superficiais. Com o objetivo de suprir essa lacuna, uma equipe de pesquisa com o cientista da computação da Binghamton University, Jeremy Blackburn, analisou os padrões de comportamento exibidos por usuários abusivos do Twitter e suas diferenças em relação a outros usuários do Twitter.
"Construímos rastreadores - programas que coletam dados do Twitter por meio de vários mecanismos, "disse Blackburn." Reunimos tweets de usuários do Twitter, seus perfis, bem como coisas relacionadas à rede (social), como quem eles seguem e quem os segue. "
Os pesquisadores então realizaram processamento de linguagem natural e análise de sentimento nos próprios tweets, bem como uma variedade de análises de redes sociais sobre as conexões entre os usuários. Os pesquisadores desenvolveram algoritmos para classificar automaticamente dois tipos específicos de comportamento online ofensivo, ou seja, cyberbullying e ciberagressão. Os algoritmos foram capazes de identificar usuários abusivos no Twitter com 90 por cento de precisão. Esses são usuários que se envolvem em comportamento de assédio, por exemplo. aqueles que enviam ameaças de morte ou fazem comentários racistas aos usuários.
"Em poucas palavras, os algoritmos 'aprendem' como diferenciar os agressores e os usuários típicos ao pesar certos recursos à medida que são mostrados mais exemplos, "disse Blackburn.
Embora esta pesquisa possa ajudar a mitigar o cyberbullying, é apenas um primeiro passo, disse Blackburn.
"Um dos maiores problemas com os problemas de segurança cibernética é o dano causado aos humanos, e é muito difícil 'desfazer, '"Disse Blackburn." Por exemplo, nossa pesquisa indica que o aprendizado de máquina pode ser usado para detectar automaticamente usuários que são cyberbullies, e, portanto, pode ajudar o Twitter e outras plataformas de mídia social a remover usuários problemáticos. Contudo, tal sistema é basicamente reativo:ele não impede inerentemente ações de bullying, apenas os identifica ocorrendo em escala. E a triste verdade é que mesmo que as contas de bullying sejam excluídas, mesmo se todos os seus ataques anteriores forem excluídos, as vítimas ainda viram e foram potencialmente afetadas por eles. "
Blackburn e sua equipe estão explorando técnicas de mitigação proativas para lidar com campanhas de assédio.
O estudo, "Detecção de intimidação e agressão cibernética nas redes sociais, "foi publicado em Transações na Web .