Crédito CC0:domínio público
Pesquisadores da Caltech demonstraram que algoritmos de aprendizado de máquina podem monitorar conversas de mídia social online conforme elas evoluem, o que poderia um dia levar a uma maneira eficaz e automatizada de detectar trolling online.
O projeto reúne os laboratórios da pesquisadora de inteligência artificial (IA) Anima Anandkumar, Bren Professor de Computação e Ciências Matemáticas, e Michael Alvarez, professor de ciência política. Seu trabalho foi apresentado em 14 de dezembro no workshop AI for Social Good na Conferência de Sistemas de Processamento de Informação Neural de 2019 em Vancouver, Canadá. Sua equipe de pesquisa inclui Anqi Liu, bolsista de pós-doutorado; Maya Srikanth, um júnior na Caltech; e Nicholas Adams-Cohen (MS '16, Ph.D. 19) da Universidade de Stanford.
"Esta é uma das coisas que adoro no Caltech:a capacidade de transpor limites, desenvolver sinergias entre ciências sociais e, nesse caso, Ciência da Computação, "Alvarez diz.
A prevenção de assédio online requer a detecção rápida de ofensivas, assediando, e postagens negativas nas redes sociais, o que, por sua vez, requer o monitoramento de interações online. Os métodos atuais para obter esses dados de mídia social são totalmente automatizados e não interpretáveis ou dependem de um conjunto estático de palavras-chave, que pode ficar desatualizado rapidamente. Nenhum dos métodos é muito eficaz, de acordo com Srikanth.
"Não é escalável ter humanos tentando fazer esse trabalho manualmente, e esses humanos são potencialmente tendenciosos, "ela diz." Por outro lado, a busca por palavras-chave sofre com a velocidade com que as conversas online evoluem. Novos termos surgem e termos antigos mudam de significado, portanto, uma palavra-chave usada com sinceridade em um dia pode ter um significado sarcástico no dia seguinte. "
Em vez de, a equipe usou um modelo GloVe (vetores globais para representação de palavras) para descobrir palavras-chave novas e relevantes. GloVe é um modelo de incorporação de palavras, o que significa que representa palavras em um espaço vetorial, onde a "distância" entre duas palavras é uma medida de sua similaridade linguística ou semântica. Começando com uma palavra-chave, este modelo pode ser usado para encontrar outros que estão intimamente relacionados a essa palavra para revelar grupos de termos relevantes que estão realmente em uso. Por exemplo, pesquisar no Twitter o uso de "MeToo" em conversas gerou clusters de hashtags relacionadas, como "SupportSurvivors, " "Eu estou com ela, "e" NotSilent ". Essa abordagem oferece aos pesquisadores um conjunto de palavras-chave dinâmico e em constante evolução para pesquisar.
Mas não basta apenas saber se determinada conversa está relacionada ao tema de interesse; o contexto é importante. Por isso, GloVe mostra até que ponto certas palavras-chave estão relacionadas, fornecendo informações sobre como eles estão sendo usados. Por exemplo, em um fórum online do Reddit dedicado à misoginia, a palavra "feminina" foi usada em estreita associação com as palavras "sexual, "" negativo, "e" relação sexual ". Nas postagens do Twitter sobre o movimento #MeToo, a palavra "mulher" tinha mais probabilidade de ser associada aos termos "empresas, " "desejo, "e" vítimas ".
O projeto foi uma prova de conceito com o objetivo de, um dia, dar às plataformas de mídia social uma ferramenta mais poderosa para detectar o assédio online. O interesse de Anandkumar no tópico foi intensificado por seu envolvimento na campanha para mudar o nome abreviado da conferência Neural Information Processing Systems de sua sigla original, "NIPS, "para" NeurIPS. "
"O campo da pesquisa de IA está se tornando mais inclusivo, mas sempre há pessoas que resistem à mudança, "diz Anandkumar, que em 2018 se viu alvo de assédio e ameaças online devido ao seu esforço bem-sucedido para mudar para uma sigla sem conotações potencialmente ofensivas. "Foi uma experiência reveladora sobre como os trolls podem ser feios. Esperançosamente, as ferramentas que estamos desenvolvendo agora ajudarão a combater todos os tipos de assédio no futuro. "
O estudo deles é intitulado "Encontrando Trolls nas Redes Sociais:Métodos Dinâmicos de Seleção de Palavras-Chave para Debates Online em Rápida Evolução".