Crédito CC0:domínio público
A Internet oferece potencial para diálogo construtivo e cooperação, mas as conversas online muitas vezes degeneram em ataques pessoais. Na esperança de que esses ataques possam ser evitados, Os pesquisadores de Cornell criaram um modelo para prever quais conversas civis podem assumir um rumo tóxico.
Depois de analisar centenas de trocas na Wikipedia, os pesquisadores desenvolveram um programa de computador que verifica se há sinais de alerta - como repetidos, questionamento direto e uso da palavra "você" nas duas primeiras postagens - para prever quais conversas inicialmente civis dariam errado.
Trocas iniciais que incluíam saudações, expressões de gratidão, sebes como "parece, "e as palavras" eu "e" nós "eram mais propensas a permanecer civilizadas, o estudo descobriu.
"Existem milhões dessas discussões, e você não pode monitorar todos eles ao vivo. Este sistema pode ajudar moderadores humanos a direcionar melhor sua atenção, "disse Cristian Danescu-Niculescu-Mizil, professor assistente de ciência da informação e co-autor do artigo "Conversations Gone Awry:Detecting Early Signs of Conversational Failure".
"Nós, como humanos, temos uma intuição de como detectar se algo está indo mal, mas é apenas uma suspeita. Não podemos fazer isso 100 por cento das vezes. Portanto, nos perguntamos se podemos construir sistemas para replicar essa intuição, porque os humanos são caros e ocupados, e achamos que este é o tipo de problema em que os computadores têm o potencial de superar os humanos, "Danescu-Niculescu-Mizil disse.
O modelo do computador, que também considerou a perspectiva do Google, uma ferramenta de aprendizado de máquina para avaliar "toxicidade, "estava correto em cerca de 65 por cento das vezes. Os humanos acertaram 72 por cento das vezes.
As pessoas podem testar sua própria capacidade de adivinhar quais conversas vão atrapalhar em um teste online.
O estudo analisou 1, 270 conversas que começaram civilmente, mas degeneraram em ataques pessoais, selecionadas de 50 milhões de conversas em 16 milhões de páginas de "conversa" da Wikipedia, onde os editores discutem artigos ou outros assuntos. Eles examinaram as trocas em pares, comparando cada conversa que terminou mal com outra que teve sucesso no mesmo assunto, portanto, os resultados não foram distorcidos por assuntos delicados, como política.
O papel, co-escrito com Cornell Ph.D. a estudante de ciência da informação Justine Zhang; Ph.D. estudantes de ciência da computação Jonathan P. Chang, e Yiqing Hua; Lucas Dixon e Nithum Thain da Jigsaw; e Dario Taraborelli da Fundação Wikimedia, será apresentado na reunião anual da Association for Computational Linguistics, de 15 a 20 de julho em Melbourne, Austrália.
Os pesquisadores esperam que este modelo possa ser usado para resgatar conversas de risco e melhorar o diálogo online, em vez de banir usuários específicos ou censurar certos tópicos. Alguns pôsteres online, como falantes não nativos de inglês, podem não perceber que podem ser vistos como agressivos, e os avisos de tal sistema poderiam ajudá-los a se autoajustar.
"Se eu tiver ferramentas que localizam ataques pessoais, já é tarde demais, porque o ataque já aconteceu e as pessoas já viram, "Disse Chang." Mas se você entender que essa conversa está indo em uma direção errada e entrar em ação, então, isso pode tornar o lugar um pouco mais acolhedor. "