• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Um algoritmo para detectar quando as conversas online podem ficar feias

    Crédito CC0:domínio público

    Uma equipe de pesquisadores da Universidade Cornel que trabalha com a Fundação Wikimedia criou uma estrutura digital para detectar quando uma discussão online pode ficar feia. Em um artigo enviado para o arXiv servidor de pré-impressão, a equipe descreve sua abordagem e quão bem seu algoritmo funcionou durante o teste.

    Como observam os pesquisadores, conversas online podem frequentemente degenerar em desentendimentos e, frequentemente, ataques pessoais. Eles ainda observam que este é frequentemente o caso quando as pessoas entram em um ambiente que envolve críticas, como a Wikipedia. Lá, editores amadores são encorajados a oferecer críticas aos trabalhos de terceiros como um meio de melhorar o conteúdo do site. Infelizmente, muitas pessoas não respondem bem a essas críticas, e como resultado, recorrer a postar comentários desagradáveis. A equipe da Fundação Wikimedia gostaria de conter essas conversas, porque além de fomentar sentimentos ruins, também dá ao site uma má reputação. Para resolver o problema, a equipe trabalhou com o grupo em Cornell, que têm pesquisado o mesmo problema; nomeadamente, construir um sistema de computador que seja capaz de reconhecer quando uma conversa humana tende a degenerar em algo desagradável, e para contê-lo, ou encerre a conversa para as pessoas envolvidas.

    Para resolver este problema, os pesquisadores analisaram mais de 1, 200 conversas on-line nas páginas do Wikipedia Talk em busca de pistas linguísticas. Nesse contexto, pistas eram palavras que sugeriam comportamento e nível de polidez. Ao fazê-lo, eles descobriram que quando as pessoas usavam dicas como "por favor" e "obrigado, "havia menos chance de as coisas ficarem feias. Também havia frases positivas, como "Eu acho" ou "Eu acredito" que sugeria uma tentativa de manter as coisas civilizadas, que tendia a manter as coisas em equilíbrio. Por outro lado, eles também encontraram pistas menos úteis, como quando as conversas começaram com perguntas diretas ou a palavra "você". Essas pistas tendem a levar à degradação da civilidade em algum ponto e, os pesquisadores sugerem, são frequentemente vistos por um leitor como hostis e contenciosos.

    A equipe, então, desenvolveu um algoritmo que aceitava pistas como dados aprendidos e, em seguida, analisava frases em busca de tais pistas e aplicando-lhes uma intuição humana. O resultado, os relatórios da equipe, era uma estrutura computadorizada que podia reconhecer cedo quando uma conversa provavelmente degeneraria em um jogo feio de idas e vindas. Eles descobriram que o sistema tinha 61,6% de precisão. Humanos fazendo o mesmo teste, Contudo, marcou 72 por cento.

    © 2018 Phys.org




    © Ciência https://pt.scienceaq.com