• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • O sistema de aprendizado de máquina visa determinar se um meio de comunicação é preciso ou tendencioso

    Um sistema de aprendizado de máquina visa determinar se um meio de comunicação é preciso ou tendencioso. Crédito:domínio público

    Ultimamente, o mundo da verificação de fatos tem passado por uma crise. Sites como Politifact e Snopes tradicionalmente focam em reivindicações específicas, o que é admirável, mas tedioso - no momento em que eles verificam ou desmascaram um fato, há uma boa chance de que já tenha viajado pelo mundo e de volta.

    As empresas de mídia social também tiveram resultados mistos, limitando a propagação de propaganda e desinformação:o Facebook planeja ter 20, 000 moderadores humanos até o final do ano, e está gastando muitos milhões desenvolvendo seus próprios algoritmos de detecção de notícias falsas.

    Pesquisadores do Laboratório de Ciência da Computação e Inteligência Artificial do MIT (CSAIL) e do Qatar Computing Research Institute (QCRI) acreditam que a melhor abordagem é não focar na factualidade das afirmações individuais, mas nas próprias fontes de notícias. Usando esta tática, eles demonstraram um novo sistema que usa aprendizado de máquina para determinar se uma fonte é precisa ou politicamente inclinada.

    "Se um site já publicou notícias falsas antes, há uma boa chance de eles fazerem de novo, "diz o associado de pós-doutorado Ramy Baly, autor principal de um novo artigo sobre o sistema. "Ao coletar dados automaticamente sobre esses sites, a esperança é que nosso sistema possa ajudar a descobrir quais são os mais prováveis ​​de fazer isso em primeiro lugar. "

    Baly diz que o sistema precisa de apenas 150 artigos para detectar com segurança se uma fonte de notícias é confiável - o que significa que uma abordagem como a deles poderia ser usada para ajudar a eliminar os canais de notícias falsas antes que as histórias se espalhem muito.

    O sistema é uma colaboração entre cientistas da computação do MIT CSAIL e QCRI, que faz parte da Universidade Hamad Bin Khalifa no Qatar. Os pesquisadores primeiro coletaram dados do Media Bias / Fact Check (MBFC), um site com verificadores de fatos humanos que analisam a precisão e os preconceitos de mais de 2, 000 sites de notícias, de MSNBC e Fox News a fazendas de conteúdo de baixo tráfego.

    Em seguida, eles alimentaram esses dados para um algoritmo de aprendizado de máquina chamado classificador Support Vector Machine (SVM), e programou-o para classificar sites de notícias da mesma forma que MBFC. Quando recebe um novo meio de comunicação, o sistema foi então 65 por cento preciso em detectar se ele tem um alto, nível baixo ou médio de "factualidade, "e cerca de 70 por cento preciso para detectar se está inclinado para a esquerda, inclinado para a direita ou moderado.

    A equipe determinou que as maneiras mais confiáveis ​​de detectar notícias falsas e reportagens tendenciosas eram observar as características linguísticas comuns nas histórias da fonte, incluindo sentimento, complexidade e estrutura.

    Por exemplo, os veículos de notícias falsas são mais propensos a usar uma linguagem hiperbólica, subjetivo, e emocional. Em termos de viés, os canais de esquerda eram mais propensos a ter uma linguagem relacionada aos conceitos de dano / cuidado e justiça / reciprocidade, em comparação com outras qualidades, como lealdade, autoridade e santidade. (Essas qualidades representam os 5 "fundamentos morais, "uma teoria popular em psicologia social.)

    O co-autor Preslav Nakov diz que o sistema também encontrou correlações com a página da Wikipedia de um veículo, que avaliou para comprimento geral - mais longo é mais crível - bem como palavras-alvo como "extremo" ou "teoria da conspiração". Ele até encontrou correlações com a estrutura de texto dos URLs de uma fonte:aqueles que tinham muitos caracteres especiais e subdiretórios complicados, por exemplo, foram associados a fontes menos confiáveis.

    "Uma vez que é muito mais fácil obter informações sobre fontes [do que artigos], este método é capaz de fornecer previsões diretas e precisas sobre o tipo de conteúdo distribuído por essas fontes, "diz Sibel Adali, um professor de ciência da computação no Rensselaer Polytechnic Institute que não estava envolvido no projeto.

    Nakov é rápido em alertar que o sistema ainda é um trabalho em andamento, e essa, mesmo com melhorias na precisão, funcionaria melhor em conjunto com verificadores de fatos tradicionais.

    "Se os meios de comunicação reportarem de maneira diferente sobre um determinado tópico, um site como o Politifact poderia instantaneamente ver nossas pontuações de 'notícias falsas' para esses meios de comunicação para determinar quanta validade dar a diferentes perspectivas, "diz Nakov, um cientista sênior da QCRI.

    Baly e Nakov co-escreveram o novo artigo com o cientista pesquisador sênior do MIT, James Glass, ao lado dos alunos de mestrado Dimitar Alexandrov e Georgi Karadzhov da Universidade de Sofia. A equipe apresentará o trabalho no final deste mês na conferência de 2018 Métodos Empíricos em Processamento de Linguagem Natural (EMNLP) em Bruxelas, Bélgica.

    Os pesquisadores também criaram um novo conjunto de dados de código aberto de mais de 1, 000 fontes de notícias, anotado com pontuações factual e tendencioso - o maior banco de dados do mundo de seu tipo. Como próximos passos, a equipe estará explorando se o sistema treinado em inglês pode ser adaptado para outros idiomas, bem como ir além da tendência tradicional esquerda / direita para explorar as tendências específicas da região (como a divisão do mundo muçulmano entre religioso e secular).

    "Essa direção da pesquisa pode lançar luz sobre a aparência de sites não confiáveis ​​e o tipo de conteúdo que eles tendem a compartilhar, o que seria muito útil para web designers e para o público em geral, "diz Andreas Vlachos, um professor sênior da Universidade de Cambridge que não estava envolvido no projeto.

    Nakov diz que a QCRI também tem planos de lançar um aplicativo que ajude os usuários a sair de suas bolhas políticas, responder a itens de notícias específicos, oferecendo aos usuários uma coleção de artigos que abrangem o espectro político.

    "É interessante pensar em novas maneiras de apresentar as novidades às pessoas, ", diz Nakov." Ferramentas como essa podem ajudar as pessoas a pensar um pouco mais nas questões e explorar outras perspectivas que, de outra forma, não teriam considerado. "


    © Ciência https://pt.scienceaq.com