Crédito CC0:domínio público
Cientista da computação do USC Information Sciences Institute (USC ISI), Emilio Ferrara, tem novas pesquisas indicando que os bots ou contas falsas habilitadas por inteligência artificial nas redes sociais evoluíram e agora são mais capazes de copiar comportamentos humanos para evitar a detecção.
No jornal Primeira segunda-feira , pesquisa de Ferrara e colegas Luca Luceri (Scuola Universitaria Professionale della Svizzera Italiana), Ashok Deb (USC ISI), Silvia Giordano (Scuola Universitaria Professionale della Svizzera Italiana), examinar o comportamento do bot durante as eleições dos EUA de 2018 em comparação com o comportamento do bot durante as eleições dos EUA de 2016.
Os pesquisadores estudaram quase 250, 000 usuários ativos de mídia social que discutiram as eleições nos EUA em 2016 e 2018, e detectado em 30, 000 bots. Eles descobriram que os bots em 2016 estavam focados principalmente em retuítes e grandes volumes de tweets em torno da mesma mensagem. Contudo, conforme a atividade social humana online evoluiu, os bots também. Na temporada eleitoral de 2018, assim como os humanos eram menos propensos a retuitar tanto quanto fizeram em 2016, os bots eram menos propensos a compartilhar as mesmas mensagens em alto volume.
Bots, os pesquisadores descobriram, eram mais propensos a empregar uma abordagem multi-bot como se para imitar o envolvimento humano autêntico em torno de uma ideia. Também, durante as eleições de 2018, como os humanos eram muito mais propensos a tentar se engajar por meio de respostas, bots tentaram estabelecer voz e adicionar diálogo e engajamento por meio do uso de enquetes, uma estratégia típica de agências de notícias e pesquisadores de renome, possivelmente com o objetivo de conferir legitimidade a essas contas.
Em um exemplo, uma conta de bot postou uma enquete online no Twitter perguntando se as eleições federais deveriam exigir que os eleitores mostrassem identidade nas urnas. Em seguida, pediu aos usuários do Twitter que votassem e retweetassem.
Autor principal, Emilio Ferrara, observado, "Nosso estudo corrobora ainda mais essa ideia de que há uma corrida armamentista entre bots e algoritmos de detecção. À medida que as empresas de mídia social se empenham mais para mitigar o abuso e sufocar contas automatizadas, os bots evoluem para imitar as estratégias humanas. Os avanços na IA permitem que os bots produzam conteúdo mais semelhante ao humano. Precisamos dedicar mais esforços para entender como os bots evoluem e como os mais sofisticados podem ser detectados. Com as próximas eleições de 2020 nos EUA, a integridade do discurso da mídia social é de suma importância para permitir um processo democrático livre de influências externas. "