• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  •  Science >> Ciência >  >> Outros
    Detectando campanhas de influência no X com IA e ciência de rede
    Crédito:Pixabay/CC0 Domínio Público

    Na era da IA ​​generativa e dos grandes modelos de linguagem (LLMs), grandes quantidades de conteúdo não autêntico podem ser rapidamente transmitidas em plataformas de mídia social. Como resultado, os atores maliciosos estão se tornando mais sofisticados, sequestrando hashtags, amplificando artificialmente conteúdo enganoso e compartilhando novamente propaganda em massa.



    Estas ações são frequentemente orquestradas por operações de informação (IO) patrocinadas pelo Estado, que tentam influenciar a opinião pública durante grandes eventos geopolíticos, como as eleições nos EUA, a pandemia de COVID-19 e muito mais.

    Combater estas OI nunca foi tão crucial. A identificação de campanhas de influência com tecnologia de alta precisão reduzirá significativamente a classificação errada de utilizadores legítimos como condutores de IO, garantindo que os fornecedores de redes sociais ou reguladores não suspendam contas por engano enquanto tentam coibir atividades ilícitas.

    Diante disso, Luca Luceri, pesquisador do Instituto de Ciências da Informação da USC (ISI), está co-liderando um esforço para identificar e caracterizar campanhas de influência nas redes sociais. Seu artigo mais recente, “Desmascarando a Web do Engano:Descobrindo Atividade Coordenada para Expor Operações de Informação no Twitter”, foi apresentado na Web Conference em 13 de maio de 2024.

    “Minha equipe e eu trabalhamos na modelagem e identificação de drivers de IO, como bots e trolls, nos últimos cinco a dez anos”, disse Luceri. “Neste artigo, avançamos nossas metodologias para propor um conjunto de modelos de aprendizado de máquina supervisionados e não supervisionados que podem detectar campanhas de influência orquestradas de diferentes países dentro da plataforma X (antigo Twitter).”

    Uma rede fundida de comportamentos semelhantes


    Com base em um conjunto de dados abrangente de 49 milhões de tweets de campanhas verificadas originadas em seis países – China, Cuba, Egito, Irã, Rússia e Venezuela – Luceri e sua equipe aprimoraram cinco comportamentos de compartilhamento no X dos quais os motoristas de IO participam.

    Isso inclui co-retuíte (compartilhando tweets idênticos), co-URL (compartilhando os mesmos links ou URLs), sequência de hashtag (usando uma sequência idêntica de hashtags em tweets), retuíte rápido (compartilhando rapidamente conteúdo dos mesmos usuários), e similaridade de texto (tweets com conteúdo textual semelhante).

    Pesquisas anteriores se concentraram na construção de redes que mapeavam cada tipo de comportamento, examinando as semelhanças entre usuários individuais no X. No entanto, Luceri e sua equipe notaram que essas contas geralmente empregam muitas estratégias ao mesmo tempo, o que significava que monitorar um traço comportamental era insuficiente.

    “Descobrimos que o co-retuíte foi massivamente utilizado por campanhas em Cuba e na Venezuela”, explicou Luceri. “No entanto, se examinarmos apenas o co-retuíte sem considerar outros comportamentos, teríamos um bom desempenho na identificação de algumas campanhas, como as provenientes de Cuba e da Venezuela, mas fraco onde o co-retuíte fosse menos utilizado, como nas campanhas russas”.

    Para capturar uma gama mais ampla de comportamentos de compartilhamento coordenados, os pesquisadores construíram uma rede de similaridade unificada chamada Rede Fundida. Em seguida, eles aplicaram algoritmos de aprendizado de máquina alimentados por propriedades topológicas da rede fundida para classificar as semelhanças dessas contas e prever sua participação futura em IOs.

    Luceri e sua equipe descobriram que esse método poderia ser aplicável a campanhas em todo o mundo. Vários usuários X na mesma campanha, não importa de onde sejam, exibiram notável semelhança coletiva em suas ações.

    “Considero nosso trabalho uma mudança de paradigma nos métodos de pesquisa, dando uma nova perspectiva na identificação de campanhas de influência e seus impulsionadores”, disse Luceri.

    Desbloqueando novas oportunidades


    O modelo de aprendizado de máquina não supervisionado aproveita recursos de rede bem conhecidos, mas subutilizados, alcançando uma precisão 42% maior do que outras abordagens tradicionais para detectar campanhas de influência. Luceri vê este artigo como um ponto de partida que poderia abrir caminho para novos caminhos de pesquisa.

    “Podemos treinar modelos nas características topológicas desta rede de similaridade e fazê-los funcionar em cenários complexos:por exemplo, se diferentes usuários de diferentes países interagirem entre si, ou situações mais desafiadoras em que temos informações limitadas sobre as campanhas”, Luceri comentou.

    Luceri também apresentou outro artigo "Leveraging Large Language Models to Detect Influence Campaigns in Social Media" na Web Conference, que recebeu o prêmio de melhor artigo do Workshop Internacional sobre Métodos Computacionais para Análise de Discurso Online (BeyondFacts'24). O artigo examina o potencial do uso de LLMs para reconhecer os sinais de campanhas de influência impulsionadas pela IA. Isto é particularmente crucial no clima atual, onde os meios de comunicação criados pela IA são difundidos.

    “Essas atividades coordenadas têm consequências na vida real”, disse Luceri. “Eles têm o poder de espalhar desinformação e teorias de conspiração que podem levar a protestos ou ataques à nossa democracia, como a interferência de trolls russos nas eleições de 2016 nos EUA”.

    Luceri e sua equipe estão empenhados em continuar a busca por estratégias alternativas para identificar campanhas de influência e proteger os usuários suscetíveis à influência.

    Mais informações: Luca Luceri et al, Desmascarando a Teia de Engano:Descobrindo Atividade Coordenada para Expor Operações de Informação no Twitter, arXiv (2023). DOI:10.48550/arxiv.2310.09884
    Luca Luceri et al, Leveraging Large Language Models to Detect Influence Campaigns in Social Media, arXiv (2023). DOI:10.48550/arxiv.2311.07816

    Informações do diário: arXiv

    Fornecido pela Universidade do Sul da Califórnia



    © Ciência https://pt.scienceaq.com