• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Os usuários confiam na IA tanto quanto nos humanos para sinalizar conteúdo problemático

    Crédito:Unsplash/CC0 Public Domain

    Os usuários de mídia social podem confiar em inteligência artificial (IA) tanto quanto em editores humanos para sinalizar discurso de ódio e conteúdo prejudicial, de acordo com pesquisadores da Penn State.
    Os pesquisadores disseram que quando os usuários pensam em atributos positivos das máquinas, como sua precisão e objetividade, eles mostram mais fé na IA. No entanto, se os usuários forem lembrados da incapacidade das máquinas de tomar decisões subjetivas, sua confiança será menor.

    As descobertas podem ajudar os desenvolvedores a projetar melhores sistemas de curadoria de conteúdo com inteligência artificial que podem lidar com as grandes quantidades de informações atualmente sendo geradas, evitando a percepção de que o material foi censurado ou classificado incorretamente, disse S. Shyam Sundar, professor James P. Jimirro de Efeitos de Mídia na Faculdade de Comunicações Donald P. Bellisario e co-diretor do Laboratório de Pesquisa de Efeitos de Mídia.

    “Existe uma necessidade extrema de moderação de conteúdo nas mídias sociais e, de forma mais geral, na mídia online”, disse Sundar, que também é afiliado do Instituto de Ciências Computacionais e de Dados da Penn State. "Na mídia tradicional, temos editores de notícias que atuam como gatekeepers. Mas online, os portões estão tão abertos, e gatekeeping não é necessariamente viável para os humanos, especialmente com o volume de informações sendo gerado. Então, com a indústria cada vez mais avançando para soluções automatizadas, este estudo analisa a diferença entre moderadores de conteúdo humanos e automatizados, em termos de como as pessoas respondem a eles."

    Tanto os editores humanos quanto os de IA têm vantagens e desvantagens. Os humanos tendem a avaliar com mais precisão se o conteúdo é prejudicial, como quando é racista ou potencialmente pode provocar automutilação, de acordo com Maria D. Molina, professora assistente de publicidade e relações públicas da Michigan State, primeira autora do estudo. . As pessoas, no entanto, não conseguem processar as grandes quantidades de conteúdo que agora estão sendo geradas e compartilhadas online.

    Por outro lado, embora os editores de IA possam analisar rapidamente o conteúdo, as pessoas geralmente desconfiam desses algoritmos para fazer recomendações precisas, além de temer que as informações possam ser censuradas.

    “Quando pensamos em moderação de conteúdo automatizada, surge a questão de saber se os editores de inteligência artificial estão afetando a liberdade de expressão de uma pessoa”, disse Molina. "Isso cria uma dicotomia entre o fato de que precisamos de moderação de conteúdo - porque as pessoas estão compartilhando todo esse conteúdo problemático - e, ao mesmo tempo, as pessoas estão preocupadas com a capacidade da IA ​​de moderar o conteúdo. podemos construir moderadores de conteúdo de IA nos quais as pessoas possam confiar de uma maneira que não prejudique essa liberdade de expressão."

    Transparência e transparência interativa

    De acordo com Molina, reunir pessoas e IA no processo de moderação pode ser uma maneira de construir um sistema de moderação confiável. Ela acrescentou que a transparência – ou sinalizar aos usuários que uma máquina está envolvida na moderação – é uma abordagem para melhorar a confiança na IA. No entanto, permitir que os usuários ofereçam sugestões às IAs, que os pesquisadores chamam de "transparência interativa", parece aumentar ainda mais a confiança do usuário.

    Para estudar a transparência e a transparência interativa, entre outras variáveis, os pesquisadores recrutaram 676 participantes para interagir com um sistema de classificação de conteúdo. Os participantes foram aleatoriamente designados para uma das 18 condições experimentais, projetadas para testar como a fonte de moderação – IA, humano ou ambos – e transparência – regular, interativa ou sem transparência – pode afetar a confiança do participante nos editores de conteúdo de IA. Os pesquisadores testaram as decisões de classificação - se o conteúdo foi classificado como "sinalizado" ou "não sinalizado" por ser prejudicial ou odioso. O conteúdo do teste "prejudicial" lidava com ideação suicida, enquanto o conteúdo do teste "odioso" incluía discurso de ódio.

    Entre outras descobertas, os pesquisadores descobriram que a confiança dos usuários depende se a presença de um moderador de conteúdo de IA invoca atributos positivos das máquinas, como sua precisão e objetividade, ou atributos negativos, como sua incapacidade de fazer julgamentos subjetivos sobre nuances na vida humana. Língua.

    Dar aos usuários a chance de ajudar o sistema de IA a decidir se as informações online são prejudiciais ou não também pode aumentar sua confiança. Os pesquisadores disseram que os participantes do estudo que adicionaram seus próprios termos aos resultados de uma lista de palavras selecionadas por IA usadas para classificar postagens confiavam no editor de IA tanto quanto confiavam em um editor humano.

    Preocupações éticas

    Sundar disse que aliviar os humanos da revisão de conteúdo vai além de apenas dar aos trabalhadores um descanso de uma tarefa tediosa. Contratar editores humanos para a tarefa significa que esses trabalhadores ficam expostos a horas de imagens e conteúdo odiosos e violentos, disse ele.

    "Há uma necessidade ética de moderação de conteúdo automatizada", disse Sundar, que também é diretor do Centro de Inteligência Artificial Socialmente Responsável da Penn State. "Há uma necessidade de proteger os moderadores de conteúdo humano - que estão realizando um benefício social quando fazem isso - da exposição constante a conteúdo prejudicial dia após dia."

    De acordo com Molina, trabalhos futuros podem ver como ajudar as pessoas não apenas a confiar na IA, mas também a entendê-la. A transparência interativa também pode ser uma parte fundamental da compreensão da IA, acrescentou.

    “Algo que é realmente importante não é apenas confiar nos sistemas, mas também envolver as pessoas de uma maneira que elas realmente entendam a IA”, disse Molina. “Como podemos usar esse conceito de transparência interativa e outros métodos para ajudar as pessoas a entender melhor a IA? ."

    Os pesquisadores apresentam suas descobertas na edição atual do Journal of Computer-Mediated Communication . + Explorar mais

    A moderação de conteúdo online aumenta a responsabilidade, mas pode prejudicar alguns usuários da plataforma




    © Ciência https://pt.scienceaq.com