• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Pesquisadores de IA aprimoram método para remover preconceito de gênero em máquinas criadas para entender e responder a dados de texto ou voz

    Crédito:Pixabay/CC0 Public Domain

    Pesquisadores descobriram uma maneira melhor de reduzir o viés de gênero em modelos de processamento de linguagem natural, preservando informações vitais sobre o significado das palavras, de acordo com um estudo recente que pode ser um passo fundamental para abordar a questão dos preconceitos humanos se infiltrando na inteligência artificial.
    Embora um computador em si seja uma máquina imparcial, muitos dos dados e da programação que fluem pelos computadores são gerados por humanos. Isso pode ser um problema quando preconceitos humanos conscientes ou inconscientes acabam sendo refletidos nas amostras de texto que os modelos de IA usam para analisar e "entender" a linguagem.

    Os computadores não são imediatamente capazes de entender o texto, explica Lei Ding, primeiro autor do estudo e estudante de pós-graduação no Departamento de Ciências Matemáticas e Estatísticas. Eles precisam que as palavras sejam convertidas em um conjunto de números para entendê-los – um processo chamado incorporação de palavras.

    "O processamento de linguagem natural é basicamente ensinar os computadores a entender textos e idiomas", diz Bei Jiang, professor associado do Departamento de Ciências Matemáticas e Estatísticas.

    Uma vez que os pesquisadores dão esse passo, eles são capazes de traçar palavras como números em um gráfico 2D e visualizar as relações das palavras entre si. Isso permite que eles entendam melhor a extensão do preconceito de gênero e, posteriormente, determinem se o preconceito foi efetivamente eliminado.

    Todo o significado, nenhum preconceito

    Embora outras tentativas de reduzir ou remover o preconceito de gênero nos textos tenham sido bem-sucedidas até certo ponto, o problema com essas abordagens é que o preconceito de gênero não é a única coisa removida dos textos.

    "Em muitos métodos de discriminação de gênero, quando eles reduzem o viés em um vetor de palavras, eles também reduzem ou eliminam informações importantes sobre a palavra", explica Jiang. Esse tipo de informação é conhecido como informação semântica e oferece dados contextuais importantes que podem ser necessários em tarefas futuras envolvendo essas incorporações de palavras.

    Por exemplo, ao considerar uma palavra como "enfermeira", os pesquisadores desejam que o sistema remova qualquer informação de gênero associada a esse termo, mantendo as informações que a vinculam a palavras relacionadas, como médico, hospital e medicina.

    "Precisamos preservar essa informação semântica", diz Ding. "Sem ele, os embeddings teriam um desempenho muito ruim [em tarefas e sistemas de processamento de linguagem natural]."

    Rápido, preciso e justo

    A nova metodologia também superou os principais métodos de debiasing em várias tarefas avaliadas com base na incorporação de palavras.

    À medida que se torna refinada, a metodologia pode oferecer uma estrutura flexível que outros pesquisadores podem aplicar às suas próprias incorporações de palavras. Desde que um pesquisador tenha orientação sobre o grupo certo de palavras a ser usado, a metodologia pode ser usada para reduzir o viés vinculado a qualquer grupo específico.

    Embora nesta fase a metodologia ainda exija a contribuição do pesquisador, Ding explica que pode ser possível no futuro ter algum tipo de sistema ou filtro embutido que possa remover automaticamente o preconceito de gênero em vários contextos.

    Publicado nos Proceedings of the AAAI Conference on Artificial Intelligence , a nova metodologia faz parte de um projeto maior, intitulado BIAS:Responsible AI for Gender and Ethnic Labor Equality, que busca resolver problemas do mundo real.

    Por exemplo, as pessoas que lêem o mesmo anúncio de emprego podem responder de maneira diferente a determinadas palavras na descrição que geralmente têm uma associação de gênero. Um sistema usando a metodologia criada por Ding e seus colaboradores seria capaz de sinalizar as palavras que podem mudar a percepção de um candidato potencial sobre o trabalho ou a decisão de se candidatar devido ao viés de gênero percebido e sugerir palavras alternativas para reduzir esse viés.

    Embora muitos modelos e sistemas de IA estejam focados em encontrar maneiras de executar tarefas com maior velocidade e precisão, Ding observa que o trabalho da equipe faz parte de um campo crescente que busca avançar em outro aspecto importante desses modelos e sistemas.

    “As pessoas estão se concentrando mais na responsabilidade e justiça nos sistemas de inteligência artificial”. + Explorar mais

    Google se move para reduzir o preconceito de gênero na tradução




    © Ciência https://pt.scienceaq.com