• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Novo algoritmo limita o viés no aprendizado de máquina

    Crédito CC0:domínio público

    O aprendizado de máquina - uma forma de inteligência artificial baseada na ideia de que os computadores podem aprender com os dados e fazer determinações com pouca ajuda dos humanos - tem o potencial de melhorar nossas vidas de inúmeras maneiras. De carros autônomos a exames de mamografia que podem ler a si mesmos, o aprendizado de máquina está transformando a vida moderna.

    É fácil presumir que o uso de algoritmos para tomada de decisão remove o preconceito humano da equação. Mas os pesquisadores descobriram que o aprendizado de máquina pode produzir determinações injustas em certos contextos, como contratar alguém para um trabalho. Por exemplo, se os dados inseridos no algoritmo sugerirem que os homens são mais produtivos do que as mulheres, a máquina provavelmente "aprenderá" essa diferença e favorecerá os candidatos do sexo masculino em vez do feminino, faltando o viés da entrada. E os gerentes podem falhar em detectar a discriminação da máquina, pensando que uma decisão automatizada é inerentemente neutra, resultando em práticas de contratação injustas.

    Em um novo artigo publicado nos Anais da 35ª Conferência sobre Aprendizado de Máquina, SFI Postdoctoral Fellow Hajime Shimao e Junpei Komiyama, pesquisador associado da Universidade de Tóquio, oferecem uma maneira de garantir justiça no aprendizado de máquina. Eles desenvolveram um algoritmo que impõe uma restrição de justiça que evita o preconceito.

    "Então, digamos que a taxa de aprovação de cartão de crédito de [clientes] negros não pode ser diferente de mais de 20 por cento. Com esse tipo de restrição, nosso algoritmo pode pegar isso e dar a melhor previsão de satisfação da restrição, "Shimao diz." Se você quiser a diferença de 20 por cento, diga isso para a nossa máquina, e nossa máquina pode satisfazer essa restrição. "

    Essa capacidade de calibrar com precisão a restrição permite que as empresas garantam o cumprimento das leis federais de não discriminação, adiciona Komiyama. O algoritmo da equipe "nos permite controlar estritamente o nível de justiça exigido nesses contextos jurídicos, "Komiyama diz.

    A correção do viés envolve uma troca, no entanto, Shimao e Komiyama anotam no estudo. Como a restrição pode afetar a forma como a máquina lê outros aspectos dos dados, pode sacrificar parte do poder preditivo da máquina.

    Shimao diz que gostaria que as empresas usassem o algoritmo para ajudar a erradicar a discriminação oculta que pode estar oculta em seus programas de aprendizado de máquina. "Nossa esperança é que seja algo que possa ser usado para que as máquinas possam ser impedidas de discriminação sempre que necessário."


    © Ciência https://pt.scienceaq.com