• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Accenture lançará nova ferramenta para ajudar os clientes a identificar e corrigir tendências injustas em algoritmos de IA
    p Crédito CC0:domínio público

    p Accenture, uma empresa de serviços profissionais, em breve lançará uma nova ferramenta destinada a ajudar seus clientes a encontrar tendências injustas em algoritmos de IA. Uma vez que esse preconceito injusto é descoberto, representantes da empresa disseram à imprensa, eles podem ser removidos. p Conforme os cientistas e engenheiros continuam a melhorar a tecnologia de IA, mais empresas estão usando ferramentas baseadas em IA para conduzir negócios. Usar aplicativos de IA para processar pedidos de crédito está se tornando rotina, por exemplo. Mas existe uma preocupação de que tais aplicações possam ter preconceitos embutidos, que produzem resultados que podem ser considerados injustos. Esses aplicativos podem, por exemplo, têm um preconceito racial ou de gênero embutido, o que pode distorcer os resultados. Em resposta a tais reivindicações, muitas grandes corporações começaram a adicionar filtros de polarização a seu conjunto de aplicativos. Mas, como os representantes da Accenture apontaram, empresas menores provavelmente não têm recursos para fazer isso. A nova ferramenta que desenvolveram será comercializada com essas empresas em mente.

    p Um protótipo da nova ferramenta (que alguns começaram a chamar de Fairness Tool) está sendo testado em campo com um parceiro desconhecido em aplicações de risco de crédito. A empresa anunciou que está planejando um lançamento suave em um futuro próximo. Eles também anunciaram que a ferramenta fará parte de um programa maior oferecido pela empresa chamado AI Launchpad. Além das ferramentas de IA, o programa também inclui treinamento de ética e responsabilidade para os funcionários.

    p Para descobrir quais tipos de dados usados ​​por um aplicativo de IA podem representar viés, a ferramenta usa métodos estatísticos projetados para comparar variáveis ​​predefinidas como justas ou injustas. Ele também examinará outras variáveis ​​que podem conter tendências ocultas. Dados que incluem receita, por exemplo, pode representar um preconceito oculto contra as mulheres ou minorias, mesmo se não houver dados especificando gênero ou raça. A ferramenta também pode ser usada para implementar mudanças no algoritmo de um cliente, esperançosamente tornando-o menos tendencioso. Mas os representantes da Accenture observam que fazer isso pode fazer com que alguns algoritmos sejam menos precisos em geral. p © 2018 Tech Xplore




    © Ciência https://pt.scienceaq.com