Barreiras de entrada para mulheres são ampliadas pela IA em algoritmos de recrutamento, achados de estudo
p Crédito:Pixabay / CC0 Public Domain
p Os preconceitos de gênero humano que limitam as oportunidades de recrutamento para mulheres são imitados e exacerbados pela inteligência artificial (IA) usada para classificar currículos, de acordo com novas pesquisas. p O estudo, encomendado pelo UniBank, analisaram como um painel de 40 recrutadores humanos reagiu quando exatamente os mesmos currículos foram apresentados com os sexos masculino e feminino trocados. O processo foi então aplicado a diferentes algoritmos de contratação para ver se a IA reproduzia os preconceitos humanos.
p A pesquisa descobriu que o painel de recrutamento humano demonstrou os exemplos mais fortes de preconceito não intencional, consistentemente preferindo currículos dos candidatos do sexo masculino aos equivalentes do sexo feminino.
p Relatório coautor e pesquisador de políticas de gênero do Laboratório de Políticas da Universidade, A professora associada Leah Ruppanner disse que sabemos que mais mulheres do que homens perderam seus empregos durante a pandemia.
p "Infelizmente, para funções de dados e finanças, currículos femininos foram classificados abaixo dos homens por nossos painelistas humanos, embora tivessem as mesmas qualificações e experiência, "Professor Ruppanner disse.
p Relatório coautor e pesquisador de ética digital do Center for AI and Digital Ethics (CAIDE), Dr. Marc Cheong disse que algoritmos foram desenvolvidos pelos pesquisadores para replicar as preferências do painel humano.
Crédito:Universidade de Melbourne p A pesquisa mostrou que mesmo algoritmos básicos podem imitar o preconceito de gênero humano subconsciente, sem levar em conta os méritos de um candidato.
p "Mesmo quando os nomes dos candidatos foram removidos, A AI avaliou currículos com base em padrões históricos de contratação, onde as preferências tendiam para candidatos do sexo masculino. Por exemplo, dar vantagem a candidatos com anos de serviço contínuo colocaria automaticamente em desvantagem as mulheres que se afastaram do trabalho por responsabilidades de cuidados, "Dr. Cheong disse.
p "Também, no caso de IAs mais avançados que operam dentro de uma "caixa preta" sem transparência ou supervisão humana, existe o perigo de que qualquer tendência inicial seja amplificada. "
p Gerente Geral do UniBank, Mike Lanzing, dito à medida que o uso de inteligência artificial se torna mais comum, é importante entender como os preconceitos existentes estão alimentando modelos supostamente imparciais.
Crédito:Universidade de Melbourne p "Precisamos tomar cuidado para não reverter décadas de progresso em direção à independência financeira e segurança das mulheres, reforçando atitudes desatualizadas sobre o tipo de trabalho para o qual as mulheres são adequadas, "Disse o Sr. Lanzing.
p O relatório sugeriu uma série de medidas que poderiam reduzir o preconceito nesses processos, incluindo programas de treinamento para profissionais de recursos humanos e a criação de algoritmos de contratação transparentes projetados para reduzir o preconceito de gênero.