• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Os algoritmos de contratação são justos? Eles são muito opacos para dizer, achados de estudo

    Crédito CC0:domínio público

    Tempo é dinheiro e, infelizmente para empresas, a contratação de novos funcionários leva um tempo significativo - mais de um mês em média, mostra de pesquisa.

    As decisões de contratação também estão repletas de preconceitos humanos, levando algumas organizações a entregar pelo menos parte das pesquisas de seus funcionários para empresas de tecnologia externas que selecionam os candidatos com algoritmos de aprendizado de máquina. Se os humanos têm tanta dificuldade em encontrar o melhor ajuste para suas empresas, o pensamento vai, talvez uma máquina possa fazer isso melhor e com mais eficiência.

    Mas uma nova pesquisa de uma equipe de estudiosos da Computação e Ciência da Informação da Cornell University levanta questões sobre esses algoritmos e as empresas de tecnologia que os desenvolvem e usam:Quão imparcial é o processo de triagem automatizado? Como os algoritmos são construídos? E por quem, para que fim, e com quais dados?

    Eles descobriram que as empresas tendem a favorecer a obscuridade em vez da transparência neste campo emergente, onde a falta de consenso sobre os pontos fundamentais - definições formais de "preconceito" e "justiça, "para começar - permitiu que as empresas de tecnologia definissem e abordassem o viés algorítmico em seus próprios termos.

    "Acho que estamos começando a ver um reconhecimento crescente entre os criadores de ferramentas algorítmicas de tomada de decisão de que eles precisam estar particularmente cientes de como suas ferramentas impactam as pessoas, "disse Manish Raghavan, estudante de doutorado em ciência da computação e primeiro autor de "Mitigating Bias in Algorithmic Employment Screening:Evaluating Claims and Practices, "a ser apresentado em janeiro na Association for Computing Machinery Conference on Fairness, Responsabilidade e transparência.

    "Muitos dos fornecedores que encontramos em nosso trabalho reconhecem esse (impacto) e estão tomando medidas para lidar com o preconceito e a discriminação, "Raghavan disse." No entanto, há uma notável falta de consenso ou direção sobre exatamente como isso deve ser feito. "

    Os pesquisadores vasculharam as informações públicas disponíveis para começar a entender essas ferramentas e quais medidas, caso existam, as empresas devem avaliar e mitigar o viés algorítmico. Protegido por leis de propriedade intelectual, as empresas de tecnologia não precisam divulgar nenhuma informação sobre seus modelos algorítmicos para exames de pré-emprego - embora algumas empresas tenham optado por oferecer insights.

    Os pesquisadores se concentraram em 19 fornecedores especializados em exames algorítmicos de pré-emprego, que, eles encontraram, inclua perguntas, análise de entrevistas em vídeo e jogos. Eles vasculharam os sites da empresa, webinars e quaisquer documentos disponíveis para insights sobre as reivindicações e práticas dos fornecedores.

    Muito poucos fornecedores oferecem informações concretas sobre como validam suas avaliações ou divulgam detalhes sobre como atenuam o viés algorítmico, pesquisadores encontrados.

    "Muitos fornecedores não mencionam os esforços para combater o preconceito, o que é particularmente preocupante, já que eles não estão pensando nisso, ou não estão sendo transparentes sobre suas práticas, "Raghavan disse.

    Mesmo que usem termos como "parcialidade" e "justiça, "isso pode ser vago. Um fornecedor pode alegar que seu algoritmo de avaliação é" justo "sem revelar como a empresa define justiça.

    É como ovos "caipiras", Raghavan disse:Há um conjunto de condições sob as quais os ovos podem ser rotulados ao ar livre, mas nossa noção intuitiva de área livre pode não corresponder a essas condições.

    "Do mesmo jeito, chamar um algoritmo de 'justo' apela à nossa compreensão intuitiva do termo, ao mesmo tempo que obtém um resultado muito mais restrito do que poderíamos esperar, " ele disse.

    A equipe espera que o artigo incentive a transparência e o diálogo sobre o que significa agir com ética neste domínio de avaliações pré-contratação por meio do aprendizado de máquina.

    Dados os desafios, será que os algoritmos simplesmente não estão à altura do trabalho de triagem de candidatos? Não tão rápido, Raghavan disse.

    "Sabemos, por anos de evidências empíricas, que os humanos sofrem de uma variedade de vieses quando se trata de avaliar candidatos a emprego, "disse ele." A verdadeira questão não é se os algoritmos podem ser aperfeiçoados; em vez de, a comparação relevante é se eles podem melhorar os métodos alternativos, ou neste caso, o status quo humano.

    "Apesar de suas muitas falhas, " ele disse, "algoritmos têm o potencial de contribuir para uma sociedade mais justa, e mais trabalho é necessário para garantir que possamos compreender e mitigar os preconceitos que eles trazem. "

    Os co-autores do artigo são Solon Barocas, professor assistente de ciência da informação, atualmente na Microsoft Research; Jon Kleinberg, Professor de Ciência da Computação da Tisch University e reitor interino do CIS; e Karen Levy, professor assistente de ciência da informação.


    © Ciência https://pt.scienceaq.com