• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  •  Science >> Ciência >  >> Outros
    Algoritmos ajudam as pessoas a ver e corrigir seus preconceitos, mostra estudo

    Algoritmos podem servir como espelhos para você verificar seus preconceitos. Crédito:Unsplash/CC0 Domínio Público


    Algoritmos são um elemento básico da vida moderna. As pessoas confiam em recomendações algorítmicas para percorrer catálogos profundos e encontrar os melhores filmes, rotas, informações, produtos, pessoas e investimentos. Como as pessoas treinam algoritmos nas suas decisões – por exemplo, algoritmos que fazem recomendações em sites de comércio eletrónico e de redes sociais – os algoritmos aprendem e codificam os preconceitos humanos.



    As recomendações algorítmicas apresentam preconceito em relação às escolhas populares e às informações que evocam indignação, como notícias partidárias. A nível social, os preconceitos algorítmicos perpetuam e amplificam os preconceitos raciais estruturais no sistema judicial, os preconceitos de género nas pessoas que as empresas contratam e a desigualdade de riqueza no desenvolvimento urbano.

    O preconceito algorítmico também pode ser usado para reduzir o preconceito humano. Os algoritmos podem revelar preconceitos estruturais ocultos nas organizações. Em um artigo publicado no Proceedings of the National Academy of Science , meus colegas e eu descobrimos que o preconceito algorítmico pode ajudar as pessoas a reconhecer e corrigir melhor os preconceitos em si mesmas.

    O preconceito no espelho


    Em nove experimentos, Begum Celikitutan, Romain Cadario e eu fizemos com que os participantes da pesquisa avaliassem motoristas do Uber ou anúncios do Airbnb com base em suas habilidades de condução, confiabilidade ou probabilidade de alugarem o anúncio. Fornecemos aos participantes detalhes relevantes, como o número de viagens que fizeram, uma descrição da propriedade ou uma classificação por estrelas. Também incluímos uma informação tendenciosa irrelevante:uma fotografia revelava a idade, o sexo e a atratividade dos motoristas, ou um nome que sugeria que os anfitriões da lista eram brancos ou negros.

    Depois que os participantes fizeram suas classificações, mostramos a eles um dos dois resumos de classificações:um mostrando suas próprias classificações ou outro mostrando as classificações de um algoritmo que foi treinado com base em suas classificações. Dissemos aos participantes sobre o recurso tendencioso que pode ter influenciado essas classificações; por exemplo, é menos provável que os hóspedes da Airbnb aluguem a anfitriões com nomes claramente afro-americanos. Em seguida, pedimos que avaliassem quanta influência o preconceito teve nas classificações dos resumos.

    Independentemente de os participantes avaliarem a influência tendenciosa da raça, idade, sexo ou atratividade, eles observaram mais preconceitos nas classificações feitas pelos algoritmos do que eles próprios. Este efeito de espelho algorítmico manteve-se quer os participantes julgassem as classificações de algoritmos reais ou mostrássemos aos participantes as suas próprias classificações e disséssemos-lhes enganosamente que um algoritmo fez essas classificações.
    O autor descreve como os algoritmos podem ser úteis como espelho dos preconceitos das pessoas.

    Os participantes viram mais preconceitos nas decisões dos algoritmos do que nas suas próprias decisões, mesmo quando demos aos participantes um bónus em dinheiro se os seus julgamentos tendenciosos correspondessem aos julgamentos feitos por um participante diferente que viu as mesmas decisões. O efeito de espelho algorítmico manteve-se mesmo que os participantes estivessem na categoria marginalizada – por exemplo, identificando-se como mulher ou como negro.

    Os participantes da pesquisa foram tão capazes de ver preconceitos em algoritmos treinados em suas próprias decisões quanto foram capazes de ver preconceitos nas decisões de outras pessoas. Além disso, os participantes eram mais propensos a ver a influência do preconceito racial nas decisões dos algoritmos do que nas suas próprias decisões, mas eram igualmente propensos a ver a influência de características defensáveis, como classificações por estrelas, nas decisões dos algoritmos e nas suas próprias decisões. decisões.

    Ponto cego de preconceito


    As pessoas veem mais seus preconceitos nos algoritmos porque os algoritmos removem os pontos cegos dos preconceitos das pessoas. É mais fácil ver preconceitos nas decisões dos outros do que nas suas próprias, porque você usa evidências diferentes para avaliá-las.

    Ao examinar suas decisões em busca de preconceito, você procura evidências de preconceito consciente – quer você tenha pensado em raça, gênero, idade, status ou outras características injustificadas ao decidir. Você ignora e desculpa o preconceito em suas decisões porque não tem acesso ao mecanismo associativo que orienta seus julgamentos intuitivos, onde o preconceito geralmente ocorre. Você pode pensar:“Não pensei na raça ou no sexo deles quando os contratei. Contratei-os apenas por mérito”.

    Ao examinar as decisões dos outros em busca de preconceitos, você não terá acesso aos processos que eles usaram para tomar as decisões. Então você examina suas decisões em busca de preconceitos, onde o preconceito é evidente e mais difícil de desculpar. Você pode ver, por exemplo, que eles contrataram apenas homens brancos.

    Os algoritmos removem o ponto cego do preconceito porque você vê os algoritmos mais como vê as outras pessoas do que você mesmo. Os processos de tomada de decisão dos algoritmos são uma caixa preta, semelhante à forma como os pensamentos de outras pessoas são inacessíveis para você.
    O ponto cego do preconceito explicado.

    Os participantes do nosso estudo que tinham maior probabilidade de demonstrar o ponto cego do preconceito tinham maior probabilidade de ver mais preconceitos nas decisões dos algoritmos do que nas suas próprias decisões.

    As pessoas também externalizam preconceitos em algoritmos. Ver preconceitos em algoritmos é menos ameaçador do que ver preconceitos em você mesmo, mesmo quando os algoritmos são treinados de acordo com suas escolhas. As pessoas colocam a culpa nos algoritmos. Os algoritmos são treinados em decisões humanas, mas as pessoas chamam o viés refletido de “viés algorítmico”.

    Lente corretiva


    Nossos experimentos mostram que as pessoas também têm maior probabilidade de corrigir seus preconceitos quando eles são refletidos em algoritmos. Numa experiência final, demos aos participantes a oportunidade de corrigir as classificações que avaliaram. Mostramos a cada participante suas próprias classificações, que atribuímos ao participante ou a um algoritmo treinado em suas decisões.

    Os participantes eram mais propensos a corrigir as classificações quando estas eram atribuídas a um algoritmo porque acreditavam que as classificações eram mais tendenciosas. Como resultado, as classificações finais corrigidas foram menos tendenciosas quando atribuídas a um algoritmo.

    Vieses algorítmicos que têm efeitos perniciosos foram bem documentados. Nossas descobertas mostram que o viés algorítmico pode ser aproveitado para sempre. O primeiro passo para corrigir o preconceito é reconhecer a sua influência e direção. Como espelhos que revelam os nossos preconceitos, os algoritmos podem melhorar a nossa tomada de decisões.

    Informações do diário: Anais da Academia Nacional de Ciências

    Fornecido por The Conversation


    Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.




    © Ciência https://pt.scienceaq.com