• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  •  science >> Ciência >  >> Outros
    Evidências revelam que algoritmos de avaliação de risco mostram preconceito contra a população hispânica
    p Crédito CC0:domínio público

    p A avaliação de risco automatizada se tornou cada vez mais popular no sistema de justiça criminal, mas um novo estudo publicado no American Criminal Law Review avaliou a precisão, validade e capacidade preditiva de uma ferramenta de algoritmo de avaliação de risco para revelar injustiça algorítmica contra hispânicos. p A avaliação de risco pode ser uma forma objetiva de reduzir as taxas de prisão sem colocar em risco a segurança pública, e os funcionários da justiça criminal dependem cada vez mais do processamento algorítmico para informar as decisões sobre o gerenciamento dos infratores de acordo com seus perfis de risco. Contudo, há evidências alarmantes que sugerem que os algoritmos de risco são potencialmente tendenciosos contra grupos minoritários.

    p Leitora de Direito e Justiça Criminal da Universidade de Surrey, Dra. Melissa Hamilton, usou um grande conjunto de dados de réus pré-julgamento que foram pontuados no COMPAS - uma ferramenta algorítmica de avaliação de risco amplamente usada - logo após suas prisões para avaliar o impacto deste algoritmo ferramenta especificamente no grupo de minoria hispânica.

    p Dr. Hamilton disse:"Há um equívoco de que as ferramentas algorítmicas de avaliação de risco desenvolvidas usando big data representam automaticamente uma forma transparente, método consistente e lógico para classificar os infratores. Minha pesquisa sugere que as ferramentas de risco podem fornecer resultados desiguais para grupos minoritários se eles deixarem de considerar suas diferenças culturais. O preconceito ocorre quando as ferramentas de risco são amplamente padronizadas em um grupo, por exemplo amostras brancas, como resultado, eles fornecem previsões imprecisas para grupos minoritários.

    p "A evidência cumulativa mostrou que o COMPAS exibiu consistentemente resultados algorítmicos injustos e tendenciosos para aqueles de etnia hispânica, com estatísticas apresentando validade diferencial e capacidade preditiva diferencial. A ferramenta falha em prever com precisão os resultados reais, subsequentemente, superestimando o nível de risco de reincidência para os réus hispânicos antes do julgamento. "

    p Embora tenha havido avanços impressionantes nas ciências do comportamento, a disponibilidade de big data e modelagem estatística, os oficiais de justiça devem estar cientes de que é necessário maior cuidado para garantir que estudos de validação adequados sejam realizados antes do uso de uma ferramenta de risco algorítmica, para confirmar que é justo para a população e subpopulações pretendidas.


    © Ciência https://pt.scienceaq.com