Evidências revelam que algoritmos de avaliação de risco mostram preconceito contra a população hispânica
Um estudo conduzido pela Universidade da Califórnia, Berkeley, publicado na revista Science, descobriu que os algoritmos de avaliação de risco utilizados no sistema de justiça criminal mostram preconceitos contra a população hispânica. O estudo analisou dados de mais de 20 milhões de casos criminais e descobriu que os algoritmos eram mais propensos a prever que os arguidos hispânicos cometeriam crimes futuros do que os arguidos brancos, mesmo quando tinham antecedentes criminais semelhantes e outros factores de risco.
As conclusões do estudo levantaram preocupações sobre a justiça e a precisão dos algoritmos de avaliação de risco, que são cada vez mais utilizados para tomar decisões sobre liberdade pré-julgamento, sentença e liberdade condicional. Os críticos argumentam que estes algoritmos podem perpetuar as disparidades raciais e étnicas no sistema de justiça criminal, superestimando sistematicamente o risco de reincidência para certos grupos de pessoas.
Em resposta a estas preocupações, algumas jurisdições começaram a tomar medidas para abordar o preconceito algorítmico. Por exemplo, a Califórnia aprovou recentemente uma lei que exige que os algoritmos de avaliação de risco sejam auditados quanto a preconceitos e que proíbe a utilização de algoritmos que discriminem com base na raça ou etnia. Outras jurisdições estão a considerar medidas semelhantes para garantir que os algoritmos de avaliação de risco sejam utilizados de forma justa e equitativa.
As descobertas do estudo são um lembrete dos perigos potenciais do uso de algoritmos para tomar decisões sobre a vida das pessoas. É importante considerar cuidadosamente o potencial de preconceito e discriminação ao desenvolver e utilizar estes algoritmos, e tomar medidas para mitigar estes riscos.