As ferramentas de condenação de IA precisam ser examinadas de perto, diz novo estudo
p Crédito CC0:domínio público
p Em um artigo publicado pela
Ciências do Comportamento e Direito Diário, especialistas da Universidade de Surrey analisam criticamente o uso crescente de ferramentas algorítmicas de avaliação de risco, que atuam como uma forma de prova científica especializada em um número crescente de processos criminais. p A revisão argumenta que, devido a vários problemas, como os preconceitos dos desenvolvedores e evidências estatísticas fracas do desempenho preditivo da IA, os juízes devem atuar como guardiões e examinar de perto se tais ferramentas devem ser usadas.
p O artigo descreve três etapas que os juízes devem considerar:
- Ginástica, isso é para considerar se o uso da ferramenta de IA é relevante para o caso
- Precisão, isso é para entender se a ferramenta pode realmente distinguir entre reincidentes e não reincidentes
- Confiabilidade, isso exigiria que os juízes examinassem a confiabilidade dos resultados da ferramenta na prática. Esta etapa não seria necessária se o juiz considerasse a IA deficiente em uma das duas primeiras etapas.
p Dra. Melissa Hamilton, autor do artigo e leitor de Direito e Justiça Criminal na Escola de Direito da Universidade de Surrey, disse:"Essas ferramentas emergentes de IA têm o potencial de oferecer benefícios aos juízes nas sentenças, mas deve-se prestar muita atenção para saber se eles são confiáveis. Se usadas descuidadamente, essas ferramentas prestarão um péssimo serviço aos réus na ponta receptora. "