• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  •  science >> Ciência >  >> Outros
    Ajudando a polícia a tomar decisões de custódia usando inteligência artificial
    p Crédito:Rene Böhmer em Unsplash

    p A polícia na "linha de frente" de difíceis julgamentos baseados em risco está testando um sistema de IA treinado por criminologistas da Universidade de Cambridge para dar orientação usando os resultados de cinco anos de históricos criminais. p "São 3 da manhã de sábado. O homem à sua frente foi pego em posse de drogas. Ele não tem armas, e nenhum registro de quaisquer crimes violentos ou graves. Você solta o homem sob fiança da polícia na manhã seguinte, ou mantê-lo preso por dois dias para garantir que ele compareça ao tribunal na segunda-feira? "

    p O tipo de cenário que o Dr. Geoffrey Barnes está descrevendo - seja para deter um suspeito sob custódia policial ou libertá-lo sob fiança - ocorre centenas de milhares de vezes por ano em todo o Reino Unido. O resultado desta decisão pode ser importante para o suspeito, para a segurança pública e para a polícia.

    p "Os policiais que tomam essas decisões de custódia são altamente experientes, "explica Barnes." Mas todo o seu conhecimento e habilidades de policiamento não podem dizer a eles a única coisa de que mais precisam agora sobre o suspeito - qual a probabilidade de ele causar danos graves se forem libertados? Este é um trabalho que realmente assusta as pessoas - elas estão na linha de frente da tomada de decisões com base no risco. "

    p Barnes e o professor Lawrence Sherman, que lidera o Jerry Lee Center for Experimental Criminology no Instituto de Criminologia da Universidade de Cambridge, têm trabalhado com forças policiais em todo o mundo para perguntar se a IA pode ajudar.

    p "Imagine uma situação em que o oficial tem o benefício de cem mil, e mais, experiências anteriores reais de decisões de custódia? ", diz Sherman." Ninguém pode ter esse número de experiências, mas uma máquina pode. "

    p Em meados de 2016, com financiamento do Monument Trust, os pesquisadores instalaram a primeira ferramenta de IA do mundo para ajudar a polícia a tomar decisões de custódia na Polícia de Durham.

    p Chamada de Ferramenta de Avaliação de Risco de Danos (HART), a tecnologia baseada em AI usa 104, 000 histórias de pessoas anteriormente detidas e processadas em salas de custódia de Durham ao longo de cinco anos, com um acompanhamento de dois anos para cada decisão de custódia. Usando um método chamado "florestas aleatórias", o modelo analisa um grande número de combinações de 'valores preditores', a maioria dos quais se concentra no histórico de ofensas do suspeito, bem como a idade, gênero e área geográfica.

    p "Essas variáveis ​​são combinadas de milhares de maneiras diferentes antes que uma conclusão final prevista seja alcançada, "explica Barnes." Imagine um ser humano segurando esse número de variáveis ​​em sua cabeça, e fazer todas essas conexões antes de tomar uma decisão. Nossas mentes simplesmente não podem fazer isso. "

    p O objetivo do HART é categorizar se nos próximos dois anos um criminoso é de alto risco (altamente provável de cometer um novo crime grave, como assassinato, violência agravada, crimes sexuais ou roubo); risco moderado (probabilidade de cometer um delito leve); ou de baixo risco (improvável de cometer qualquer crime).

    p "A necessidade de uma boa previsão não se trata apenas de identificar as pessoas perigosas, "explica Sherman." É também sobre a identificação de pessoas que definitivamente não são perigosas. Para cada caso de um suspeito sob fiança que mata alguém, há dezenas de milhares de suspeitos não violentos que ficam presos por mais tempo do que o necessário. "

    p A Polícia de Durham deseja identificar o grupo de 'risco moderado' - responsável por pouco menos da metade de todos os suspeitos, de acordo com as estatísticas geradas pelo HART. Esses indivíduos podem se beneficiar de seu programa Checkpoint, que visa combater as causas profundas da ofensa e oferecer uma alternativa à ação penal que, segundo eles, transformará riscos moderados em riscos baixos.

    p "São agulhas e palheiros, "diz Sherman." Por um lado, as perigosas 'agulhas' são muito raras para que alguém as encontre com frequência suficiente para avistá-las. No outro, o 'feno' não representa nenhuma ameaça e mantê-los sob custódia desperdiça recursos e pode até fazer mais mal do que bem. ”Um ensaio clínico randomizado está em andamento em Durham para testar o uso do Checkpoint entre aqueles considerados de risco moderado.

    p O HART também está sendo atualizado com dados mais recentes - uma etapa que Barnes explica que será uma parte importante deste tipo de ferramenta:"Um tomador de decisão humano pode se adaptar imediatamente a um contexto em mudança - como a priorização de certas ofensas, como crimes de ódio - mas o mesmo não pode necessariamente ser dito de uma ferramenta algorítmica. Isso sugere a necessidade de um escrutínio cuidadoso e constante dos preditores usados ​​e de atualização frequente do algoritmo com dados históricos mais recentes. "

    p Nenhuma ferramenta de previsão pode ser perfeita. Um estudo de validação independente do HART encontrou uma precisão geral de cerca de 63%. Mas, disse Barnes, o verdadeiro poder do aprendizado de máquina não vem de evitar erros, mas de decidir quais erros você mais deseja evitar.

    p "Nem todos os erros são iguais, "diz Sheena Urwin, chefe da justiça criminal da Durham Constabulary e graduado do Programa de Mestrado Executivo em Polícia do Instituto de Criminologia. "O pior erro seria se o modelo projetasse baixo e o infrator resultasse alto."

    p "Em consulta com a polícia de Durham, construímos um sistema que é 98% preciso para evitar esta forma mais perigosa de erro - o 'falso negativo' - o infrator que se prevê ser relativamente seguro, mas então continua a cometer uma ofensa violenta séria, "acrescenta Barnes." A IA é infinitamente ajustável e, ao construir uma ferramenta de IA, é importante pesar a rota mais eticamente apropriada a seguir. "

    p Os pesquisadores também enfatizam que os resultados do HART são apenas para orientação, e que a decisão final é do policial responsável.

    p "O HART usa os dados de Durham e, portanto, só é relevante para crimes cometidos na jurisdição da Polícia de Durham. Essa limitação é uma das razões pelas quais esses modelos devem ser considerados como um apoio aos tomadores de decisão humanos, e não os substituindo. "explica Barnes." Essas tecnologias não são, deles mesmos, balas de prata para a aplicação da lei, e também não são maquinações sinistras de um chamado estado de vigilância. "

    p Algumas decisões, diz Sherman, têm um impacto muito grande na sociedade e no bem-estar dos indivíduos para que sejam influenciados por uma tecnologia emergente.

    p Onde as ferramentas baseadas em IA oferecem uma grande promessa, Contudo, é usar a previsão do nível de risco dos infratores para uma 'triagem' eficaz, como Sherman descreve:"O serviço policial está sob pressão para fazer mais com menos, para direcionar recursos de forma mais eficiente, e para manter o público seguro.

    p "A ferramenta ajuda a identificar as poucas 'agulhas no palheiro' que representam um grande perigo para a comunidade, e cuja liberação deve estar sujeita a camadas adicionais de revisão. Ao mesmo tempo, uma melhor triagem pode fazer com que os infratores certos recebam decisões de liberação que beneficiam a eles e à sociedade. "


    © Ciência https://pt.scienceaq.com