• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Por que a polícia deve usar o aprendizado de máquina - com muito cuidado

    Crédito:Kirill_makarov / Shutterstock.com

    O debate sobre o uso do aprendizado de máquina pela polícia está se intensificando - ele é considerado, em alguns setores, tão polêmico quanto pare e busque.

    Stop and search é uma das áreas mais controversas de como a polícia interage com o público. Foi fortemente criticado por ser discriminatório em relação a grupos étnicos minoritários e negros, e por ter efeitos marginais na redução do crime. Do mesmo jeito, o uso de algoritmos de aprendizado de máquina pela polícia foi condenado por grupos de direitos humanos que afirmam que tais programas incentivam a discriminação e o perfil racial junto com a ameaça à privacidade e à liberdade de expressão.

    Em termos gerais, o aprendizado de máquina usa dados para ensinar os computadores a tomar decisões sem instruí-los explicitamente sobre como fazê-lo. O aprendizado de máquina é usado com sucesso em muitos setores para criar eficiência, priorizar riscos e melhorar a tomada de decisões.

    Embora estejam em um estágio muito inicial, a polícia do Reino Unido está explorando os benefícios do uso de métodos de aprendizado de máquina para prevenir e detectar crimes, e desenvolver novas percepções para lidar com problemas de interesse público significativo.

    É verdade que existem problemas potenciais com qualquer uso de algoritmos de aprendizado de máquina probabilísticos no policiamento. Por exemplo, ao usar dados históricos, existem riscos de que algoritmos, ao fazer previsões, discriminará injustamente certos grupos de pessoas. Mas se a polícia abordar o uso dessa tecnologia da maneira certa, não deve ser tão polêmico quanto parar e revistar e pode contribuir muito para que a polícia seja mais eficaz na prevenção e solução de crimes.

    Um desafio de policiamento moderno

    Considere o caso da recente preocupação do público com os vídeos musicais de exercícios e seu conteúdo lírico exclusivo sendo supostamente usado para inspirar, incite e glorifique a violência séria.

    A música de treino tem, ao longo dos últimos anos, espalhou-se para as principais cidades do Reino Unido. Plataformas de mídia social, como YouTube e Instagram, ao mesmo tempo, testemunhou um aumento significativo nos vídeos musicais de exercícios carregados online. Muitos dos vídeos, que apresentam rappers do sexo masculino usando máscaras faciais, usando violento, linguagem provocativa e niilista, receber milhões de visualizações.

    O policial mais graduado do Reino Unido, Comissária Cressida Dick, criticou publicamente vídeos musicais de exercícios, afirmando que eles são usados ​​para exaltar o assassinato e a violência grave e aumentar as tensões entre gangues de rua rivais.

    Muitas pessoas discordam da acusação da polícia pela música de treino. Os defensores deste gênero musical argumentam que assassinato e violência não são fenômenos novos, e não deve ser considerado causal para treinar artistas que fazem rap sobre as duras realidades de suas experiências vividas. Alguns acadêmicos também estão preocupados com o fato de que a abordagem policial atual "está levando à criminalização das atividades cotidianas" e que "jovens de origens pobres estão agora sendo categorizados como criadores de problemas pelo mero ato de fazer um videoclipe".

    No entanto, para a polícia, esta é uma questão importante:eles têm a responsabilidade legal de proteger a vida e gerenciar os riscos para o público. Como tal, detectar conteúdo online prejudicial que, por exemplo, pode conter uma ameaça à vida de uma pessoa, é um problema de policiamento operacional contemporâneo, e um problema tecnológico intratável que a polícia precisa ser capaz de resolver.

    Desenvolvimento de ferramentas de aprendizado de máquina

    Os policiais que veem manualmente grandes quantidades de vídeos para identificar e discernir o conteúdo prejudicial e criminoso da expressão criativa legítima é extremamente ineficiente. Como tal, deve ser automatizado. Sim, existem atualmente desafios técnicos significativos para algoritmos de aprendizado de máquina para entender esse conteúdo lírico exclusivo. Mas esse tipo de problema, para pesquisadores, se encaixa perfeitamente no campo crescente de aprendizado de máquina do processamento de linguagem natural. Este é um campo que usa técnicas computacionais para entender a linguagem e a fala humana.

    Mais amplamente, faltam pesquisas sobre o impacto social do uso do aprendizado de máquina pela polícia para prevenir e detectar o crime. Enquanto isso, para evitar polêmica, a polícia não deve confiar em modelos opacos de aprendizado de máquina "caixa preta" prontos para uso que não foram testados em um contexto de policiamento operacional para automatizar a análise de grandes quantidades de dados. Modelos de caixa preta são justamente controversos porque não mostram sua lógica interna nem os processos usados ​​para tomar decisões.

    Uma maneira melhor de avançar é a polícia trabalhar com especialistas e construir modelos de aprendizado de máquina projetados especificamente para fins de policiamento que façam melhor uso dos dados para resolver problemas, como aqueles inerentes aos vídeos musicais de exercícios. Polícia de Durham, por exemplo, trabalhei recentemente com cientistas da Universidade de Cambridge para desenvolver uma ferramenta algorítmica de avaliação de risco para ajudar nas decisões sobre crimes futuros quando uma pessoa é presa pela polícia.

    Desta maneira, As ferramentas de aprendizado de máquina podem ser estabelecidas com base em princípios científicos amplamente aceitos - com um nível de transparência que pode ser usado para galvanizar o apoio público de maneiras que parar e pesquisar não foi capaz de fazer.

    Preocupações com a transparência

    Em um relatório recente, o think tank britânico de defesa e segurança RUSI levantou preocupações mais específicas sobre o conceito de polícia usando algoritmos de aprendizado de máquina para fazer previsões e apoiar a tomada de decisões. Notavelmente, fala sobre o conceito de "transparência algorítmica" e a dificuldade para não especialistas em entender como modelos estatísticos complexos são usados ​​para tomar decisões.

    O relatório apresenta um ponto importante:se o aprendizado de máquina for usado em qualquer forma de ambiente de justiça criminal, os não especialistas devem ser capazes de compreender como as decisões foram tomadas e determinar se os resultados são precisos e justos.

    Todas as coisas consideradas, o princípio da polícia usando aprendizado de máquina para identificar riscos e apoiar a tomada de decisões, não é - e não deve - ser considerado como uma nova forma de totalitarismo que visa erodir os direitos democráticos, impedir a liberdade de expressão, marginalizar grupos étnicos negros e minoritários.

    Com o aumento da criminalidade no Reino Unido sendo agora a questão mais significativa enfrentada pelo público britânico após o Brexit, aprendizado de máquina - dentro de uma ética adequada, estrutura regulatória e de confiança pública - deve ter um lugar na caixa de ferramentas do policiamento moderno para prevenir o crime e proteger o público.

    Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.




    © Ciência https://pt.scienceaq.com