• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Erros maciços encontrados na tecnologia de reconhecimento facial:estudo nos EUA

    O software de reconhecimento facial pode produzir resultados totalmente imprecisos, de acordo com um estudo do governo dos EUA sobre a tecnologia, que está sendo usado para aplicação da lei, segurança do aeroporto e em outros lugares

    Os sistemas de reconhecimento facial podem produzir resultados totalmente imprecisos, especialmente para não brancos, de acordo com um estudo do governo dos EUA divulgado na quinta-feira, que provavelmente levantará novas dúvidas sobre a implantação da tecnologia de inteligência artificial.

    O estudo de dezenas de algoritmos de reconhecimento facial mostrou taxas de "falsos positivos" para asiáticos e afro-americanos até 100 vezes mais altas do que para brancos.

    Os pesquisadores do Instituto Nacional de Padrões e Tecnologia (NIST), um centro de pesquisa governamental, também encontrou dois algoritmos atribuídos ao gênero errado para mulheres negras quase 35 por cento das vezes.

    O estudo surge em meio à ampla implantação de reconhecimento facial para policiais, aeroportos, segurança de fronteira, bancário, varejo, escolas e para tecnologia pessoal, como desbloquear smartphones.

    Alguns ativistas e pesquisadores alegaram que o potencial para erros é muito grande e que os erros podem resultar na prisão de pessoas inocentes, e que a tecnologia pode ser usada para criar bancos de dados que podem ser hackeados ou usados ​​de forma inadequada.

    O estudo do NIST encontrou ambos "falsos positivos, "em que um indivíduo é identificado erroneamente, e "falsos negativos, "onde o algoritmo falha em corresponder com precisão um rosto a uma pessoa específica em um banco de dados.

    "Um falso negativo pode ser apenas um inconveniente - você não pode entrar em seu telefone, mas o problema geralmente pode ser corrigido por uma segunda tentativa, "disse o pesquisador principal Patrick Grother.

    "Mas um falso positivo em uma busca um para muitos coloca uma correspondência incorreta em uma lista de candidatos que justifica um exame mais aprofundado."

    O estudo descobriu que os sistemas de reconhecimento facial desenvolvidos nos Estados Unidos tinham taxas de erro mais altas para os asiáticos, Grupos afro-americanos e nativos americanos, com a demografia de índios americanos mostrando as taxas mais altas de falsos positivos.

    Contudo, alguns algoritmos desenvolvidos em países asiáticos produziram taxas de precisão semelhantes para a correspondência entre rostos asiáticos e caucasianos - o que, segundo os pesquisadores, sugere que essas disparidades podem ser corrigidas.

    "Esses resultados são um sinal encorajador de que dados de treinamento mais diversos podem produzir resultados mais equitativos, "Grother disse.

    Apesar disso, Jay Stanley, da American Civil Liberties Union, que criticou a implantação do reconhecimento facial, disse que o novo estudo mostra que a tecnologia não está pronta para uma ampla implantação.

    "Até mesmo cientistas do governo estão confirmando que esta tecnologia de vigilância é falha e tendenciosa, "Stanley disse em um comunicado.

    "Uma falsa correspondência pode levar a voos perdidos, longos interrogatórios, colocações de lista de observação, encontros tensos com a polícia, detenções falsas ou pior. Mas as falhas da tecnologia são apenas uma preocupação. A tecnologia de reconhecimento facial - precisa ou não - pode permitir indetectáveis, persistente, e vigilância sem suspeitas em uma escala sem precedentes. "

    © 2019 AFP




    © Ciência https://pt.scienceaq.com