• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Pesquisadores afirmam que a tecnologia de detecção facial da Amazon mostra preconceito

    Crédito CC0:domínio público

    A tecnologia de detecção facial que a Amazon está comercializando para as autoridades policiais muitas vezes identifica erroneamente as mulheres, particularmente aqueles com pele mais escura, de acordo com pesquisadores do MIT e da Universidade de Toronto.

    Defensores da privacidade e dos direitos civis pediram à Amazon que pare de comercializar seu serviço Rekognition por causa de preocupações com a discriminação contra minorias. Alguns investidores da Amazon também pediram à empresa que parasse por temer que isso tornasse a Amazon vulnerável a ações judiciais.

    Os pesquisadores disseram que em seus testes, A tecnologia da Amazon rotulou as mulheres de pele mais escura como homens 31% das vezes. Mulheres de pele mais clara foram identificadas incorretamente 7 por cento das vezes. Homens de pele mais escura tiveram uma taxa de erro de 1 por cento, enquanto os homens de pele mais clara não tinham nenhum.

    A inteligência artificial pode imitar os preconceitos de seus criadores humanos conforme eles entram na vida cotidiana. O novo estudo, lançado na quinta-feira, adverte sobre o potencial de abuso e ameaças à privacidade e às liberdades civis da tecnologia de detecção facial.

    Matt Wood, gerente geral de inteligência artificial da unidade de computação em nuvem da Amazon, disse que o estudo usa uma tecnologia de "análise facial" e não de "reconhecimento facial". Wood disse que a análise facial "pode ​​detectar rostos em vídeos ou imagens e atribuir atributos genéricos, como usar óculos; o reconhecimento é uma técnica diferente pela qual um rosto individual é comparado a rostos em vídeos e imagens".

    Em uma postagem de sexta-feira no site do Medium, A pesquisadora do MIT Media Lab, Joy Buolamwini, respondeu que as empresas deveriam verificar todos os sistemas que analisam rostos humanos em busca de preconceitos.

    "Se você vende um sistema que demonstrou ter preconceito em rostos humanos, é duvidoso que seus outros produtos para o rosto também sejam completamente livres de preconceitos, " ela escreveu.

    A reação da Amazon mostra que ela não está levando a sério as "preocupações realmente graves reveladas por este estudo, "disse Jacob Snow, advogado da American Civil Liberties Union.

    Buolamwini e Inioluwa Deborah Raji, da Universidade de Toronto, disseram que estudaram a tecnologia da Amazon porque a empresa a comercializou para as autoridades. A conta de Raji no LinkedIn diz que ela é atualmente uma pupila de pesquisa de inteligência artificial no Google, que concorre com a Amazon na oferta de serviços de computação em nuvem.

    Buolamwini e Raji dizem que a Microsoft e a IBM melhoraram sua tecnologia de reconhecimento facial desde que pesquisadores descobriram problemas semelhantes em um estudo de maio de 2017. Seu segundo estudo, que incluiu a Amazon, foi feito em agosto de 2018. Seu trabalho será apresentado na segunda-feira em uma conferência de inteligência artificial em Honolulu.

    Wood disse que a Amazon atualizou sua tecnologia desde o estudo e fez sua própria análise com "zero resultados falso-positivos".

    O site da Amazon credita a Rekognition por ajudar o Gabinete do Xerife do Condado de Washington, em Oregon, a acelerar o tempo que levou para identificar suspeitos em centenas de milhares de registros fotográficos.

    © 2019 Associated Press. Todos os direitos reservados.




    © Ciência https://pt.scienceaq.com