• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Reconhecimento facial menos tendencioso? A Microsoft apregoa melhorias, IBM oferecendo ajuda

    Se uma imagem vale mais que mil palavras, o reconhecimento facial pinta dois:é tendencioso.

    Você deve se lembrar, há alguns anos, que o Google Fotos etiquetou automaticamente imagens de pessoas negras como "gorilas, "ou Flickr (propriedade do Yahoo na época) fazendo o mesmo e marcando as pessoas como" macacos "ou" animais ".

    No início deste ano, a New York Times relatado em um estudo de Joy Buolamwini, um pesquisador do MIT Media Lab, na inteligência artificial, algoritmos e preconceito:ela descobriu que o reconhecimento facial é mais preciso para homens brancos, e menos preciso para pessoas de pele mais escura, especialmente mulheres.

    Agora, como o reconhecimento facial está sendo considerado para uso ou está sendo usado pela polícia, aeroportos, funcionários da imigração e outros - a Microsoft diz que melhorou sua tecnologia de reconhecimento facial a ponto de reduzir as taxas de erro para homens e mulheres de pele mais escura em até 20 vezes. Para mulheres sozinhas, a empresa diz que reduziu as taxas de erro em nove vezes.

    A Microsoft fez melhorias ao coletar mais dados e expandir e revisar os conjuntos de dados usados ​​para treinar sua IA.

    De uma postagem recente no blog da empresa:"As taxas de erro mais altas em mulheres com pele mais escura destacam um desafio de toda a indústria:as tecnologias de inteligência artificial são tão boas quanto os dados usados ​​para treiná-las. Se um sistema de reconhecimento facial deve funcionar bem em todas as pessoas, o conjunto de dados de treinamento precisa representar uma diversidade de tons de pele, bem como fatores como penteado, joias e óculos. "

    Em outras palavras, a empresa que nos trouxe Tay, o chatbot louco por sexo e amante do nazismo, quer que saibamos que está tentando, é realmente difícil. (Você também deve se lembrar que a Microsoft tirou seu experimento de IA do ar, Tay, em 2016, depois que ela rapidamente começou a vomitar coisas malucas e racistas no Twitter, refletindo as coisas que ela aprendeu online. A empresa culpou um "ataque coordenado por um subconjunto de pessoas" pela corrupção de Tay.)

    Em notícias relacionadas, A IBM anunciou que lançará o maior conjunto de dados faciais do mundo para tecnólogos e pesquisadores, para ajudar no estudo do preconceito. Na verdade, está lançando dois conjuntos de dados neste outono:um que tem mais de 1 milhão de imagens, e outro que tem 36, 000 imagens faciais igualmente distribuídas por etnia, sexo e idade.

    A Big Blue também disse que melhorou seu serviço de reconhecimento visual Watson para análise facial, diminuindo sua taxa de erro em quase dez vezes, no início deste ano.

    "A IA detém um poder significativo para melhorar a forma como vivemos e trabalhamos, mas apenas se os sistemas de IA forem desenvolvidos e treinados de forma responsável, e produzir resultados em que confiamos, "A IBM disse em um post de blog." Certificando-se de que o sistema é treinado em dados balanceados, e livre de preconceitos, é fundamental para alcançar essa confiança. "

    © 2018 The Mercury News (San Jose, Califórnia)
    Distribuído pela Tribune Content Agency, LLC.




    © Ciência https://pt.scienceaq.com