p Crédito:Massachusetts Institute of Technology
p Aprendemos nos últimos anos que os sistemas de IA podem ser injustos, o que é perigoso, já que estão cada vez mais sendo usados para fazer tudo, desde prever crimes até determinar quais notícias consumimos. O estudo do ano passado mostrando o racismo dos algoritmos de reconhecimento facial demonstrou uma verdade fundamental sobre a IA:se você treinar com dados tendenciosos, você obterá resultados tendenciosos. p Uma equipe do MIT CSAIL está trabalhando em uma solução, com um algoritmo que pode "desviar" automaticamente os dados reamostrando-os para que fiquem mais equilibrados.
p O algoritmo pode aprender uma tarefa específica, como detecção de rosto, bem como a estrutura subjacente dos dados de treinamento, o que permite identificar e minimizar quaisquer vieses ocultos. Nos testes, o algoritmo diminuiu o "viés categórico" em mais de 60 por cento em comparação com os modelos de detecção facial de última geração - enquanto, ao mesmo tempo, mantinha a precisão geral desses sistemas. A equipe avaliou o algoritmo no mesmo conjunto de dados de imagem facial que foi desenvolvido no ano passado por pesquisadores do MIT Media Lab.
p Muitas das abordagens existentes neste campo requerem pelo menos algum nível de entrada humana no sistema para definir tendências específicas que os pesquisadores desejam que ele aprenda. Em contraste, o algoritmo da equipe do MIT pode olhar para um conjunto de dados, aprender o que está intrinsecamente escondido dentro dele, e reamostrar automaticamente para ser mais justo, sem a necessidade de um programador no loop.
p "A classificação facial em particular é uma tecnologia frequentemente vista como 'resolvida, 'mesmo quando fica claro que os conjuntos de dados usados muitas vezes não são devidamente examinados, "diz o estudante de doutorado Alexander Amini, que foi co-autor principal em um artigo relacionado que foi apresentado esta semana na Conferência sobre Inteligência Artificial, Ética e Sociedade (AIES). "Retificar esses problemas é especialmente importante, pois começamos a ver esses tipos de algoritmos sendo usados na segurança, aplicação da lei e outros domínios. "
p Amini diz que o sistema da equipe seria particularmente relevante para conjuntos de dados maiores que são grandes demais para serem examinados manualmente e também se estende a outras aplicações de visão computacional além da detecção facial.