• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Justiça necessária na tomada de decisão algorítmica, especialistas falam
    p David Madras, um aluno de doutorado no departamento de ciência da computação, afirma que há questões importantes a serem feitas sobre a justiça das decisões tomadas por sistemas automatizados. Crédito:Nina Haikara

    p Universidade de Toronto, Ph.D. o estudante David Madras diz que muitos dos algoritmos de hoje são bons em fazer previsões precisas, mas não sei como lidar bem com a incerteza. Se um algoritmo mal calibrado toma a decisão errada, geralmente está muito errado. p "Um usuário humano pode entender uma situação melhor do que um computador, se é uma informação não disponível porque é muito qualitativa por natureza, ou algo acontecendo no mundo real que não foi inserido no algoritmo, "diz Madras, um pesquisador de aprendizado de máquina no departamento de ciência da computação que também é afiliado ao Vector Institute for Artificial Intelligence.

    p "Ambos podem ser muito importantes e podem ter um efeito sobre as previsões que devem ser feitas."

    p Madras está apresentando sua pesquisa, "Prever com responsabilidade:aumentar a justiça aprendendo a adiar, "na Conferência Internacional sobre Representações de Aprendizagem (ICLR), em Vancouver esta semana. A conferência é focada em métodos e desempenho de aprendizado de máquina e reúne líderes da área.

    p Madras diz que ele e Toniann Pitassi, um professor nos departamentos de ciência da computação e matemática da U of T e um especialista em teoria computacional que também explora a justiça computacional, bem como Richard Zemel, professor de ciência da computação da U of T e diretor de pesquisa do Vector Institute, desenvolveram seu modelo com a justiça em mente. Onde há um certo grau de incerteza, um algoritmo deve ter a opção de responder, "Eu não sei" e adiar sua decisão para um usuário humano.

    p Madras explica se o Facebook usasse um algoritmo para marcar pessoas automaticamente em imagens, talvez não seja tão importante se a marcação for feita de maneira errada. Mas quando os resultados individuais são de alto impacto, o risco pode ser maior. Ele diz que o modelo ainda não foi aplicado a nenhuma aplicação específica, mas, em vez disso, os pesquisadores estão pensando nos tipos de maneiras como ele poderia ser usado em casos do mundo real.

    p "Em ambientes médicos, pode ser importante dar saída a algo que possa ser interpretado - há alguma incerteza em torno de sua previsão - e um médico deve decidir se o tratamento deve ser administrado. "

    p Zemel, supervisor de graduação de Madras, que assumirá uma cadeira de pesquisa industrial NSERC em aprendizado de máquina neste verão, também está examinando como o aprendizado de máquina pode ser mais expressivo, controlável e justo.

    p Zemel diz que o aprendizado de máquina com base em dados históricos, como se um empréstimo bancário foi aprovado ou a duração das sentenças de prisão, irá naturalmente perceber vieses. E os vieses no conjunto de dados podem afetar as previsões de uma máquina, ele diz.

    p "Nesse artigo, pensamos muito sobre um tomador de decisões externo. Para treinar nosso modelo, temos que usar decisões históricas feitas por tomadores de decisão. Os resultados dessas decisões, criado por tomadores de decisão existentes, podem ser tendenciosos ou, em certo sentido, incompletos. "

    p Madras acredita que o maior foco na justiça algorítmica ao lado de questões de privacidade, Segurança e proteção, ajudará a tornar o aprendizado de máquina mais aplicável a aplicativos de alto risco.

    p "Isso está levantando questões importantes sobre a função de um sistema automatizado que toma decisões importantes, e como fazer com que [eles] prevejam da maneira que desejamos. "

    p Madras diz que continua a pensar sobre questões de justiça e áreas relacionadas, como causalidade:duas coisas podem ser correlacionadas - porque elas ocorrem juntas frequentemente - mas isso não significa que uma causa a outra.

    p "Se um algoritmo está decidindo quando dar um empréstimo a alguém, ele pode aprender que as pessoas que vivem em um determinado código postal têm menos probabilidade de pagar os empréstimos. Mas isso pode ser uma fonte de injustiça. Não é como se viver em um determinado código postal diminua a probabilidade de você pagar um empréstimo, " ele diz.

    p "É um conjunto de problemas interessante e importante para se trabalhar."


    © Ciência https://pt.scienceaq.com