Crédito CC0:domínio público
Os cientistas dizem que desenvolveram uma estrutura para tornar os algoritmos de computador "mais seguros" para usar sem criar preconceitos com base na raça, gênero ou outros fatores. O truque, eles dizem, é possibilitar que os usuários digam ao algoritmo quais tipos de armadilhas devem ser evitadas - sem precisar saber muito sobre estatística ou inteligência artificial.
Com esta proteção em vigor, hospitais, empresas e outros usuários em potencial que podem estar receosos de colocar o aprendizado de máquina em uso podem achar que é uma ferramenta mais palatável para ajudá-los a resolver problemas, de acordo com um relatório na edição desta semana da revista Ciência .
Algoritmos de computador são usados para tomar decisões em uma variedade de configurações, de tribunais a escolas e sites de compras online. Os programas classificam grandes quantidades de dados em busca de padrões úteis que podem ser aplicados a decisões futuras.
Mas os pesquisadores têm lutado com um problema que está se tornando cada vez mais difícil de ignorar:embora os programas sejam automatizados, eles geralmente fornecem resultados tendenciosos.
Por exemplo, um algoritmo usado para determinar sentenças de prisão previu taxas de reincidência mais altas para réus negros considerados culpados de crimes e um risco menor para os brancos. Essas previsões se revelaram erradas, de acordo com uma análise do ProPublica.
Vieses como esse geralmente se originam no mundo real. Um algoritmo usado para determinar quais pacientes eram elegíveis para um programa de coordenação de cuidados de saúde estava sub-matriculando pacientes negros em grande parte porque o código dependia de dados de gastos com saúde do mundo real - e pacientes negros gastavam menos dólares com eles do que os brancos.
Mesmo que as informações em si não sejam tendenciosas, algoritmos ainda podem produzir resultados injustos ou outros "indesejáveis, "disse Philip Thomas, um pesquisador de inteligência artificial na Universidade de Massachusetts Amherst e principal autor do novo estudo.
Determinar quais processos podem estar gerando esses resultados injustos, e então consertá-los, pode ser uma tarefa árdua para os médicos, hospitais ou outros usuários em potencial que desejam apenas uma ferramenta que os ajude a tomar melhores decisões.
"Eles são especialistas em seu campo, mas talvez não em aprendizado de máquina - então não devemos esperar que eles tenham conhecimento detalhado de como os algoritmos funcionam para controlar o comportamento dos algoritmos, "Thomas disse." Queremos dar a eles uma interface simples para definir o comportamento indesejável para sua aplicação e, em seguida, garantir que o algoritmo evitará esse comportamento com alta probabilidade. "
Portanto, os cientistas da computação desenvolveram um tipo diferente de algoritmo que permitia aos usuários definir com mais facilidade qual mau comportamento eles queriam que seu programa evitasse.
Esse, claro, torna o trabalho dos designers de algoritmos mais difícil, Thomas disse, porque eles têm que construir seu algoritmo sem saber quais tendências ou outros comportamentos problemáticos o eventual usuário não vai querer no programa.
"Em vez de, eles têm que fazer o algoritmo inteligente o suficiente para entender o que o usuário está dizendo que é um comportamento indesejável, e então raciocinar inteiramente sobre o que causaria esse comportamento, e então evitá-lo com alta probabilidade, "disse ele." Isso torna o algoritmo um pouco mais complicado, mas muito mais fácil para as pessoas usarem com responsabilidade. "
Para testar sua nova estrutura, os pesquisadores testaram em um conjunto de dados de notas de exames de admissão para 43, 303 alunos brasileiros e as médias das notas que ganharam durante os três primeiros semestres na faculdade.
Os algoritmos padrão que tentavam prever o GPA de um aluno com base em suas notas no vestibular eram tendenciosos contra as mulheres:as notas que eles previam para as mulheres eram mais baixas do que realmente acontecia, e as notas que eles previram para os homens foram mais altas. Isso causou uma lacuna de erro entre homens e mulheres de 0,3 pontos GPA - o suficiente para fazer uma grande diferença nas perspectivas de admissão de um aluno.
O novo algoritmo, por outro lado, encolheu esse intervalo de erro para 0,05 pontos GPA - tornando-o um indicador muito mais justo do sucesso dos alunos.
Os cientistas da computação também testaram sua estrutura em dados simulados para pacientes com diabetes. Eles descobriram que poderia ajustar as doses de insulina de um paciente de forma mais eficaz do que um algoritmo padrão, resultando em muito menos episódios indesejados de hipoglicemia.
Mas outros questionaram a nova abordagem.
Dr. Leo Anthony Celi, um intensivista do Beth Israel Deaconess Medical Center e um cientista pesquisador do MIT, argumentou que a melhor maneira de evitar preconceitos e outros problemas é manter os especialistas em aprendizado de máquina atualizados durante todo o processo, em vez de limitar sua entrada aos estágios iniciais do projeto. Dessa forma, eles podem ver se um algoritmo está se comportando mal e fazer as correções necessárias.
"Não há maneira de contornar isso, "disse Celi, que ajudou a desenvolver um programa de inteligência artificial para melhorar as estratégias de tratamento de pacientes com sepse.
Da mesma forma, usuários da linha de frente, como médicos, enfermeiras e farmacêuticos devem ter um papel mais ativo no desenvolvimento dos algoritmos em que confiam, ele disse.
Os autores do novo estudo foram rápidos em apontar que seu framework era mais importante do que os algoritmos que eles geraram ao usá-lo.
"Não estamos dizendo que esses são os melhores algoritmos, "disse Emma Brunskill, um cientista da computação na Universidade de Stanford e o autor sênior do artigo. "Esperamos que outros pesquisadores em seus próprios laboratórios continuem a criar algoritmos melhores."
Brunskill acrescentou que gostaria de ver a nova estrutura encorajar as pessoas a aplicar algoritmos a uma gama mais ampla de problemas sociais e de saúde.
O novo trabalho certamente irá despertar o debate - e talvez conversas mais necessárias entre as comunidades de saúde e aprendizado de máquina, Disse Celi.
"Se isso faz com que as pessoas tenham mais discussões, então acho que é valioso, " ele disse.
© 2019 Los Angeles Times
Distribuído pela Tribune Content Agency, LLC.