• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Como podemos ter certeza de que os algoritmos são justos?

    Quando os algoritmos tomam decisões com consequências no mundo real, eles precisam ser justos. Crédito:R-Type / Shutterstock.com

    Usar máquinas para aumentar a atividade humana não é nenhuma novidade. Os hieróglifos egípcios mostram o uso de carruagens puxadas por cavalos mesmo antes de 300 a.C. A literatura indiana antiga, como "Silapadikaram", descreveu animais sendo usados ​​para a agricultura. E um olhar para fora mostra que hoje as pessoas usam veículos motorizados para se locomover.

    Onde no passado os seres humanos aumentaram a nós mesmos de maneiras físicas, agora a natureza do aumento também é mais inteligente. Novamente, tudo o que se precisa fazer é olhar para os carros - os engenheiros estão aparentemente à beira de carros autônomos guiados por inteligência artificial. Outros dispositivos estão em vários estágios de se tornarem mais inteligentes. Pelo caminho, as interações entre pessoas e máquinas estão mudando.

    As inteligências da máquina e humana trazem diferentes pontos fortes para a mesa. Pesquisadores como eu estão trabalhando para entender como os algoritmos podem complementar as habilidades humanas e, ao mesmo tempo, minimizar as responsabilidades de confiar na inteligência da máquina. Como especialista em aprendizado de máquina, Prevejo que em breve haverá um novo equilíbrio entre inteligência humana e máquina, uma mudança que a humanidade não encontrou antes.

    Essas mudanças muitas vezes provocam medo do desconhecido, e neste caso, uma das incógnitas é como as máquinas tomam decisões. Isso é especialmente verdade quando se trata de justiça. As máquinas podem ser justas de uma forma que as pessoas entendam?

    Quando as pessoas são ilógicas

    Para humanos, a justiça geralmente está no cerne de uma boa decisão. A tomada de decisões tende a confiar nos centros emocionais e racionais de nossos cérebros, o que o Prêmio Nobel Daniel Kahneman chama de pensamento do Sistema 1 e Sistema 2. Os teóricos da decisão acreditam que os centros emocionais do cérebro foram muito bem desenvolvidos ao longo dos tempos, enquanto as áreas cerebrais envolvidas no pensamento racional ou lógico evoluíram mais recentemente. A parte racional e lógica do cérebro, o que Kahneman chama de Sistema 2, deu aos humanos uma vantagem sobre outras espécies.

    Contudo, porque o Sistema 2 foi desenvolvido mais recentemente, a tomada de decisão humana costuma ser problemática. É por isso que muitas decisões são ilógicas, inconsistente e abaixo do ideal.

    Por exemplo, a reversão de preferência é um fenômeno bem conhecido, mas ilógico, que as pessoas exibem:nele, uma pessoa que prefere a escolha A a B e B a C não necessariamente prefere A a C. Ou considere que os pesquisadores descobriram que os juízes do tribunal criminal tendem a ser mais brandos com as decisões de liberdade condicional logo após o intervalo para o almoço do que no fechamento do dia.

    Parte do problema é que nossos cérebros têm dificuldade em calcular probabilidades com precisão sem o treinamento apropriado. Freqüentemente, usamos informações irrelevantes ou somos influenciados por fatores externos. É aqui que a inteligência da máquina pode ser útil.

    As máquinas são lógicas ... excessivamente

    A inteligência da máquina bem projetada pode ser consistente e útil na tomada de decisões ideais. Por sua natureza, eles podem ser lógicos no sentido matemático - eles simplesmente não se desviam das instruções do programa. Em um algoritmo de aprendizado de máquina bem projetado, não se encontraria as inversões de preferência ilógicas que as pessoas frequentemente exibem, por exemplo. Dentro das margens de erros estatísticos, as decisões da inteligência da máquina são consistentes.

    O problema é que a inteligência da máquina nem sempre é bem projetada.

    Conforme os algoritmos se tornam mais poderosos e são incorporados a mais partes da vida, cientistas como eu esperam este novo mundo, um com um equilíbrio diferente entre a máquina e a inteligência humana, para ser a norma do futuro.

    No sistema de justiça criminal, os juízes usam algoritmos durante as decisões de liberdade condicional para calcular os riscos de reincidência. Em teoria, essa prática poderia superar qualquer preconceito introduzido por intervalos para o almoço ou exaustão ao final do dia. No entanto, quando jornalistas da ProPublica conduziram uma investigação, eles descobriram que esses algoritmos eram injustos:homens brancos com condenações anteriores por assaltos à mão armada foram classificados como de menor risco do que mulheres afro-americanas que foram condenadas por contravenções.

    Existem muitos outros exemplos de algoritmos de aprendizado de máquina posteriormente considerados injustos, incluindo Amazon e seu recrutamento e rotulagem de imagem do Google.

    Os pesquisadores estão cientes desses problemas e têm trabalhado para impor restrições que garantam a justiça desde o início. Por exemplo, um algoritmo chamado CB (daltônico) impõe a restrição de que quaisquer variáveis ​​discriminantes, como raça ou gênero, não deve ser usado na previsão dos resultados. Outro, chamado DP (paridade demográfica), garante que os grupos são proporcionalmente justos. Em outras palavras, a proporção do grupo que recebe um resultado positivo é igual ou razoável em ambos os grupos discriminantes e não discriminantes.

    Pesquisadores e legisladores estão começando a assumir o manto. A IBM abriu o código-fonte de muitos de seus algoritmos e os lançou sob a bandeira "AI Fairness 360". E a National Science Foundation recentemente aceitou propostas de cientistas que desejam reforçar a base de pesquisa que sustenta a justiça em IA.

    Melhorar a justiça das decisões das máquinas

    Eu acredito que os algoritmos de máquinas justas existentes são fracos em muitos aspectos. Essa fraqueza geralmente decorre dos critérios usados ​​para garantir a justiça. A maioria dos algoritmos que impõem "restrição de justiça", como paridade demográfica (DP) e daltonismo (CB), se concentra em garantir a justiça no nível do resultado. Se houver duas pessoas de subpopulações diferentes, as restrições impostas garantem que o resultado de suas decisões seja consistente entre os grupos.

    Embora este seja um bom primeiro passo, os pesquisadores precisam olhar além dos resultados isoladamente e focar no processo também. Por exemplo, quando um algoritmo é usado, as subpopulações afetadas naturalmente mudarão seus esforços em resposta. Essas mudanças precisam ser levadas em consideração, também. Porque eles não foram levados em consideração, meus colegas e eu nos concentramos no que chamamos de "justiça da melhor resposta".

    Se as subpopulações são inerentemente semelhantes, seu nível de esforço para atingir o mesmo resultado também deve ser o mesmo, mesmo após a implementação do algoritmo. Esta definição simples de melhor justiça de resposta não é atendida por algoritmos baseados em DP e CB. Por exemplo, O DP requer que as taxas positivas sejam iguais, mesmo se uma das subpopulações não fizer esforço. Em outras palavras, as pessoas em uma subpopulação teriam que trabalhar muito mais para alcançar o mesmo resultado. Embora um algoritmo baseado em DP o considere justo - afinal, ambas as subpopulações alcançaram o mesmo resultado - a maioria dos humanos não.

    Há outra restrição de justiça conhecida como probabilidades equalizadas (EO) que satisfaz a noção de justiça da melhor resposta - ela garante justiça mesmo se você levar em consideração a resposta das subpopulações. Contudo, para impor a restrição, o algoritmo precisa saber as variáveis ​​discriminantes (digamos, Preto branco), e vai acabar definindo limites explicitamente diferentes para subpopulações - então, os limites serão explicitamente diferentes para candidatos em liberdade condicional brancos e negros.

    Embora isso ajude a aumentar a justiça dos resultados, tal procedimento pode violar a noção de igualdade de tratamento exigida pela Lei dos Direitos Civis de 1964. Por esta razão, um artigo da California Law Review instou os formuladores de políticas a emendar a legislação para que algoritmos justos que utilizem essa abordagem possam ser usados ​​sem potencial repercussão legal.

    Essas restrições motivam meus colegas e eu a desenvolver um algoritmo que não seja apenas "melhor resposta justa", mas também não use explicitamente variáveis ​​discriminatórias. Demonstramos o desempenho de nossos algoritmos teoricamente usando conjuntos de dados simulados e conjuntos de dados de amostra reais da web. Quando testamos nossos algoritmos com os conjuntos de dados de amostra amplamente usados, ficamos surpresos com o desempenho deles em relação aos algoritmos de código aberto montados pela IBM.

    Nosso trabalho sugere que, apesar dos desafios, máquinas e algoritmos continuarão a ser úteis para os humanos - tanto para trabalhos físicos quanto para trabalhos de conhecimento. Devemos permanecer vigilantes para que quaisquer decisões tomadas por algoritmos sejam justas, e é fundamental que todos entendam suas limitações. Se pudermos fazer isso, então, é possível que a inteligência humana e da máquina se complementem de maneiras valiosas.

    Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.




    © Ciência https://pt.scienceaq.com