• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Definindo culpabilidade para ajudar a tornar a IA moral

    Crédito CC0:domínio público

    Digamos que 100 pessoas vivam perto de um lago. Se pelo menos 10 deles pescarem demais este ano, toda a população de peixes morrerá. Cada um assume que pelo menos 10 outros irão pescar demais, e não sobrará nada para pescar nos próximos anos.

    Uma vez que os peixes irão embora de qualquer maneira, todos eles decidem que também podem pescar demais. Todos os peixes morrem. Todas as pessoas merecem culpa?

    Depende se eles poderiam ter se coordenado para mudar o resultado e o custo de fazê-lo, de acordo com uma nova pesquisa de Joseph Halpern, o professor de engenharia Joseph C. Ford, e Meir Friedenberg, estudante de doutorado em ciência da computação. Com base no trabalho fundamental de Halpern sobre causalidade, eles desenvolveram um modelo matemático para calcular a culpabilidade em uma escala de zero a um.

    A pesquisa - situada na interseção da ciência da computação, filosofia e psicologia cognitiva - potencialmente podem ser usadas para guiar o comportamento de agentes artificialmente inteligentes, como veículos sem motorista, para ajudá-los a se comportar de maneira "moral".

    "Uma das coisas que realmente queríamos fazer é fornecer uma estrutura que nos permite aplicar esses tipos de noções jurídicas e filosóficas a sistemas autônomos, "disse Friedenberg, primeiro autor de "Blameworthiness in Multi-Agent Settings, "que foi apresentado na Conferência AAAI sobre Inteligência Artificial de 2019 em fevereiro." Achamos que isso será importante se quisermos integrar efetivamente os sistemas autônomos na sociedade. "

    Em trabalhos anteriores, Halpern e colegas definiram a culpabilidade dos indivíduos aproximadamente como a extensão em que eles acreditam que suas ações podem mudar o resultado de um evento. Por exemplo, se você votou contra um candidato que você acreditava que perderia por um único voto, sua culpa seria uma, o máximo; mas se você acreditasse que o candidato perderia por milhares de votos, sua culpa seria muito menor.

    Em um artigo recente, Friedenberg e Halpern primeiro deram uma definição de culpabilidade de um grupo - essencialmente, uma medida do grau em que o grupo poderia ter se coordenado para produzir um resultado diferente. Eles então criaram um modelo para distribuir a culpa do grupo aos membros individuais.

    “Se você olhar para o grupo de pescadores, como um grupo, eles são responsáveis ​​- obviamente, se não fossem todos peixes, haveria bastante para o próximo ano, Halpern disse. "Até que ponto os pescadores são responsáveis ​​é até que ponto eles poderiam se coordenar para chegar a um resultado diferente."

    Os pesquisadores captaram isso medindo a capacidade dos membros do grupo de trabalharem juntos para mudar o resultado, levando em consideração o custo de fazê-lo. O custo é um fator crítico para a condenação:alguém que derruba um vaso caro enquanto foge de um leão é menos culpado do que alguém que simplesmente não está prestando atenção. Se o seu voto balança uma eleição, você é menos culpado se alguém está ameaçando matá-lo, a menos que você vote de uma determinada maneira.

    Em trabalho futuro, Halpern disse que espera testar o modelo perguntando às pessoas, via crowdsourcing, para atribuir culpa em vários cenários, e comparar suas opiniões com os resultados numéricos.

    Quando se trata de carros autônomos, desenvolvedores ou legisladores podem considerar suas próprias definições de custo ao criar seus algoritmos, Halpern disse. Por exemplo, se um governo decidir que nenhum grau de risco é aceitável, um carro seria projetado para nunca passar por outro carro, já que isso pode aumentar a chance de um acidente.

    Embora possa ser difícil determinar como os algoritmos de aprendizado de máquina tomam decisões, pode ser possível desenvolver algoritmos mais transparentes que permitiriam uma avaliação mais fácil da culpabilidade.

    "A vantagem de nossa estrutura é que ela oferece uma maneira formal de pensar sobre essas coisas e modelá-las, e força você a ser explícito sobre suas suposições e como você está definindo os custos, "Halpern disse." Nossa definição é tentar ser quantitativa, porque goste ou amole, você tem que fazer trocas, e esta definição está forçando você a pensar sobre isso. É uma ferramenta para ajudar as pessoas a pensar sobre as compensações, sem dizer a elas quais deveriam ser. "


    © Ciência https://pt.scienceaq.com