• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Por que precisamos mais do que apenas dados para criar carros éticos sem motorista

    Como podemos tornar os carros sem motorista éticos? Crédito:de www.shutterstock.com

    O que queremos que os carros sem motorista façam em acidentes fatais inevitáveis?

    Hoje, pesquisadores publicaram um artigo The Moral Machine experiment para abordar esta questão.

    Para criar dados para o estudo, quase 40 milhões de pessoas de 233 países usaram um site para registrar decisões sobre quem salvar e quem deixar morrer em cenários hipotéticos de carros sem motorista. É uma versão do clássico "dilema do carrinho" - onde você tem que dar preferência às pessoas para priorizar em caso de emergência.

    Algumas das principais descobertas são intuitivas:os participantes preferem salvar pessoas a animais, o jovem sobre o velho, e mais em vez de menos. Outras preferências são mais preocupantes:mulheres em vez de homens, executivos sobre os sem-teto, o ajuste sobre o obeso.

    O experimento é sem precedentes em escopo e sofisticação:agora temos uma noção muito melhor de como as preferências das pessoas em tais dilemas variam em todo o mundo. Os autores, sensivel, cuidado para não tomar os resultados como um guia simples para o que os carros autônomos devem fazer.

    Mas este é apenas o primeiro passo no que deve ser um debate vigoroso. E nesse debate, pesquisas como essas (por mais interessantes que sejam) podem desempenhar apenas um papel limitado.

    Quão bom é nosso primeiro julgamento?

    As máquinas são muito mais rápidas do que nós; eles não entram em pânico. No seu melhor, eles podem incorporar nossa sabedoria ponderada e aplicá-la com eficiência, mesmo em circunstâncias angustiantes. Fazer isso, Contudo, precisamos começar com bons dados.

    Os cliques em questionários online são uma ótima maneira de descobrir o que as pessoas pensam antes de iniciar seu julgamento. No entanto, obviamente, não cedemos a todos os preconceitos. Os autores omitiram raça e nacionalidade como base para a escolha, e com razão.

    Um bom design de pesquisa não pode ser feito no vácuo. E as preferências morais não devem ser apenas gostos. Para descobrir a coisa moralmente certa a fazer (pense em qualquer escolha moralmente importante que você enfrentou), você tem que pensar seriamente.

    Queremos basear a inteligência artificial ética em nossos melhores julgamentos, não necessariamente nossos primeiros.

    O mundo é 'arriscado'

    O estudo usou dilemas que envolviam dois resultados certos:ou você definitivamente bate no carrinho ou definitivamente mata o cachorro.

    Mas as decisões reais envolvem uma incerteza significativa:você pode não ter certeza se a pessoa à frente é uma criança ou um adulto pequeno, se acertá-los iria matá-los ou feri-los, se uma guinada de alta velocidade pode funcionar.

    Os computadores podem fazer previsões melhores, mas o mundo é intrinsecamente "arriscado". Isto é um grande problema. Em certos casos, as preferências de uma ou outra só chegam até o ponto de nos dizer o que fazer nos casos de risco.

    Suponha que um veículo que dirige sozinho deva escolher entre se deixar bater e assim matar seu passageiro idoso, ou, em vez disso, desviar-se para o lado e matar uma criança.

    O experimento da máquina moral prevê que as pessoas estão do lado da criança. Mas não diz por quanto preferiríamos poupar um em detrimento do outro. Talvez seja quase um lance para cima, e nós apenas nos inclinamos para poupar a criança. Ou talvez salvar a criança seja muito mais importante do que salvar o aposentado.

    As opiniões sobre isso serão extremamente diversas, e esta pesquisa não nos oferece nenhuma orientação. Mas não podemos saber como pesar, dizer, uma probabilidade de 10% de matar a criança contra uma probabilidade de 50% de matar o aposentado, a menos que saibamos o quanto é mais importante poupar um do que poupar o outro.

    Uma vez que literalmente todas as escolhas feitas por carros sem motorista serão feitas sob incerteza, esta é uma lacuna significativa.

    O que as pesquisas não podem nos dizer

    A motivação para o experimento da máquina moral é compreensível. A responsabilidade de codificar a próxima geração de inteligência artificial ética é assustadora.

    O desacordo moral parece abundante. Uma pesquisa parece uma boa maneira de triangular opiniões em um mundo aquecido.

    Mas como lidamos com desacordo moral não é apenas um problema científico. É moral também. E, desde os tempos dos antigos gregos, a solução para esse problema moral não é agregar preferências, mas participação democrática.

    Sem dúvida a democracia está em crise, pelo menos em partes do mundo rico. Mas continua sendo nossa ferramenta mais importante para tomar decisões na presença de desacordo inevitável.

    A tomada de decisão democrática não pode ser reduzida a um tique-taque. Envolve levar seu voto a sério, não apenas clicando em uma caixa em um site. Envolve participação, debate, e justificação mútua.

    Pesquisas como essa não podem nos dizer por que as pessoas preferem as opções que preferem. O fato de a decisão de um carro que dirige sozinho se correlacionar com as opiniões dos outros não, sozinho, justifique essa escolha (imagine um motorista humano justificando suas ações em um acidente da mesma forma).

    A justificação mútua é o cerne da cidadania democrática. E isso pressupõe envolvimento não apenas com o que são nossas escolhas, mas por que os fazemos.

    Decidindo juntos

    Estudos como este são intrinsecamente interessantes, e os autores deste são admiravelmente explícitos sobre o que é, e o que não foi projetado para mostrar.

    Para construir sobre essas bases, precisamos refletir muito mais sobre como pesar nossos compromissos morais sob a incerteza.

    E precisamos fazer isso como parte de um processo democrático inclusivo, onde não apenas agregamos as preferências das pessoas, mas leve a sério a tarefa de decidir, juntos, nosso futuro de inteligência artificial.

    Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.




    © Ciência https://pt.scienceaq.com