Isso vai parar? Crédito:marat marihal / Shutterstock.com
Em 19 de março, um veículo autônomo do Uber sendo testado no Arizona atropelou e matou Elaine Herzberg, que estava andando de bicicleta pela rua. Esta é a primeira vez que um veículo autônomo mata um pedestre, e levanta questões sobre a ética do desenvolvimento e teste de tecnologias emergentes. Algumas respostas terão de esperar até que a investigação completa seja concluída. Mesmo assim, Nicholas Evans, um professor de filosofia da Universidade de Massachusetts-Lowell que estuda a ética dos processos de tomada de decisão dos veículos autônomos, diz que algumas perguntas podem ser respondidas agora.
1. Um motorista humano poderia ter evitado este acidente?
Provavelmente sim. É fácil pensar que a maioria das pessoas teria problemas para ver um pedestre cruzando uma estrada à noite. Mas o que já está claro sobre esse evento em particular é que a estrada não estava tão escura como o chefe de polícia local alegou inicialmente.
O chefe também disse originalmente que Herzberg de repente entrou no trânsito na frente do carro. Contudo, o vídeo perturbador e alarmante divulgado pelo Uber e pelas autoridades locais mostra que isso não é verdade:Herzberg já havia atravessado uma pista da estrada de mão dupla, e estava em vias de continuar a travessia quando o Uber a atingiu. (O motorista de segurança também não percebeu o pedestre, mas o vídeo sugere que o motorista estava olhando para baixo, não através do pára-brisa.)
Um motorista humano normal, alguém ativamente prestando atenção na estrada, provavelmente teria tido poucos problemas para evitar Herzberg:com os faróis acesos enquanto viajava a 64 km / h em uma estrada realmente escura, não é difícil evitar obstáculos em uma reta quando eles estão 30 metros ou mais à frente, incluindo pessoas ou animais selvagens tentando atravessar. Este acidente era evitável.
Uma implicação trágica desse fato é clara:um carro que dirigia sozinho matou uma pessoa. Mas também há um significado público. Pelo menos este carro Uber dirigiu sozinho em ruas movimentadas, embora incapaz de realizar a tarefa de segurança crucial de detectar um pedestre, e travar ou dirigir de forma a não atingir a pessoa.
Na esteira da morte de Herzberg, a segurança e a confiabilidade dos carros autônomos do Uber foram questionadas. Também vale a pena examinar a ética:assim como o Uber foi criticado por explorar seus impulsionadores para obter lucros, a empresa pode estar explorando a direção, passeios e caminhadas públicas para seus próprios fins de pesquisa.
2. Mesmo que essa falha fosse evitável, os carros autônomos ainda são geralmente mais seguros do que os carros movidos por humanos?
Ainda não. O número de mortos nas estradas dos EUA é realmente alarmante:aproximadamente 32, 000 mortes por ano. A estimativa federal é de que 1,18 pessoas morrem a cada 100 milhões de milhas rodoviárias dirigidas por humanos. Os carros do Uber dirigiram apenas 3 milhões de milhas, Contudo, antes de sua primeira fatalidade. Não é justo fazer análises estatísticas a partir de um único ponto de dados, mas não é um bom começo:as empresas devem ter como objetivo tornar seus robôs pelo menos tão bons quanto os humanos, se ainda não cumprir a promessa de ser significativamente melhor.
Mesmo que os carros autônomos do Uber fossem melhores motoristas, os números não contam toda a história. Dos 32, 000 pessoas que morrem nas estradas dos EUA a cada ano, 5, 000 a 6, 000 são pedestres. Ao buscar melhorias de segurança, o objetivo deve ser reduzir o número total de mortes - ou colocar ênfase especial na proteção das vítimas mais vulneráveis? Certamente é hipoteticamente possível imaginar um sistema de carro autônomo que reduza pela metade o número total de mortes nas estradas - para 16, 000 - enquanto duplica a taxa de mortalidade de pedestres - para 12, 000. No geral, isso pode parecer muito melhor do que motoristas humanos - mas não da perspectiva das pessoas andando pelas estradas do país!
Meu grupo de pesquisa tem trabalhado para desenvolver estruturas de decisão ética para carros autônomos. Uma abordagem potencial é chamada de "maximin". Mais fundamentalmente, essa forma de pensar sugere que as pessoas que projetam veículos autônomos - tanto fisicamente quanto em termos do software que os executa - devem identificar os piores resultados possíveis de qualquer decisão, mesmo que raro, e trabalhar para minimizar seus efeitos. Qualquer um que teve a infelicidade de ser atropelado por um carro tanto como pedestre quanto dentro de um veículo sabe que andar a pé é muito pior. Sob maximin, as pessoas deveriam projetar e testar carros, entre outras coisas, para priorizar a segurança de pedestres.
Maximin provavelmente não é o melhor possível - e certamente não é o único - teoria da decisão moral a ser usada. Em alguns casos, o pior resultado poderia ser evitado se o carro nunca saísse da garagem! Mas o maximin fornece alimento para reflexão sobre como integrar os carros autônomos à vida diária. Mesmo que os carros autônomos sejam sempre avaliados como mais seguros do que os humanos, o que é considerado "mais seguro" é muito importante.
3. Até que ponto os carros autônomos devem ser melhores do que os humanos antes que o público os aceite?
Mesmo que as pessoas concordassem sobre as maneiras pelas quais os carros autônomos deveriam ser mais seguros do que os humanos, não está claro se as pessoas deveriam aceitar carros autônomos quando eles se tornam apenas um pouco melhores do que os humanos. Se alguma coisa, é aí que os testes nas ruas da cidade devem começar.
Considere um novo medicamento desenvolvido por uma empresa farmacêutica. A empresa não pode comercializá-lo assim que for comprovado que não mata as pessoas que o tomam. Em vez, o medicamento tem que passar por uma série de testes para provar que é eficaz no tratamento do sintoma ou condição a que se destina. Cada vez mais, os testes de drogas procuram provar que um medicamento é significativamente melhor do que o que já está no mercado. As pessoas deveriam esperar o mesmo de carros autônomos antes que as empresas coloquem o público em risco.
O acidente no Arizona não foi apenas uma tragédia. Deixar de ver um pedestre com pouca luz era um erro básico evitável para um carro que dirige sozinho. Os veículos autônomos devem ser capazes de fazer muito mais do que isso antes de serem conduzidos, mesmo em testes, na estrada aberta. Assim como as empresas farmacêuticas, As grandes empresas de tecnologia devem ser obrigadas a testar completa - e eticamente - seus sistemas antes que seus carros autônomos sirvam ou coloquem em risco o público.
Este artigo foi publicado originalmente em The Conversation. Leia o artigo original.