Perguntas e respostas com um especialista jurídico:quando um Tesla no piloto automático mata alguém, quem é o responsável?
Crédito:Unsplash/CC0 Public Domain
No final de 2019, o carro de Kevin George Aziz Riad saiu em alta velocidade de uma rodovia da Califórnia, ultrapassou o sinal vermelho e colidiu com outro carro, matando as duas pessoas que estavam dentro. O carro de Riad, um Tesla Model S, estava no piloto automático.
No início deste ano, os promotores do condado de Los Angeles apresentaram duas acusações de homicídio culposo veicular contra Riad, agora com 27 anos, e o caso marca o primeiro processo criminal nos EUA por um acidente de carro fatal envolvendo um sistema de assistência ao motorista. É também o primeiro processo criminal de um acidente envolvendo a função de piloto automático da Tesla, encontrada em mais de 750.000 carros nos EUA. Enquanto isso, a família das vítimas do acidente está processando a Riad e a Tesla.
A Tesla tem o cuidado de distinguir entre sua função de piloto automático e um carro sem motorista, comparando seu sistema de assistência ao motorista com a tecnologia que os pilotos de avião usam quando as condições são claras. “O Tesla Autopilot alivia os motoristas dos aspectos mais tediosos e potencialmente perigosos das viagens rodoviárias”, afirma a Tesla online. "Estamos desenvolvendo o Autopilot para dar a você mais confiança ao volante, aumentar sua segurança na estrada e tornar a condução na estrada mais agradável... O motorista ainda é responsável e, em última análise, no controle do carro."
O fabricante de veículos elétricos claramente coloca o ônus da segurança no motorista, mas pesquisas sugerem que os humanos são suscetíveis ao viés de automação, uma dependência excessiva de ajudas automatizadas e sistemas de apoio à decisão. Agora cabe aos tribunais decidir quem é o culpado quando o uso desses sistemas resulta em erros fatais.
Atualmente, Riad está sob fiança e se declara inocente das acusações de homicídio culposo. A NYU News conversou com Mark Geistfeld — Professor de Direito da NYU Sheila Lubetsky Birnbaum de Contencioso Civil e autor do artigo da California Law Review "A Roadmap for Autonomous Vehicles:State Tort Liability, Automobile Insurance, and Federal Safety Regulation" — sobre o significado desses acusações criminais e o que elas podem significar para o futuro da confiança do consumidor em novas tecnologias.
Você pode lançar alguma luz sobre o precedente legal que o processo criminal de Kevin George Aziz Riad estabelece? Que mensagem ele envia aos consumidores e fabricantes de tecnologia semelhante? Primeiro, as acusações criminais são surpreendentes, com base no que sabemos – os documentos de acusação criminal, como de costume, não fornecem detalhes. Normalmente, se você não estivesse prestando atenção, passasse o sinal vermelho e acertasse alguém – por mais trágico que seja – você não receberia uma acusação criminal por esse comportamento na grande maioria dos casos. Você realmente não vê muitos processos criminais por acidentes com veículos motorizados fora dos casos de dirigir embriagado.
Se o motorista fosse considerado culpado de homicídio culposo, este caso poderia realmente ser o mais perturbador, o mais novo, o precedente mais inovador. É um forte afastamento do passado, se de fato o processo criminal é simplesmente baseado em confiar no piloto automático quando deveria ter assumido. Se é isso que está acontecendo, você pode ver muito mais processos criminais avançando do que vemos hoje.
A responsabilidade civil, ou encargos civis, por outro lado, é muito comum. É quando o réu pagaria uma indenização por danos causados. A maioria dos processos de responsabilidade civil nos tribunais estaduais em todo o país são de acidentes de veículos motorizados em que um motorista é acusado de ter causado o acidente por negligência, o que claramente ocorreu neste caso porque o motorista passou por um sinal vermelho.
Se este caso de alguma forma sinalizar que a responsabilidade criminal é mais possível simplesmente confiando na tecnologia, isso pode se tornar uma mudança profunda na natureza das responsabilidades legais no futuro.
Que obrigação uma empresa de tecnologia avançada como a Tesla tem em informar os motoristas, seja diretamente ou por meio de mensagens publicitárias e de marketing, que eles são responsáveis por todos os danos, independentemente de o carro estar no piloto automático? Eles claramente têm a obrigação de avisar a pessoa sentada no banco do motorista para assumir o controle do veículo - que ele não é capaz de fazer tudo sozinho. Você vê esse aviso nos veículos da Tesla e quase todos os veículos têm esse tipo de aviso. Por exemplo, quando você usa uma função de mapa enquanto dirige, muitos carros oferecem um aviso:"Isso vai distraí-lo, preste atenção na estrada".
Os fabricantes também têm a obrigação de ter em mente a sensação de complacência que acompanha a tecnologia de direção ao projetar o carro. A Tesla ou qualquer outro fabricante não pode simplesmente dizer:"Ei, preste atenção, isso é sua responsabilidade". Eles realmente precisam tentar colocar algo no design para garantir que os motoristas permaneçam atentos. Portanto, fabricantes diferentes estão adotando abordagens diferentes para esse problema - alguns carros param se suas mãos não estiverem no volante, e outros carros têm câmeras que começarão a apitar se você não estiver prestando atenção.
De acordo com a lei atual, se o motorista sofrer um acidente e houver um aviso adequado, e o design em si for adequado o suficiente para manter o motorista atento, o fabricante do carro não será responsável. Mas há uma possível exceção aqui:há uma formulação da regra de responsabilidade que é amplamente adotada em todo o país, inclusive na Califórnia, onde este caso ocorrerá. Sob essa regra, a consulta é baseada no que os consumidores esperam que o fabricante faça. E as expectativas do consumidor podem ser fortemente influenciadas pelo marketing e publicidade e assim por diante.
Por exemplo, se a Tesla anunciasse que o Autopilot nunca sofre um acidente e, em seguida, um consumidor sofre um acidente, a Tesla seria responsável por ter frustrado essas expectativas.
Neste caso, o motorista foi cobrado com base na ideia de que ele dependia demais do piloto automático de seu carro. O que isso diz sobre nossas suposições básicas sobre se humanos ou tecnologia são mais confiáveis? Há uma distinção importante entre excesso de confiança e complacência. Acho que a complacência é apenas uma reação humana natural à falta de estímulo – neste caso, a falta de responsabilidade pela execução de todas as tarefas de direção. Você pode ficar entediado e embalado em uma sensação de complacência, mas não acho que esse comportamento esteja sendo excessivamente dependente da tecnologia.
A ideia de excesso de confiança entra em jogo com a natureza potencial da transgressão aqui. Talvez o piloto neste caso se defenda dizendo que achava razoavelmente que o carro tinha tudo sob controle, era totalmente capaz de resolver esse problema e, portanto, não precisava se preocupar em reagir se as coisas acontecessem de outra forma. Agora, nesse ponto, ele estaria colocando sua fé na tecnologia em vez de em sua própria capacidade de parar o veículo e sair do problema de maneira segura. Se houver fé cega na tecnologia em vez de assumir o controle quando você poderia ter feito isso, e se você for responsável como consequência, isso se torna um tipo de mensagem muito profundo e interessante que a lei está enviando.
Você acha que essa mudança na responsabilidade prejudicará os negócios de empresas como a Tesla? O grande problema que fabricantes de veículos autônomos como a Tesla enfrentam agora é ganhar a confiança do consumidor quando estão introduzindo uma nova tecnologia no mercado. A necessidade de confiança nos estágios iniciais desses produtos é extremamente importante. E todos os fabricantes estão preocupados com esse problema porque sabem que, se houver algumas falhas horríveis, os consumidores perderão a confiança no produto. Em última análise, a tecnologia acabará assumindo o controle; é apenas uma questão de saber se é mais cedo ou mais tarde. E tempo é dinheiro nesse contexto – então, se você obtiver uma adoção mais lenta porque os consumidores estão muito preocupados com o desempenho de segurança da tecnologia, isso prejudicará o setor. Eles obviamente querem evitar esse resultado. Essa tecnologia ainda vai dominar - é apenas uma questão de quanto tempo leva para isso acontecer. Há tantas vantagens em usar veículos autônomos, inclusive na dimensão da segurança.
Sobre seu piloto automático e capacidade total de direção autônoma, a Tesla diz:“Embora esses recursos sejam projetados para se tornarem mais capazes ao longo do tempo, os recursos atualmente habilitados não tornam o veículo autônomo”. Que questões de responsabilidade você prevê se/quando esses veículos se tornarem autônomos? É uma questão complicada, e essa é a questão que interessa a todos. Uma vez que esses veículos se tornem totalmente autônomos, então existe apenas o carro. O humano no carro nem é um elemento da situação. Então a grande questão é:uma vez que esses veículos batem, quem paga? Você pensaria que o fabricante seria responsável - e isso aumentaria o custo desses veículos e os tornaria muito mais difíceis de distribuir. Há muita gente que pensa que, em caso de acidente, o fabricante deve ser responsabilizado o tempo todo. Sou fortemente cético em relação a essa conclusão, porque acho que é uma decisão muito mais próxima do que a maioria das pessoas imagina.
Em última análise, essas questões dependem de como os reguladores federais, como o National Highway Traffic Safety Administration, regulam o veículo. Eles terão que estabelecer um padrão de desempenho de segurança que o fabricante deve satisfazer antes de poder distribuir comercialmente o produto como totalmente autônomo. A questão é onde os reguladores estabelecem esse padrão, e não acho que seja fácil acertar. Nesse ponto haverá um bom debate a ser feito:eles acertaram ou não? Ainda faltam alguns anos. Acho que todos teremos essas conversas em 2025.