Uma imagem da filmagem do dashcam divulgada pelo Departamento de Polícia de Tempe mostra o momento antes da colisão de um veículo autônomo do Uber e um pedestre em 18 de março, 2018
Um carro Uber que dirigia sozinho que atropelou e matou uma mulher no ano passado no Arizona não conseguiu reconhecê-la como pedestre porque ela estava andando na rua, Reguladores de transporte dos EUA disseram terça-feira.
A mulher estava atravessando a rua "em um local sem faixa de pedestres; o projeto do sistema não incluiu uma consideração para pedestres imprudentes, "O US National Transportation Safety Board (NTSB) disse em um comunicado.
Em um relatório preliminar, o NTSB já havia determinado que o software do carro localizou a mulher de 49 anos quase seis segundos antes de o veículo atingi-la, enquanto ela atravessava a rua à noite com sua bicicleta em Tempe, um subúrbio de Phoenix.
De acordo com o último relatório, que foi emitido antes de uma audiência em 19 de novembro para determinar oficialmente a causa do acidente, o sistema em nenhum momento "a classificou como uma pedestre", mas sim, considerava-a um objeto.
Quando o software determinou que uma colisão era iminente aproximadamente 1,2 segundos antes do impacto, suprimiu quaisquer "ações extremas de frenagem ou direção" para reduzir o potencial de comportamento errático do veículo.
Sim, Contudo, produzir "um alerta sonoro para o operador do veículo, uma vez que iniciou um plano para a desaceleração do veículo."
Após o acidente de março de 2018, O Uber suspendeu seus testes de direção autônoma em todas as localidades dos Estados Unidos, mas retomou o programa vários meses depois.
A empresa garantiu ao NTSB que a nova tecnologia nos carros reconhecerá corretamente os pedestres em situações semelhantes e acionará a frenagem mais de quatro segundos antes do impacto.
De acordo com o relatório, 37 acidentes envolvendo veículos de teste automático da Uber operando em modo autônomo ocorreram entre setembro de 2016 e março de 2018, excluindo o acidente no Arizona.
© 2019 AFP