• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • O estágio mais mortal no desenvolvimento autônomo
    p Quando um Uber autônomo no Arizona não conseguiu desacelerar, atingiu fatalmente uma mulher de 49 anos.

    p Semana Anterior, o US National Transportation Safety Board (NTSB) divulgou seu relatório preliminar sobre o acidente de trânsito autônomo do Uber que matou uma mulher em março. p O NTSB descobriu que o carro identificou um objeto na estrada segundos antes do acidente, mas o veículo não parou. Os sensores de radar e Lidar no SUV Volvo XC-90 modificado detectaram Elaine Herzberg, de 49 anos, cerca de seis segundos antes do acidente. O veículo classificou Herzberg primeiro como um objeto, então como um veículo, e, finalmente, como uma bicicleta, ao atravessar a rua com sua bicicleta.

    p Cerca de um segundo antes do impacto, o sistema de direção automática determinou que a frenagem de emergência era necessária para evitar uma colisão. Mas, O Uber desativou o sistema de freio automático de emergência equipado de fábrica da Volvo para evitar confrontos com sua própria tecnologia, disse o relatório.

    p As coisas pioraram a partir daí.

    p O NTSB também descobriu que o software de direção autônomo do Uber foi treinado para não aplicar sua própria frenagem de emergência em situações que apresentassem o risco de "comportamento errático do veículo". Isso foi feito para fornecer uma viagem confortável:Muitas detecções de falsos positivos (por exemplo, folhas de árvores, (arbustos ou sacos plásticos na estrada) resultariam em um grande número de freios de emergência que nenhum passageiro irá tolerar.

    p Então, em vez de, a empresa confiou no driver de backup para intervir no último minuto para evitar um desastre. Isso não aconteceu.

    p Repensando o Nível 3 e a automação condicional

    p A maioria dos testes de direção autônoma hoje requer intervenção humana. Isso é conhecido como Nível 3 ou automação condicional - o estágio no desenvolvimento de veículos autônomos que eu acho mais perigoso porque envolve a transferência do controle do veículo para o motorista reserva em caso de emergência.

    p Poucas empresas já optaram por pular o Nível 3 e atingir o Nível 4 mais seguro (autonomia total).

    p Na verdade, Eu diria que o Nível 3 deve ser explicitamente proibido em estradas abertas. Ter um passo humano dentro do loop de controle no último minuto possível é nada menos que um desastre garantido.

    p Com ambos os sistemas de frenagem de emergência automatizados não disponíveis no veículo Uber, a empresa estava contando com o operador de backup para intervir a qualquer momento para evitar um acidente. Isso é problemático porque passar o controle do carro para o humano apresenta muitas dificuldades, especialmente em situações em que o operador reserva está zoneado. Imagens de vídeo mostraram o operador olhando para baixo imediatamente antes do acidente. Ela freou somente após a colisão. Herzberg foi morto.

    p O Nível 3 também oferece aos motoristas uma falsa sensação de segurança. Em março, um motorista da Tesla morreu em um acidente na Califórnia quando seu veículo funcionava no piloto automático. Em maio de 2016, um motorista da Tesla morreu quando seu carro, também no piloto automático, bateu em um caminhão na Flórida. Esses veículos são projetados para serem dirigidos por humanos, auxiliado por tecnologias de direção autônoma, não dirigido por computadores com supervisão humana.

    p Intervenção regulatória - o caminho a seguir

    p O relatório do NTSB destaca não apenas as deficiências do programa de testes do Uber, mas também uma falha na regulamentação de testes em estradas abertas.

    p Um relatório publicado no ano passado mostrou que a disponibilidade do software de direção autônoma varia entre os diferentes fornecedores. O software autônomo de Waymo era 5, 000 vezes mais seguro do que o Uber, De acordo com o relatório. Isso foi medido de acordo com a taxa de desligamentos, quando o sistema automatizado forçou o motorista reserva a assumir o controle do veículo. A taxa do Uber foi de 1 desligamento por milha percorrida, enquanto o de Waymo teve 1 desligamento a cada 5, 128 milhas!

    p O setor é autorregulado e não se sabe como eles determinam se sua tecnologia é segura para operar em vias públicas. Os reguladores também não forneceram os critérios para fazer tais determinações.

    p Embora seja necessário testar o desempenho do software autônomo em condições da vida real, os testes em estradas abertas não devem ser para testar a segurança dos sistemas. Os testes de segurança devem ser avaliados de forma abrangente antes de permitir os veículos nas vias públicas.

    p Um curso de ação apropriado seria que os reguladores apresentassem um conjunto de testes padronizados, e solicitar às empresas que comparem seus algoritmos com os mesmos conjuntos de dados.

    p Os reguladores devem seguir uma abordagem gradativa para a certificação. Primeiro, o sistema autônomo é avaliado em ambientes de simulação. Isso fornece a confiança de que o sistema está funcionando com segurança. Isso é seguido por testes do mundo real em ambientes confinados (por exemplo, em bancos de teste). Depois que os veículos passam nos testes de benchmark, os reguladores podem permitir em estradas abertas, mas também com condições de segurança.

    p Este trágico incidente deve ser um catalisador para que os reguladores estabeleçam uma cultura de segurança forte e robusta para orientar as inovações em tecnologias de direção autônoma. Sem isso, a implantação de veículos autônomos não iria a lugar nenhum muito rápido.


    © Ciência https://pt.scienceaq.com