• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Um projetor se divertia muito com a tecnologia automotiva

    Pare com isso. Você pode enganar um sistema Tesla Autopilot com um projetor?

    Mesmo, uma imagem projetada de um ser humano é considerada pelo sistema automotivo como uma pessoa real?

    E você está dizendo que o Mobileye 630 PRO considera a sinalização rodoviária projetada como uma sinalização rodoviária real?

    Essas são as descobertas de uma equipe de pesquisadores que mostrou os tipos de ataques fantasmas que podem ocorrer para enganar os sistemas de assistência ao motorista.

    A equipe escreveu um artigo e entregou uma demonstração em vídeo sobre seus experimentos e descobertas. O artigo é chamado de "Fantasma do ADAS:Ataques Fantasmas em Sistemas de Assistência ao Motorista".

    Os autores são Ben Nassi, Dudi Nassi, Raz Ben-Netanel, Yisroel Mirsky, Oleg Drokin, e Yuval Elovici. As afiliações dos autores incluem a Ben-Gurion University of the Negev e Georgia Tech. Eles usaram os sistemas Tesla Model X e Mobileye 630 PRO para testes. Eles também usaram várias imagens projetadas; estes incluíam uma figura humana e um sinal de trânsito.

    Eles queriam saber se é possível fazer um sistema pensar que é uma situação do mundo real - confundindo o sistema e assumindo um certo nível de controle sobre o sistema. "Phantoms também podem fazer o Tesla Model X (HW 2.5) travar repentinamente."

    Um vídeo de demonstração mostrou como o carro reduziu sua velocidade de 18 mph para 14 mph como resultado de um fantasma que foi detectado como uma pessoa.

    Observe que eles usaram muito a palavra "fantasma" - "Um fantasma é um objeto sem profundidade destinado a fazer com que ADASs e sistemas de piloto automático percebam o objeto e o considerem real. O objeto pode ser um obstáculo (por exemplo, pessoa, carro, caminhão, motocicleta), faixa, ou sinal de trânsito, "disse Nassi.

    Mas por que uma famosa marca autônoma como a Tesla teria um sistema que veria os fantasmas como verdadeiros obstáculos? Nassi abordou isso em seu site na seção de perguntas frequentes. "Acreditamos que isso seja provavelmente o resultado de uma política de 'melhor prevenir do que remediar', que considera uma projeção visual um objeto real, mesmo que o objeto não seja detectado por outros sensores (por exemplo, sensores de radar e ultrassônicos). "

    Linhas falsas de estradas faziam parte de seus experimentos e uma instrução foi lida para atravessar para o outro lado da estrada, através de linhas falsas e pistas fantasmas.

    Alex Kidman, Gizmodo , escreveu sobre os experimentos na quarta-feira. O problema com os sistemas Mobileye e Tesla, ele escreveu, foi que os pesquisadores descobriram que o modelo de reconhecimento de imagem permitia que os objetos fantasmas fossem reconhecidos como reais. Contudo, há um grande desafio de percepção quando os ataques fantasmas vão contra sistemas avançados de assistência à direção (ADASs) e pilotos automáticos.

    Um vídeo de 28 de janeiro foi postado pelo Cyber ​​Security Labs na Ben Gurion University.

    A ferramenta de piloto automático da Tesla é geralmente considerada o padrão ouro atual em veículos autônomos, disse Gizmodo . De fato, os autores do artigo consideram o Mobileye 630 PRO e o Tesla Model X, HW 2.5 como as tecnologias ADAS e de piloto automático mais avançadas da atualidade.

    O nível do piloto automático da Tesla permite, não cheio, Auto-condução:o veículo está em total controle apenas em algumas situações e informará o motorista quando assumir.

    Como Ars Technica Jim Salter enfatizou em seu artigo, "Claro, ninguém deveria deixar um Tesla dirigir sem supervisão em primeiro lugar, "já que o piloto automático não é o controlador de um carro totalmente autônomo.

    Salter fez uma ponte para outro ponto importante:"Dentro dessas restrições, até mesmo a pior das respostas demonstradas no vídeo de Nassi - o do Modelo X se desviando para seguir marcadores de pista falsos na estrada - não parece tão ruim. Na verdade, aquele clipe demonstra exatamente o que deveria acontecer:o proprietário do Modelo X - preocupado com o que diabos seu carro caro poderia fazer - pisou no freio e assumiu o controle manualmente depois que o piloto automático seguiu em uma direção insegura. "

    A equipe disse que divulgou as descobertas para Mobileye e Tesla, os dois sistemas usados ​​nos experimentos. "Mantivemos o Tesla e o Mobileye atualizados por meio de uma série de e-mails enviados do início de maio a 19 de outubro."

    O resumo do artigo:

    "... investigamos um novo desafio de percepção que faz com que os ADASs e pilotos automáticos de semi / totalmente autônomos considerem objetos sem profundidade (fantasmas) como reais. Mostramos como os invasores podem explorar esse desafio de percepção ... sem a necessidade de se aproximar fisicamente do cena de ataque, projetando um fantasma por meio de um drone equipado com um projetor portátil ou apresentando um fantasma em um outdoor digital hackeado que fica de frente para a Internet e está localizado perto de estradas ... o ADAS ou piloto automático de um carro considera os fantasmas como objetos reais, fazendo com que esses sistemas acionem os freios, dirija-se para a faixa de tráfego em sentido contrário, e emitir notificações sobre sinais de trânsito falsos. "

    Opções de mitigação? Os autores, para mitigar, apresentou "um modelo que analisa o contexto de um objeto detectado, superfície, e luz refletida, que é capaz de detectar fantasmas com 0,99 AUC. Finalmente, explicamos por que a implantação de sistemas de comunicação veicular pode reduzir as oportunidades dos invasores de aplicar ataques fantasmas, mas não os eliminará. "

    Salter voltou a seis meses atrás, quando "Ben Nassi, um Ph.D. estudante da Universidade Ben-Gurion, orientado pelo professor Yuval Elovici, realizou uma série de ataques de spoofing bem-sucedidos contra um sistema de assistência ao motorista Mobileye 630 Pro usando drones baratos e projetores alimentados por bateria. Desde então, ele expandiu a técnica para experimentar - também com sucesso - confundir um Tesla Model X. "

    Salter, Contudo, ponderou sua visão sobre o que a pesquisa ensinava e por que era importante:"na maior parte, parece-nos que o Tesla responde razoavelmente e bem a essas tentativas deliberadas de confundir seus sensores. Achamos que esse tipo de trabalho é importante, Contudo, uma vez que demonstra a necessidade de um projeto defensivo de sistemas de direção semi-autônomos. "

    Os autores em seu artigo escreveram, "Não temos nada contra Tesla ou Mobileye, e a razão pela qual seus produtos foram usados ​​em nossos experimentos é porque seus produtos são os melhores e mais populares disponíveis no mercado. "

    © 2020 Science X Network




    © Ciência https://pt.scienceaq.com