• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Dando aos veículos inteligentes seu senso de direção

    A equipe construiu um mapa baseado em planos 3-D usando um LiDAR 3-D e um sensor inercial. O LiDAR é como um radar, mas usa luz em vez de ondas de rádio. Os pontos com cores diferentes são os planos diferentes (que servem como marcos para a navegação), a linha verde é a trajetória verdadeira e a linha azul é a trajetória estimada calculada pelo algoritmo de localização e mapeamento simultâneo (SLAM) da equipe. Crédito:University of Delaware

    Cientistas de todo o mundo estão correndo para desenvolver veículos autônomos, mas alguns componentes essenciais ainda precisam ser aperfeiçoados. Um é a localização - a capacidade do veículo de determinar seu lugar e movimento. Outra é o mapeamento - a capacidade dos veículos de modelar seus arredores para que possam transportar passageiros com segurança ao lugar certo.

    A questão é:como você dá a um veículo um senso de direção? Embora os dispositivos de posicionamento global por satélite (GPS) possam ajudar, eles não estão disponíveis ou não são confiáveis ​​em todos os contextos. Em vez de, muitos especialistas estão investigando localização e mapeamento simultâneos, ou SLAM, um problema notoriamente difícil no campo da robótica. Novos algoritmos desenvolvidos por Guoquan (Paul) Huang, um professor assistente de engenharia mecânica, engenharia elétrica e informática, e ciências da computação e da informação na Universidade de Delaware, estão trazendo a resposta mais perto da vista.

    Huang usa sistemas de navegação visual inercial que combinam sensores inerciais, que contêm giroscópios para determinar a orientação e acelerômetros para determinar a aceleração, junto com câmeras. Usando dados relativamente baratos, componentes amplamente disponíveis, Huang mede e calcula o movimento e a localização.

    Por exemplo, quando sua equipe conectou seu sistema a um laptop e o carregou pelo Laboratório Spencer da UD, casa do Departamento de Engenharia Mecânica, eles geraram dados suficientes para mapear o edifício enquanto rastreiam o movimento do próprio laptop. Em um veículo autônomo, sensores e câmeras semelhantes seriam acoplados a um robô no veículo.

    A capacidade de um veículo autônomo de rastrear seu próprio movimento e o movimento dos objetos ao seu redor é crítica. "Precisamos localizar o veículo antes de controlá-lo automaticamente, "disse Huang." O veículo precisa saber sua localização para continuar. "

    Depois, há a questão da segurança. “Em um cenário urbano, por exemplo, existem pedestres e outros veículos, então, idealmente, o veículo deve ser capaz de rastrear seu próprio movimento, bem como o movimento de objetos em movimento em seus arredores, "disse Huang.

    A equipe usa uma câmera e uma unidade de medição inercial (IMU) para localizar simultaneamente um robô e rastrear um alvo em movimento. A linha verde é a trajetória do robô e a linha azul é a trajetória do alvo. Crédito:University of Delaware

    Em um artigo publicado no início deste ano no International Journal of Robotics Research (IJRR), Huang e sua equipe encontraram um melhor, solução mais precisa para combinar as medições inerciais. Até agora, cientistas usaram integração discreta, uma técnica de cálculo que aproxima a área sob uma curva, para aproximar a solução. Em vez de, O grupo de Huang encontrou uma solução e provou que era melhor do que os métodos existentes. Melhor ainda, eles estão compartilhando sua solução.

    "Abrimos o código do nosso código. Está no GitHub, "disse Huang." Muitas pessoas têm usado nosso código em seus sistemas. "Em outro artigo recente do IJRR, Huang e sua equipe reformularam o problema SLAM como uma fórmula que calcula pequenos incrementos de movimento dos robôs equipados com os sensores visuais e inerciais. Muitos desses vídeos de pesquisa podem ser encontrados no canal do YouTube do Huang's Lab.

    Essas descobertas podem ter aplicações além de veículos autônomos, de carros a drones aéreos, embarcações subaquáticas e muito mais. Os algoritmos de Huang também podem ser usados ​​para desenvolver aplicativos de realidade aumentada e realidade virtual para dispositivos móveis, como smartphones, que já possuem câmeras e sensores inerciais a bordo.

    “Esses sensores são muito comuns, então, a maioria dos dispositivos móveis, smartphones, até drones e veículos têm esses sensores, "disse Huang." Tentamos aproveitar os sensores baratos existentes e fornecer uma solução de localização, uma solução de rastreamento de movimento. "

    Em 2018 e novamente em 2019, Huang recebeu um prêmio de pesquisa do corpo docente do Google Daydream (AR / VR) para apoiar este trabalho.

    "As pessoas veem que os robôs serão a próxima grande novidade na vida real, então é por isso que a indústria impulsiona muito este campo de pesquisa, "disse Huang.


    © Ciência https://pt.scienceaq.com