• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Novo filtro melhora a visão do robô na estimativa de pose 6-D

    Visão geral da estrutura PoseRBPF para rastreamento de pose de objeto 6D. O método aproveita um filtro de partículas Rao-Blackwellized e uma rede autocodificadora para estimar a tradução 3D e uma distribuição completa da rotação 3D de um objeto alvo a partir de uma sequência de vídeo. Crédito:Universidade de Illinois em Urbana-Champaign

    Os robôs são bons em fazer movimentos repetitivos idênticos, como uma tarefa simples em uma linha de montagem. (Pegue uma xícara. Vire-a. Largue-a.) Mas eles não têm a capacidade de perceber objetos conforme se movem pelo ambiente. (Um humano pega uma xícara, coloca-o em um local aleatório, e o robô deve recuperá-lo.) Um estudo recente foi conduzido por pesquisadores da Universidade de Illinois em Urbana-Champaign, NVIDIA, a Universidade de Washington, e a Stanford University, na estimativa de pose de objeto 6D para desenvolver um filtro que dê aos robôs uma maior percepção espacial para que possam manipular objetos e navegar pelo espaço com mais precisão.

    Enquanto a pose 3-D fornece informações de localização no X, Y, e eixos Z - localização relativa do objeto em relação à câmera - a pose 6D fornece uma imagem muito mais completa. "Muito parecido com a descrição de um avião em vôo, o robô também precisa saber as três dimensões da orientação do objeto - sua guinada, tom, e deslize, "disse Xinke Deng, estudante de doutorado estudando com Timothy Bretl, um professor associado do Departamento de Engenharia Aeroespacial da Universidade de I.

    E em ambientes da vida real, todas as seis dimensões estão mudando constantemente.

    "Queremos que um robô continue rastreando um objeto enquanto ele se move de um local para outro, "Deng disse.

    Deng explicou que o trabalho foi feito para melhorar a visão computacional. Ele e seus colegas desenvolveram um filtro para ajudar os robôs a analisar dados espaciais. O filtro olha para cada partícula, ou informação de imagem coletada por câmeras direcionadas a um objeto para ajudar a reduzir erros de julgamento.

    "Em uma estrutura de estimativa de pose 6D baseada em imagem, um filtro de partículas usa muitas amostras para estimar a posição e orientação, "Deng disse." Cada partícula é como uma hipótese, um palpite sobre a posição e orientação que queremos estimar. O filtro de partículas usa a observação para calcular o valor de importância das informações das outras partículas. O filtro elimina as estimativas incorretas.

    "Nosso programa pode estimar não apenas uma única pose, mas também a distribuição de incerteza da orientação de um objeto, "Deng disse." Anteriormente, não houve um sistema para estimar a distribuição completa da orientação do objeto. Isso fornece informações de incerteza importantes para a manipulação do robô. "

    Visão geral da estrutura PoseRBPF para rastreamento de pose de objeto 6D. O método aproveita um filtro de partículas Rao-Blackwellized e uma rede autocodificadora para estimar a tradução 3D e uma distribuição completa da rotação 3D de um objeto alvo a partir de uma sequência de vídeo. Crédito:University of Illinois Department of Aeropsace Engineering

    O estudo usa rastreamento de pose de objeto 6D na estrutura de filtragem de partículas Rao-Blackwellized, onde a rotação 3-D e a translação 3-D de um objeto são separadas. Isso permite a abordagem dos pesquisadores, chamado PoseRBPF, para estimar com eficiência a translação 3-D de um objeto junto com a distribuição completa ao longo da rotação 3-D. Como resultado, O PoseRBPF pode rastrear objetos com simetrias arbitrárias enquanto mantém distribuições posteriores adequadas.

    "Nossa abordagem atinge resultados de ponta em dois benchmarks de estimativa de pose 6D, "Deng disse.

    O estudo, "PoseRBPF:A Rao-Blackwellized Particle Filter for6D Object Pose Estimation, "foi apresentado na Robotics Science and Systems Conference em Freiburg, Alemanha. É co-escrito por Xinke Deng, Arsala Mousavian, Yu Xiang, Fei Xia, Timothy Bretl, e Dieter Fox.


    © Ciência https://pt.scienceaq.com