• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Um olho mais rápido para a robótica para ajudar na nossa desordenada, ambientes humanos

    Trabalho provisório, um dos dois robôs no laboratório do professor associado do CSE Chad Jenkin, agarra um objeto. Odd Job e seu duplo, Biscoito, atualmente são capazes de agarrar objetos com base na profundidade e percepção de cores. Crédito:Joseph Xu, Engenharia de Michigan

    Em um passo em direção aos robôs caseiros que podem navegar rapidamente por espaços imprevisíveis e desordenados, Pesquisadores da Universidade de Michigan desenvolveram um algoritmo que permite que as máquinas percebam seus ambientes em ordens de magnitude mais rápido do que abordagens anteriores semelhantes.

    "A percepção do robô é um dos maiores gargalos no fornecimento de robôs auxiliares capazes que podem ser implantados nas casas das pessoas, "disse Karthik Desingh, um estudante de graduação em ciência da computação e engenharia e autor principal de um artigo sobre o trabalho publicado em Ciência Robótica .

    "Em ambientes industriais, onde há estrutura, robôs podem completar tarefas como construir carros muito rapidamente. Mas vivemos em ambientes não estruturados, e queremos que os robôs sejam capazes de lidar com a nossa desordem. "

    Historicamente, robôs operam de forma mais eficaz em ambientes estruturados, atrás de grades de proteção ou gaiolas para manter os humanos seguros e o espaço de trabalho do robô limpo e organizado. Contudo, o ambiente de um ser humano, no trabalho ou em casa, é normalmente uma confusão de objetos em vários estados:papéis em um teclado, uma bolsa escondendo as chaves do carro, ou um avental escondendo armários entreabertos.

    O novo algoritmo da equipe é chamado Pull Message Passing for Nonparametric Belief Propagation. Em 10 minutos, ele pode calcular uma compreensão precisa da pose de um objeto - ou posição e orientação - a um nível de precisão que leva abordagens anteriores de mais de uma hora e meia.

    A equipe demonstrou isso com um robô Fetch. Eles mostraram que seu algoritmo pode perceber e usar corretamente um conjunto de gavetas, mesmo quando meio coberto com um cobertor, quando uma gaveta está entreaberta, ou quando o próprio braço do robô está escondendo uma visão completa do sensor das gavetas. O algoritmo também pode ir além de uma simples cômoda para um objeto com múltiplas juntas complicadas. Eles mostraram que o robô pode perceber com precisão seu próprio corpo e o braço da garra.

    "Os conceitos por trás do nosso algoritmo, como a propagação de crenças não paramétrica, já são usados ​​em visão computacional e funcionam muito bem na captura das incertezas do nosso mundo. Mas esses modelos tiveram impacto limitado na robótica, pois são muito caros computacionalmente, exigindo mais tempo do que prático para um robô interativo ajudar nas tarefas diárias, "disse Chad Jenkins, professor de ciência da computação e engenharia e membro do corpo docente do Michigan's Robotics Institute.

    Técnicas anteriores baseavam-se em 'mensagens push'

    A técnica Nonparametric Belief Propagation, juntamente com a técnica similar Particle Message Passing, foram publicadas pela primeira vez em 2003. Eles são eficazes em visão computacional, que tenta obter uma compreensão completa de uma cena por meio de imagens e vídeo. Isso ocorre porque as imagens ou vídeos bidimensionais requerem menos poder computacional e tempo do que as cenas tridimensionais envolvidas na percepção do robô.

    Essas abordagens anteriores entendem uma cena, traduzindo-a em um modelo de gráfico de nós e arestas, que representam cada componente de um objeto e suas relações entre si. Os algoritmos então levantam hipóteses - ou criam crenças de - localizações e orientações de componentes quando dado um conjunto de restrições. Essas crenças, que os pesquisadores chamam de partículas, variam em uma gama de probabilidades.

    Para restringir os locais e orientações mais prováveis, os componentes utilizam "mensagens push" para enviar informações de localização provável entre os nós e de volta. Essas informações de localização são comparadas com os dados do sensor. Esse processo leva várias iterações para finalmente chegar a uma crença precisa de uma cena.

    Por exemplo, dado uma cômoda com três gavetas, cada componente do objeto - neste caso, cada gaveta e a própria cômoda - seriam um nó. As restrições seriam que as gavetas devem estar dentro da cômoda, e as gavetas se movem lateralmente, mas não verticalmente.

    A informação, passou entre os nós, é comparado com observações reais de sensores, como uma imagem 2-D e nuvem de pontos 3-D. As mensagens são repetidas por meio de iterações até que haja um acordo entre as crenças e os dados do sensor.

    Os novos algoritmos mudam para "mensagens pull"

    Para simplificar as demandas de computação, Desingh e a equipe de Michigan utilizaram o que é chamado de "mensagens pull". A abordagem deles transforma a cacofonia de idas e vindas, mensagens densas de informações em uma conversa concisa entre os componentes de um objeto.

    Neste exemplo, em vez de a cômoda enviar informações de localização para uma gaveta apenas depois de computar as informações das outras gavetas, a cômoda verifica primeiro as gavetas. Ele pede a cada gaveta sua própria crença de sua localização, então, para precisão, pesa essa crença contra as informações das outras gavetas. Ele converge para uma compreensão precisa de uma cena por meio de iterações, assim como a abordagem push.

    Para comparar diretamente sua nova abordagem com abordagens anteriores, eles o testaram em uma cena 2-D simples de um círculo com quatro braços retangulares escondidos entre um padrão de círculos e retângulos semelhantes.

    As abordagens anteriores exigiam mais de 20 minutos de tempo de processamento por iteração para passar mensagens, enquanto o novo método da equipe levou menos de dois minutos, e conforme o número de crenças ou partículas aumentava, essa melhoria se torna exponencialmente mais rápida.

    Nestes ensaios, foram necessárias cinco iterações com seu novo algoritmo para atingir um erro médio de menos de 3,5 polegadas na estimativa de localização das gavetas e cômoda, ou erro médio de menos de 8 polegadas na estimativa de localização quando a cômoda está parcialmente obscurecida por um cobertor.

    Isso está no mesmo nível das abordagens anteriores, e varia dependendo do tamanho do objeto, número de peças, e quanto é visível aos sensores. Mais importante, a precisão aumenta o suficiente para a manipulação bem-sucedida de objetos por um robô por meio de iterações contínuas.

    "Este é apenas o começo do que podemos fazer com a propagação de crenças na percepção do robô, "Desingh disse." Queremos dimensionar nosso trabalho para vários objetos e rastreá-los durante a execução da ação, e mesmo se o robô não estiver olhando para um objeto. Então, o robô pode usar esta habilidade para observar continuamente o mundo para manipulação orientada a objetivos e completar tarefas com sucesso. "


    © Ciência https://pt.scienceaq.com