• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Expressar e reconhecer intenções em robôs

    Fazer com que programas de computador inteligentes reconheçam e expressem intenções é complexo, mostra a tese de Michele Persiani. Crédito:Unsplash

    Os mundos digital e físico estão se tornando cada vez mais povoados por programas de computador inteligentes chamados agentes. Os agentes têm o potencial de automatizar de forma inteligente muitas tarefas diárias, como manter uma agenda, dirigir, interagir com um telefone ou computador e muito mais. No entanto, há muitos desafios a serem resolvidos antes de chegar lá. Uma delas é que os agentes precisam reconhecer e expressar intenções, mostra Michele Persiani em sua tese em ciência da computação na Universidade de Umeå.
    No futuro, muitos de nossos dispositivos eletrônicos serão preenchidos por pelo menos um agente. No entanto, antes que isso aconteça, precisamos projetar seu funcionamento para a interação humana, ou seja, fazê-los se comportar de maneira compreensível para nós, bem como fazê-los entender o que queremos deles.

    Em sua tese, "Expressando e Reconhecendo Intenções", Michele Persiani aborda partes desses desafios concentrando-se na intencionalidade. Isso é útil para considerar quando os agentes realizam um comportamento direcionado a objetivos, iniciando sequências de ações com o objetivo de alcançar algo. Sempre que um agente decreta tal comportamento, é crucial manter o entendimento com seus colaboradores sobre o que está fazendo, qual é o seu objetivo e como irá alcançá-lo. Caso contrário, mal-entendidos podem levar a situações perigosas em que o humano não tem conhecimento do robô e vice-versa.

    “Essa necessidade de entendimento surge simplesmente porque não podemos permitir que uma máquina poderosa ao nosso lado não tenha ideia do que ela está fazendo”, diz ele. "Imagine que é 2050, você acorda de manhã e seu robô mordomo está ocupado fazendo alguma coisa, mas você não tem ideia do que é. Está limpando o chão? Preparando uma refeição? Vamos torcer para não jogar o gato pela janela ."

    Em sua tese, Michele Persiani usa um modelo estabelecido da psicologia da vida cotidiana conhecido como Teoria da Mente, que explica como os agentes de computador podem pensar sobre outros agentes, formando hipóteses sobre seus objetivos e crenças. Esse modelo é formado por outro importante conceito da psicologia da vida cotidiana, a racionalidade:

    "Aplicado ao nosso caso, vamos fazer o robô pensar em nosso objetivo, fazendo-o assumir que somos movidos pela racionalidade, e vice-versa, vamos fazê-lo raciocinar sobre como estamos tentando entender seus objetivos, assumindo que pensamos é um ser racional", diz ele.

    Esses processos de reconhecimento e expressão de intenções são bastante complicados, e pesquisas anteriores geralmente os consideram com conjuntos distintos de técnicas. No entanto, a tese mostra como esses processos podem compartilhar uma arquitetura computacional subjacente comum, e dentro dela representar um dual de cada um, não apenas em palavras, mas também em fórmulas. Esta é uma tentativa de unificação em uma única arquitetura computacional, englobando o que significa acessar a intencionalidade quando se trata de mais de um agente, e esperamos que seja um marco para a pesquisa na área, diz Michele Persiani.

    "A integração de agentes inteligentes em nosso dia a dia será um processo longo e devemos estar otimistas", diz ele. + Explorar mais

    Usando inteligência artificial para treinar equipes de robôs para trabalharem juntos




    © Ciência https://pt.scienceaq.com