• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • O treinamento físico é o próximo obstáculo para a inteligência artificial, diz o pesquisador

    Crédito:Pixabay/CC0 Public Domain

    Deixe um milhão de macacos baterem em um milhão de máquinas de escrever por um milhão de anos e, diz o ditado, eles reproduzirão as obras de Shakespeare. Dê aos macacos infinitos tempo infinito, e eles ainda não apreciarão a frase poética do bardo, mesmo que possam digitar as palavras. O mesmo vale para a inteligência artificial (IA), de acordo com Michael Woolridge, professor de ciência da computação da Universidade de Oxford. A questão, segundo ele, não é o poder de processamento, mas sim a falta de experiência.
    Sua perspectiva foi publicada em 25 de julho na revista Intelligent Computing .

    "Nos últimos 15 anos, a velocidade do progresso em IA em geral, e aprendizado de máquina (ML) em particular, surpreendeu repetidamente comentaristas experientes de IA como eu:tivemos que recalibrar continuamente nossas expectativas sobre o que vai acontecer. possível e quando", disse Wooldridge.

    "Apesar de todas as suas realizações serem elogiadas, acho que há um aspecto crucial em que a maioria dos grandes modelos de ML são bastante restritos:o mundo e o fato de que os modelos simplesmente não têm experiência com isso."

    A maioria dos modelos de ML são criados em mundos virtuais, como videogames. Eles podem treinar em grandes conjuntos de dados, mas para aplicativos físicos, eles estão perdendo informações vitais. Wooldridge apontou para a IA que sustenta os veículos autônomos como exemplo.

    “Deixar carros sem motorista soltos nas estradas para aprender por si mesmos não é uma boa ideia, então, por essa e outras razões, os pesquisadores optam por construir seus modelos em mundos virtuais”, disse Wooldridge. “E dessa forma, estamos ficando animados com uma geração de sistemas de IA que simplesmente não têm capacidade de operar no ambiente mais importante de todos:nosso mundo”.

    Os modelos de IA de linguagem, por outro lado, são desenvolvidos sem a pretensão de um mundo – mas ainda sofrem das mesmas limitações. Eles evoluíram, por assim dizer, de textos preditivos ridiculamente terríveis para o LaMDA do Google, que ganhou as manchetes no início deste ano quando um ex-engenheiro do Google afirmou que a IA era senciente.

    "Qualquer que seja a validade das conclusões [do engenheiro], ficou claro que ele ficou profundamente impressionado com a capacidade do LaMDA de conversar - e com boas razões", disse Wooldridge, observando que ele pessoalmente não acredita que o LaMDA seja senciente, nem a IA esteja perto de tal um marco.

    "Esses modelos fundamentais demonstram capacidades sem precedentes na geração de linguagem natural, produzindo trechos extensos de texto com som natural. Eles também parecem ter adquirido alguma competência no raciocínio de senso comum, um dos santos graais da pesquisa de IA nos últimos 60 anos."

    Esses modelos são redes neurais, alimentando-se de enormes conjuntos de dados e treinando para entendê-los. Por exemplo, o GPT-3, um antecessor do LaMDA, treinou em todo o texto em inglês disponível na internet. A quantidade de dados de treinamento combinada com um poder computacional significativo torna os modelos semelhantes ao cérebro humano, onde eles passam por tarefas restritas para começar a reconhecer padrões e fazer conexões aparentemente não relacionadas à tarefa principal.

    “A aposta com os modelos de fundação é que seu extenso e amplo treinamento leva a competências úteis em várias áreas, que podem ser especializadas para aplicações específicas”, disse Wooldridge. "Enquanto a IA simbólica foi baseada na suposição de que a inteligência é principalmente um problema de conhecimento, os modelos básicos são baseados na suposição de que a inteligência é principalmente um problema de dados. Para simplificar, mas não muito, jogue dados de treinamento suficientes em grandes modelos, e espero que surja a competência."

    Essa abordagem de "poder é certo" amplia os modelos para produzir IA mais inteligente, argumentou Wooldridge, mas isso ignora o know-how físico necessário para realmente avançar na IA.

    "Para ser justo, há alguns sinais de que isso está mudando", disse Wooldridge, apontando para o sistema Gato. Anunciado em maio pela DeepMind, o modelo de fundação, treinado em grandes conjuntos de linguagem e em dados robóticos, poderia operar em um ambiente simples, mas físico.

    "É maravilhoso ver os primeiros passos de bebê dados no mundo físico por modelos de fundação. Mas são apenas pequenos passos:os desafios a serem superados para fazer a IA funcionar em nosso mundo são pelo menos tão grandes - e provavelmente maiores - do que os enfrentados fazendo a IA funcionar em ambientes simulados." + Explorar mais

    Um engenheiro de software do Google acredita que uma IA se tornou senciente. Se ele estiver certo, como saberíamos?




    © Ciência https://pt.scienceaq.com