Crédito:MIT, Jimmy Day / Creative Commons, Atribuição 4.0 Internacional
OK, nós entendemos. Especialistas em inteligência artificial estão em um ritmo acelerado de ano para ano, mês a mês, mostrando o que sua pesquisa pode prometer. Mas será que chegamos a esse estágio na interação humano-computador, onde você pode pensar em uma pergunta —— sem dizer uma palavra— e a máquina responderá com a resposta?
Quanto custa tudo isso? Qual é o clima em Denver?
O Projeto AlterEgo indica que chegamos a um estágio sem conversa tão empolgante.
"AlterEgo é um não invasivo, vestível, interface neural periférica que permite aos humanos conversar em linguagem natural com as máquinas, assistentes de inteligência artificial, Serviços, e outras pessoas sem voz - sem abrir a boca, e sem movimentos externamente observáveis - simplesmente articulando palavras internamente. "
O feedback do usuário é por meio de áudio, via condução óssea. O usuário pode transmitir e receber fluxos de informações de e para o dispositivo de computação.
Como você faz isso? Como você envia palavras se não fala em voz alta? Isso é por meio de vocalização interna, sinais neuromusculares da língua e da parte posterior do palato traduzidos em comandos de computador.
OK, você está conversando silenciosamente com sua máquina, mas não é um ato de brunch em Las Vegas. Este é o seu segundo eu. É mais como se você acabasse falando consigo mesmo. "O AlterEgo busca combinar humanos e computadores - de forma que a computação, a Internet, e a IA se entrelaçaria com a personalidade humana como um "segundo eu" interno e aumentaria a cognição e as habilidades humanas, "de acordo com a página do projeto.
Não é ler sua mente como resultado de apenas pensar. Este é um discurso silencioso.
"Falar silenciosamente é um esforço consciente para dizer uma palavra, caracterizado por movimentos sutis dos órgãos internos da fala, sem realmente expressá-lo. O processo resulta em sinais de seu cérebro para seus músculos que são captados como sinais neuromusculares e processados por nosso dispositivo, "disse o site do projeto.
A tecnologia é descrita em parte como por meio de áudio de condução óssea. O wearable do usuário é um fone de ouvido de condução óssea. Os sinais são transmitidos por meio de um 'adesivo, disse Quartzo , usado ao longo do pescoço e do queixo do usuário, e as respostas são alimentadas por um fone de ouvido.
Quem está por trás deste projeto? Aqueles que estiveram em uma recente conferência TED descobriram isso; ele é Arnav Kapur do MIT Media Lab, um pesquisador de aumento de inteligência.
Anne Quito reportou por Quartzo e observou um protótipo anterior no ano passado. "Embora o protótipo 2018 do AlterEgo fizesse o usuário parecer que tinha um ferimento na cabeça, "Kapur disse que eles estão focados em refinar o vestível a ponto de se tornarem imperceptíveis." o design que ele mostrou no TED era quase indetectável, exceto pelo fio que saía da orelha de Eric, "disse Quito.
Quando poderemos ver este dispositivo como um produto? Não tão cedo.
“Este é um projeto de pesquisa de base universitária. Continuamos a desenvolver o sistema com foco em melhorias, como a redução do número de eletrodos necessários, projetar fatores de forma mais socialmente aceitáveis, melhorando as redes neurais que reconhecem a fala silenciosa, além de trabalhar para reduzir o treinamento e a customização necessários, e por último mas não menos importante, projetar a experiência do usuário de ponta a ponta e aplicativos, "A resma do projeto explicou." Qualquer esperança de comercialização é prematura. "
Este, Contudo, não impede a equipe de apresentar aplicativos do mundo real. Como Fast Company comentou, as implicações de que este fone de ouvido pode ler as vibrações internas da fala são enormes. Além de perguntar silenciosamente como está o tempo em outra cidade. Ou quanto custam os mantimentos até agora.
Um desses beneficiários do AlterEgo pode ser uma pessoa que perdeu a capacidade de falar por causa de ALS, câncer de garganta ou derrame. O indivíduo com deficiência de fala pode se comunicar em tempo real.
No quadro geral, a equipe do MIT está fazendo sua parte para semear áreas interessantes em tecnologia, chamá-los de "aprimoramento cognitivo, "ou" aumento da inteligência ". Se os engenheiros gastam tanto tempo tornando nossas telas inteligentes, e nós? Essa é a pergunta de Kapur. "Em vez de tornar essa caixa mais inteligente, como você melhora os humanos para que eles sejam mais criativos e conectados? "
Trabalhando com Kapur neste projeto estão Pattie Maes, um professor, que dirige o grupo de pesquisa Fluid Interfaces do Media Lab, e Eric Wadkins, líder de aprendizado de máquina. Ele se juntou ao grupo Fluid Interfaces para trabalhar na criação de um sistema de reconhecimento de voz subvocal contínuo para o projeto.
© 2019 Science X Network