• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Para pessoas que gaguejam, a conveniência da tecnologia de assistente de voz permanece fora de alcance

    Crédito CC0:domínio público

    Você já se sentiu como se seus assistentes de voz - seja Siri, Alexa, ou Google - não entende você? Você pode repetir sua pergunta um pouco mais devagar, um pouco mais alto, mas eventualmente você obterá a informação que estava pedindo lida de volta para você nos tons agradáveis, mas sem vida, de seu assistente ativado por voz.

    Mas e se falar com o técnico de sua casa não fosse uma opção? Essa é a questão enfrentada por muitos dos 3 milhões de pessoas que gaguejam nos Estados Unidos, além de milhares de outras pessoas que têm fala prejudicada não se limitando à gagueira, e muitos estão se sentindo deixados de fora.

    "Quando essas coisas começaram a sair, Eu estava superando isso, "disse Jacquelyn Joyce Revere, um roteirista de Los Angeles que gagueja. "Em Los Angeles, Eu preciso de GPS o tempo todo, então essa parecia uma maneira mais conveniente de viver a vida que eu quero viver. "

    Revere disse que desde 2011, ela tentou usar Siri no iPhone e Apple Watch, e Alexa por meio de um Fire Stick da Amazon. Embora ela continue tentando usar esses assistentes de voz, suas tentativas muitas vezes a deixam desapontada.

    "Cada vez que tento usá-lo é outro prego no caixão, outro lembrete de que esta tecnologia não foi feita para mim, "Revere disse.

    Mas não é só Alexa e amigos

    As frustrações de Revere não se limitam aos assistentes de voz. Interfaces telefônicas automatizadas também apresentam problemas. Por exemplo, ela disse que não é incomum ela ficar até 40 minutos em espera, apenas para ser desligada de uma chamada por um operador de máquina quando ela não consegue pronunciar nenhuma palavra.

    De acordo com Jane Fraser, presidente da Stuttering Foundation, interfaces de telefone têm sido um problema comum na comunidade de gagueira há anos. Ela disse que a Stuttering Foundation recebe centenas de e-mails em busca de ajuda sobre como lidar com eles, ao passo que a tecnologia mais recente ajudou a emergir problemas antigos de novas maneiras.

    "Em geral, a tecnologia tem ajudado pessoas que gaguejam, mas quando você tenta dizer o que você quer, você tem a mesma experiência ao telefone com uma máquina ou outra pessoa - ambos desligam, "Fraser disse.

    Diferentes tipos de gagueira são ouvidos por assistentes de voz de maneiras diferentes. Algumas dessas formas de gagueira incluem prolongamentos, onde os sons são estendidos; repetições, quando os falantes repetem sons ou palavras; e blocos, que são as pausas que ocorrem quando o locutor não consegue pronunciar uma palavra. Fraser disse que as pessoas que gaguejam com bloqueios costumam ter mais problemas com assistentes de voz e interfaces de telefone ativadas por voz.

    "Se não houver voz, não há nada para ser ouvido pelo assistente de voz, então ele desliga ou interrompe, "Fraser disse.

    Revere muitas vezes gagueja com bloqueios, e ela disse que eles confundem os assistentes de voz mais do que qualquer outro tipo de gagueira.

    "Se eu tiver um bloqueio, eles desligaram completamente, "Revere disse, embora ela também tenha notado que Alexa é um pouco mais paciente do que Siri.

    Tayler Enyart, um paralegal de Elk Grove, Califórnia, é outro usuário Alexa e Siri que gagueja em blocos. Da mesma forma que Revere, ela tem problemas para usar essa tecnologia e se sente excluída por causa disso.

    "Usar essas tecnologias não é fácil para mim, "Enyart disse." Eu tentei todos eles, mas todos eles me cortaram. É realmente frustrante, então eu apenas tento evitá-los. Uma parte de mim se sente realmente excluída, mas outra parte é como, "Estou acostumada com isso."

    Como Big Tech está respondendo

    Maçã, Amazonas, e o Google tem suas próprias maneiras de fornecer acessibilidade para pessoas que gaguejam ou que tenham outras deficiências de fala. Amazon e Apple lançaram recursos que permitem aos usuários digitar comandos para Alexa ou Siri, como Toque para Alexa com o Echo Show, ou Digite para Siri com iOS 11 em 2018.

    O Google está constantemente atualizando seu Google Assistente com novos exemplos de voz para entender melhor as pessoas com sotaque ou disfluências de fala. E em 2019, a empresa anunciou um projeto de pesquisa chamado Projeto Euphonia, cujo objetivo é, eventualmente, criar um modelo de reconhecimento que pode entender pessoas com deficiência de fala em todas as plataformas de computador.

    O projeto, que foi inspirado por pacientes com ELA, visa coletar amostras de áudio suficientes para criar um modelo de som que pode prever e compreender padrões de fala prejudicados.

    "Há uma revolução acontecendo na forma como as pessoas usam a voz para interagir com computadores, mas algumas pessoas estão sendo deixadas para trás, "disse Michael Brenner, um professor de matemática aplicada de Harvard e um dos pesquisadores por trás do Projeto Euphonia.

    De acordo com Brenner, O maior desafio do Projeto Euphonia é a falta de dados. Como a tecnologia de reconhecimento de voz é treinada para ouvir a fala padrão, O Projeto Euphonia precisa de amostras de áudio de fala prejudicada para treinar os computadores a serem capazes de entendê-la também. Idealmente, O Projeto Euphonia teria acesso a dezenas de milhões de amostras de áudio, criando um modelo estatístico que pode prever e compreender os sons da fala prejudicada, mas esse é um padrão impossível.

    "Não queremos prometer demais porque não sabemos o que é possível, mas queremos ajudar as pessoas, "Brenner disse." Seria ideal ter amostras suficientes para ter um modelo geral, mas nós não. Queremos descobrir como fazer coisas que sejam úteis com o discurso que temos. "

    Erich Reiter é engenheiro de reconhecimento de fala e patologista da fala que ajudou a desenvolver o Siri quando trabalhou para a Nuance Communications. Ele está bem ciente das falhas da tecnologia de reconhecimento de voz para pessoas com fala prejudicada desde 2012.

    Aquele ano, um acidente de mergulho em águas rasas deixou um dos amigos de Reiter tetraplégico, e ele só podia se comunicar por meio de um dispositivo de comunicação aumentativa e alternativa (AAC), semelhante ao que o físico teórico inglês Stephen Hawking usou. De acordo com Reiter, it would take his friend three minutes to say something as simple as "I need water."

    This experience inspired Reiter to return to school to become a speech pathologist and eventually create voice recognition technology that helps people who stutter.

    Reiter is now one of the founders of Say-IT Labs, a Brussels-based start-up that is making video games intended to help people who stutter practice effective speech techniques. Their goal, according to Reiter, is to make speech therapy more accessible.

    "If you see a school SLP, chances are they have a caseload of about 60-80 students, " Reiter said. "That doesn't give them enough time to work on real progress."

    Say-IT Labs is currently working on a game called Fluency Friends, where players control colorful cartoon characters through treacherous obstacles. Only instead of a joystick or a keyboard, the game will prompt players with words or sentences they must say to move through the level.

    Similar to Project Euphonia, Say-IT Labs needs data to create an acoustic model for the game that understands stuttered speech. Até aqui, according to Reiter, his team has collected samples from 50 participants.

    Unlike Project Euphonia, Contudo, Say-IT Labs requires much less data to work with because the sound of stuttered speech is less variable than the impaired speech found in patients with neurological disorders, according to Reiter.

    "I hope that the kind of technology we're creating will allow us to help educate SLPs and people who stutter, instead of just helping 50 people (through conventional therapy), " Reiter said. "For the 1% of the population who stutters, it would be a gift to reach 1, 000. "

    Despite efforts to help, voice assistants still remain inaccessible for many people who stutter. Hannah Arnold is a dental receptionist from Kent, Washington, who first tried using Siri and Alexa in 2013. Her first attempts came a little anxiously, as she wasn't sure how the machines would respond to her stutter.

    "I have trouble with Ws. It takes me a while to say them, " Arnold said. "So Siri would always interrupt me when I'd try to say, "Ei, Siri, what is the weather going to be like today?'"

    Hoje, Arnold rarely uses voice assistants, but she sees how they could easily make her life better. Por exemplo, instead of having to type from the screen on her Apple Watch, or ask for directions in her car, she could just ask Siri instead.

    "It's pretty hard because I feel like voice recognition—and talking to other technology—is expanding, " Arnold said. "But with advancements in new technology, I'm hopeful we'll have more accommodations."

    (c) 2020, EUA Hoje
    Distribuído pela Tribune Content Agency, LLC.




    © Ciência https://pt.scienceaq.com