• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Um engenheiro propõe um novo modelo para a forma como os humanos localizam os sons

    Crédito:New Jersey Institute of Technology

    Um dos enigmas duradouros da perda auditiva é o declínio na capacidade de uma pessoa de determinar a origem de um som, uma faculdade chave de sobrevivência que permite aos animais - de lagartos a humanos - identificar a localização do perigo, presa e membros do grupo. Nos tempos modernos, encontrar um celular perdido usando o aplicativo "Encontre Meu Dispositivo, "só para descobrir que tinha escorregado para baixo de um travesseiro do sofá, depende de diferenças mínimas no som de toque que chega aos ouvidos.

    Ao contrário de outras percepções sensoriais, como sentir onde as gotas de chuva atingem a pele ou ser capaz de distinguir notas altas de baixas no piano, a direção dos sons deve ser calculada; o cérebro os estima processando a diferença no tempo de chegada entre as duas orelhas, a chamada diferença de tempo interaural (ITD). Um consenso de longa data entre engenheiros biomédicos é que os humanos localizam sons com um esquema semelhante a um mapa espacial ou bússola, com neurônios alinhados da esquerda para a direita que disparam individualmente quando ativados por um som vindo de um determinado ângulo - digamos, a 30 graus à esquerda do centro da cabeça.

    Mas em pesquisa publicada este mês na revista eLife , Antje Ihlefeld, diretor do Laboratório de Engenharia Neural para Fala e Audição do NJIT, está propondo um modelo diferente baseado em um código neural mais dinâmico. A descoberta oferece uma nova esperança, ela diz, que os engenheiros podem um dia desenvolver aparelhos auditivos, agora notoriamente pobre em restaurar a direção do som, para corrigir esse déficit.

    "Se houver um mapa estático no cérebro que se degrada e não pode ser corrigido, isso representa um obstáculo assustador. Isso significa que as pessoas provavelmente não podem "reaprender" a localizar bem os sons. Mas se essa capacidade de percepção é baseada em um código neural dinâmico, dá-nos mais esperança de retreinar os cérebros das pessoas, "Ihlefeld observa." Nós programamos aparelhos auditivos e implantes cocleares não apenas para compensar a perda auditiva de um indivíduo, mas também com base em quão bem essa pessoa pode se adaptar ao uso de dicas de seus dispositivos. Isso é particularmente importante para situações com som de fundo, onde nenhum aparelho auditivo pode atualmente restaurar a capacidade de isolar o som alvo. Sabemos que fornecer pistas para restaurar a direção do som realmente ajudaria. "

    O que a levou a essa conclusão é uma jornada de trabalho de detetive acadêmico que começou com uma conversa com Robert Shapley, um eminente neurofisiologista da NYU que comentou sobre uma peculiaridade da percepção de profundidade binocular humana - a capacidade de determinar a que distância um objeto visual está - que também depende de um cálculo comparando a entrada recebida por ambos os olhos. Shapley observou que essas estimativas de distância são sistematicamente menos precisas para estímulos de baixo contraste (imagens que são mais difíceis de distinguir de seu ambiente) do que para os de alto contraste.

    Ihlefeld e Shapley se perguntaram se o mesmo princípio neural se aplica à localização sonora:se é menos preciso para sons mais suaves do que para sons mais altos. Mas isso se afastaria da teoria do mapa espacial prevalecente, conhecido como o modelo Jeffress, que sustenta que os sons de todos os volumes são processados ​​- e, portanto, percebidos - da mesma maneira. Fisiologistas, que propõem que os mamíferos dependem de um modelo neural mais dinâmico, há muito discordo dela. Eles sustentam que os neurônios de mamíferos tendem a disparar em taxas diferentes dependendo dos sinais direcionais e que o cérebro então compara essas taxas em conjuntos de neurônios para construir dinamicamente um mapa do ambiente sonoro.

    "O desafio de provar ou refutar essas teorias é que não podemos olhar diretamente para o código neural para essas percepções porque os neurônios relevantes estão localizados no tronco cerebral humano, portanto, não podemos obter imagens de alta resolução deles, "ela diz." Mas tínhamos um palpite de que os dois modelos dariam diferentes previsões de localização de som em um volume muito baixo. "

    Eles pesquisaram a literatura em busca de evidências e encontraram apenas dois artigos que registraram a partir do tecido neural com esses sons graves. Um estudo foi em corujas de celeiro, uma espécie que se acredita que se baseie no modelo de Jeffress, com base em gravações de alta resolução no tecido cerebral das aves - e o outro estudo foi em um mamífero, o macaco rhesus, um animal pensado para usar codificação de taxa dinâmica. Eles então reconstruíram cuidadosamente as propriedades de disparo dos neurônios registrados nesses estudos antigos e usaram suas reconstruções para estimar a direção do som em função do ITD e do volume.

    "Esperávamos que, para os dados da coruja-das-torres, realmente não deveria importar o quão alto é a fonte - a direção do som prevista deve ser realmente precisa, não importa o volume do som - e fomos capazes de confirmar isso. Contudo, o que descobrimos para os dados do macaco é que a direção do som prevista dependia tanto do ITD quanto do volume, "ela disse." Em seguida, pesquisamos a literatura humana em busca de estudos sobre a percepção da direção do som em função do ITD, que também não dependia do volume, mas surpreendentemente não encontrou nenhuma evidência para apoiar esta crença de longa data. "

    Ela e seu aluno de pós-graduação, Nima Alamatsaz, em seguida, alistou voluntários no campus do NJIT para testar suas hipóteses, usando sons para testar como o volume afeta onde as pessoas pensam que um som emerge.

    "Construímos um ambiente extremamente silencioso, sala blindada com equipamento especializado calibrado que nos permitiu apresentar sons com alta precisão aos nossos voluntários e registrar onde eles perceberam o som se originar. E com certeza, as pessoas identificaram erroneamente os sons mais suaves, "observa Alamatsaz.

    "A data, não somos capazes de descrever cálculos de localização de som no cérebro com precisão, "acrescenta Ihlefeld." No entanto, os resultados atuais são inconsistentes com a noção de que o cérebro humano depende de uma computação semelhante à de Jeffress. Em vez de, parecemos confiar em um mecanismo um pouco menos preciso.

    Mais amplamente, os pesquisadores dizem, seus estudos apontam para paralelos diretos na audição e percepção visual que foram negligenciados antes e que sugerem que a codificação baseada em taxa é uma operação básica subjacente ao calcular dimensões espaciais de duas entradas sensoriais.

    "Porque nosso trabalho descobre princípios unificadores entre os dois sentidos, prevemos que o público interessado incluirá cientistas cognitivos, fisiologistas e especialistas em modelagem computacional em audição e visão, "Diz Ihlefeld." É fascinante comparar como o cérebro usa as informações que chegam aos nossos olhos e ouvidos para dar sentido ao mundo ao nosso redor e descobrir que duas percepções aparentemente desconexas - visão e audição - podem de fato ser bastante semelhantes, afinal . "


    © Ciência https://pt.scienceaq.com