Como o cérebro decodifica a fala em salas barulhentas

Como o cérebro decodifica a fala em salas barulhentas

Resumo: Os pesquisadores descobriram que o cérebro decodifica a fala de maneira diferente em ambientes ruidosos, dependendo do volume da fala e de nossa concentração nela.

Seu estudo, que usa gravações neurais e modelos de computador, mostra que nossos cérebros codificam informações fonéticas de maneira diferente quando temos problemas para acompanhar uma conversa no meio de vozes mais altas do que quando a voz é fácil de ouvir. Isso pode ser crucial para melhorar os aparelhos auditivos que isolam a fala atual.

Esta pesquisa pode levar a melhorias significativas nos sistemas de decodificação da atenção auditiva, particularmente em aparelhos auditivos controlados pelo cérebro.

Fatos importantes:

  1. O estudo descobriu que nossos cérebros codificam informações fonéticas de maneira diferente em situações ruidosas, dependendo do volume da fala em que estamos focando e da intensidade de nossa atenção.
  2. Os pesquisadores usaram gravações neurais para criar modelos preditivos de atividade cerebral e mostraram que as informações fonéticas ‘voláteis’ e ‘mascaradas’ são codificadas separadamente em nossos cérebros.
  3. Esta descoberta pode levar a avanços significativos na tecnologia de aparelhos auditivos, particularmente na melhoria dos sistemas de decodificação de atenção auditiva para aparelhos auditivos controlados pelo cérebro.

Fonte: MAIS

Pesquisadores liderados pelo Dr. Nima Mesgarani, da Columbia University, EUA, relata que o cérebro trata a linguagem de maneira diferente em uma sala lotada, dependendo de quão fácil é ouvir e se estamos nos concentrando nisso.

Publicação a 6 de junho na revista de acesso aberto biologia PLOSO estudo usa uma combinação de gravações neurais e modelos de computador para mostrar que, quando rastreamos a fala abafada por vozes mais altas, a informação fonética é codificada de forma diferente do que na situação inversa.

Os resultados podem ajudar a melhorar os aparelhos auditivos que funcionam isolando a fala presente.

Pode ser difícil se concentrar na fala em uma sala lotada, especialmente quando outras vozes são mais altas. No entanto, amplificar todos os sons igualmente faz pouco para melhorar a capacidade de isolar essas vozes difíceis de ouvir, e os aparelhos auditivos que apenas tentam amplificar a fala de presença ainda são muito imprecisos para uso prático.

Crédito da foto: Neuroscience News

Para entender melhor como a linguagem é processada em tais situações, pesquisadores da Universidade de Columbia registraram a atividade neural de eletrodos implantados no cérebro de pessoas com epilepsia durante uma cirurgia cerebral. Os pacientes foram solicitados a prestar atenção a uma única voz que às vezes era mais alta do que outra voz (“passante”) e às vezes mais baixa (“mascarada”).

Os pesquisadores usaram as gravações neurais para criar modelos preditivos de atividade cerebral. Os modelos mostraram que a informação fonética da fala “fátua” foi codificada nos córtices auditivos primário e secundário do cérebro, e que a codificação da fala presente foi aprimorada no córtex secundário.

Em contraste, a fala “mascarada” codificava informações fonéticas apenas quando era a voz presente. Finalmente, a codificação da fala “mascarada” ocorreu mais tarde do que a da fala “efêmera”. Uma vez que as informações fonéticas ‘fêmeras’ e ‘mascaradas’ parecem ser codificadas separadamente, focar na decodificação apenas da parte ‘mascarada’ da fala presente pode levar a sistemas de decodificação de atenção auditiva aprimorados para aparelhos auditivos controlados pelo cérebro.

Vinay Raghavan, principal autor do estudo, diz: “Quando você ouve alguém em um lugar barulhento, seu cérebro recria o que você perdeu quando o ruído de fundo era muito alto. Seu cérebro também pode captar trechos de fala nos quais você não está se concentrando, mas apenas se a pessoa que você está ouvindo estiver calma em comparação.”

Sobre esta novidade da pesquisa em neurociência auditiva

Autor: Nima Mesgarani
Fonte: MAIS
Contato: Nima Mesgarani – PLOS
Foto: A imagem é do Neuroscience News

Pesquisa original: Acesso livre.
Codificação neural distinta de fala efêmera e mascarada em situações multitalker” por Nima Mesgarani et al. biologia PLOS


Abstrato

Codificação neural distinta de fala efêmera e mascarada em situações multitalker

Os humanos podem sintonizar facilmente um alto-falante em um ambiente com vários alto-falantes e ainda captar trechos da fala de fundo; No entanto, ainda não está claro como percebemos a fala mascarada e até que ponto a fala não-alvo é processada.

Alguns modelos sugerem que a percepção pode ser alcançada através de vislumbres, que são regiões espectrotemporais onde um falante tem mais energia do que o fundo. No entanto, outros modelos exigem a restauração das regiões mascaradas.

Para esclarecer essa questão, registramos diretamente o córtex auditivo (CA) primário e não primário de pacientes neurocirúrgicos enquanto atendia a um falante em fala multifalante e treinamos modelos de função de resposta temporal para detectar atividade neural gama alta. e recursos de estímulos mascarados.

Descobrimos que a fala transitória é codificada no nível do recurso fonético para falantes-alvo e não-alvo, com a codificação do idioma-alvo sendo aprimorada em falantes AC não primários. Em contraste, a codificação de traços fonéticos mascarados foi encontrada apenas para o alvo, com maior latência de resposta e organização anatômica distinta em comparação aos traços fonéticos visíveis.

Esses resultados sugerem mecanismos separados para codificar o vislumbre e a fala mascarada e fornecem evidências neurais para o modelo vislumbrante da percepção da fala.

Leave a Reply

Your email address will not be published. Required fields are marked *

Back To Top