Os aparelhos auditivos percorreram um longo caminho para enfrentar os desafios enfrentados por pessoas com perda auditiva. Vimos um progresso notável na tecnologia, especialmente quando se trata de lidar com a principal preocupação de entender a fala em ambientes ruidosos.
O advento das redes neurais profundas marca um avanço significativo nas capacidades dos aparelhos auditivos. Essa abordagem de inteligência artificial permite uma separação sem precedentes entre fala e ruído de fundo, aprimorando a experiência auditiva dos usuários. À medida que os fabricantes continuam investindo pesadamente em pesquisa e desenvolvimento, estamos testemunhando uma nova era de assistência auditiva que promete revolucionar a forma como as pessoas com perda auditiva navegam em seu mundo auditivo.
Ouvir no ruído de fundo representa um obstáculo significativo para indivíduos com perda auditiva. Esse problema é consistentemente classificado como a principal preocupação entre aqueles que sofrem de deficiências auditivas. Embora os fabricantes de aparelhos auditivos tenham feito progressos no desenvolvimento de vários recursos, seu foco principal continua sendo resolver esse problema crucial.
Empresas líderes do setor investem recursos substanciais em pesquisa e desenvolvimento, com o objetivo de aprimorar compreensão da fala em situações ruidosas. Desde meados da década de 1990, o processamento digital de sinais tem impulsionado melhorias constantes no desempenho do aparelho auditivo. As taxas de satisfação entre os usuários aumentaram de 54% para 83% até 2022, refletindo esses avanços.
Vários fatores contribuem para esse aumento da satisfação, incluindo melhores práticas de atendimento audiológico e inovações tecnológicas. A redução de ruído, os microfones direcionais e a tecnologia de microfone remoto desempenharam um papel no aprimoramento da experiência do usuário. Apesar desses avanços, o progresso no desempenho do aparelho auditivo em ambientes ruidosos começou a se estabilizar, com apenas pequenas melhorias entre as gerações.
A introdução da inteligência artificial, especificamente redes neurais profundas (DNN), em janeiro de 2021 marcou um ponto de virada na abordagem desse desafio. As DNNs representam um avanço significativo na capacidade de separar a fala do ruído de fundo, oferecendo uma nova esperança para aqueles que enfrentam dificuldades em ambientes ruidosos.
O processamento digital tradicional de sinais dependia de algoritmos projetados por humanos para diferenciar entre fala e ruído. Engenheiros qualificados criaram esses sistemas, mas sua capacidade de identificar e definir as inúmeras diferenças acústicas entre vários sons era limitada. Os DNNs, no entanto, podem ser treinados em milhões de amostras de som, aprendendo a distinguir a fala do ruído com muito mais precisão e adaptabilidade.
A tecnologia de aparelhos auditivos evoluiu muito desde meados da década de 1990, quando o processamento digital de sinais revolucionou o setor. Vimos um progresso notável nas taxas de satisfação do usuário, subindo de 54% em 1996 para impressionantes 83% em 2022. Essa melhoria significativa pode ser atribuída a vários fatores, incluindo práticas aprimoradas de cuidados audiológicos e inovações tecnológicas.
Os principais avanços na tecnologia de aparelhos auditivos incluíram:
Esses recursos melhoraram muito a experiência auditiva de muitos usuários. No entanto, apesar desses desenvolvimentos, o progresso em desempenho de ruído de fundo começou a se estabilizar nos últimos anos.
O divisor de águas chegou em janeiro de 2021 com a introdução de redes neurais profundas (DNNs) em aparelhos auditivos. Essa forma de inteligência artificial transformou a forma como os aparelhos auditivos processam o som em ambientes ruidosos.
As DNNs funcionam imitando as conexões neurais do cérebro humano. Eles são treinados em milhões de amostras de som, aprendendo a distinguir entre fala e ruído com uma precisão incrível. Essa abordagem supera em muito os métodos tradicionais que dependiam de algoritmos de engenharia humana para definir diferenças acústicas.
As redes neurais estão revolucionando a tecnologia de aparelhos auditivos. Esses algoritmos sofisticados imitam a estrutura do cérebro humano, usando camadas interconectadas para processar e interpretar informações sonoras complexas. Ao treinar em vastos conjuntos de dados de amostras de áudio, as redes neurais podem distinguir a fala do ruído de fundo com uma precisão sem precedentes. Esse recurso aborda um dos desafios mais significativos enfrentados pelos usuários de aparelhos auditivos: entender conversas em ambientes ruidosos.
O processamento de som tradicional em aparelhos auditivos dependia de algoritmos projetados por humanos para diferenciar a fala do ruído. Embora eficazes até certo ponto, esses métodos tinham limitações em ambientes acústicos complexos. As redes neurais superam essas técnicas mais antigas ao identificar padrões e características sutis no som que os engenheiros humanos podem ignorar. Isso resulta em uma redução de ruído mais precisa e adaptável, melhorando significativamente a clareza da fala para os usuários.
A aplicação das redes neurais vai muito além da tecnologia auditiva. Nos serviços postais, esses sistemas decifram com precisão os endereços manuscritos, demonstrando sua versatilidade nas tarefas de reconhecimento de padrões. Essa capacidade de aprender e se adaptar a entradas variadas torna as redes neurais inestimáveis em vários campos, do reconhecimento de imagens ao processamento da linguagem.
A tecnologia de aparelhos auditivos viu avanços significativos desde meados da década de 1990, com o processamento digital de sinais levando a melhorias constantes. As taxas de satisfação do usuário subiram de 54% em 1996 para 83% em 2022. Esse progresso pode ser atribuído a melhores práticas de atendimento audiológico e inovações, como redução de ruído e microfones direcionais. No entanto, apesar desses ganhos, a eficácia do aparelho auditivo em ambientes ruidosos começou a se estabilizar, com apenas pequenos aprimoramentos entre as gerações do produto.
As redes neurais profundas (DNNs) transformaram as capacidades dos aparelhos auditivos, principalmente ao distinguir a fala do ruído de fundo. O processamento digital tradicional de sinais dependia de algoritmos projetados por humanos para diferenciar a fala do ruído, que tinham limitações. Os DNNs, no entanto, imitam as conexões neurais do cérebro humano e podem ser treinados em milhões de amostras de som. Isso permite que eles identifiquem distinções sutis entre fala e ruído com muito mais eficiência do que os métodos convencionais.
Oticon deu passos significativos no aprimoramento de sua tecnologia de rede neural profunda. Eles atualizaram seu sistema original para a versão 2.0, demonstrando um compromisso com a melhoria contínua. Essa última iteração se baseia na base de seu algoritmo inicial de aprendizado profundo, processando amostras de som com mais eficiência para distinguir a fala do ruído de fundo.
A rede neural aprimorada permite uma melhor adaptação a vários ambientes acústicos, potencialmente oferecendo aos usuários uma comunicação mais clara em situações auditivas desafiadoras. Ao refinar sua abordagem baseada em IA, a Oticon visa proporcionar experiências auditivas mais naturais e confortáveis.
A Phonak apresentou o Esfera Infinio aparelho auditivo em agosto de 2024, marcando um salto significativo na tecnologia auditiva. Este dispositivo utiliza um sistema de chip duplo:
O chip Deep Sonic, alimentado por uma rede neural profunda especializada, se concentra exclusivamente em isolar a fala do ruído de fundo. Essa abordagem direcionada permite uma clareza notável em ambientes ruidosos.
A Phonak lançou amostras de áudio demonstrando as capacidades do Infinio Sphere:
Antes do processamentoApós o processamentoFala abafada com ruído de fundo proeminenteFala nítida com ruído significativamente reduzido
Starkey lançou seu aparelho auditivo Edge AI em outubro de 2024, incorporando tecnologia de rede neural profunda em seu processamento principal. Ao contrário de seus modelos anteriores, que exigiam a ativação manual dos recursos de IA, o Edge AI opera continuamente.
Os principais recursos do Edge AI incluem:
A adaptação profissional do aparelho auditivo é essencial para um desempenho ideal. Vimos avanços notáveis na tecnologia de aparelhos auditivos, especialmente com redes neurais profundas revolucionando o reconhecimento de fala em ambientes ruidosos. Esses sofisticados sistemas de IA podem separar a fala do ruído de fundo com mais eficiência do que nunca.
Grandes fabricantes, como Oticon, Phonak e Starkey, investiram pesadamente nessa tecnologia. O aparelho auditivo Infinio Sphere da Phonak, lançado em agosto de 2024, usa dois chips: um para processamento geral de som e outro dedicado à separação de ruído de fala. O aparelho auditivo Starky's Edge AI, lançado em outubro de 2024, emprega continuamente uma rede neural profunda.
Embora essas inovações sejam impressionantes, sua eficácia depende muito do ajuste e da programação adequados por um profissional de saúde auditiva qualificado. Mesmo a IA mais avançada não pode compensar uma configuração inadequada. O ajuste especializado garante que o dispositivo seja adaptado às suas necessidades auditivas e estilo de vida específicos.
Uma adaptação profissional normalmente envolve:
Não podemos exagerar a importância de trabalhando com um audiologista qualificado. Eles ajustarão seus aparelhos auditivos para maximizar os benefícios dessas tecnologias de ponta, ajudando você a ouvir com clareza em ambientes desafiadores.
Esse é o futuro da tecnologia de aparelhos auditivos e está acontecendo agora.
Olá pessoal, Cliff Olson, Doutor em Audiologia e fundador da Applied Hearing Solutions em Phoenix, Arizona. E neste vídeo eu estou falando sobre redes neurais profundas e como essa forma de inteligência artificial está mudando completamente. Qual o desempenho dos aparelhos auditivos em caso de ruído de fundo?
Pergunte a qualquer pessoa com perda auditiva e garanto que ela dirá que o principal desafio que enfrentam devido à perda auditiva é ouvir ruídos de fundo. E embora muitas pessoas achem que os fabricantes de aparelhos auditivos gastam muito tempo desenvolvendo recursos interessantes dentro de aparelhos auditivos, como LE Audio, controles de toque Bluetooth e programação remota, posso dizer que esses fabricantes estão gastando muito mais tempo tentando resolver esse problema de audição e ruído de fundo.
Praticamente toda a inovação tecnológica no setor de aparelhos auditivos está sendo liderada por alguns fabricantes, incluindo Sonova, Damont, Starkey, GN e WSAUdiology. Combinado. Esses fabricantes de aparelhos auditivos gastam centenas de milhões de dólares todos os anos em pesquisa e desenvolvimento para resolver essa prioridade máxima que você tem como pessoa com perda auditiva, que é garantir que você possa entrar em uma situação ruidosa e realmente entender as pessoas que estão falando com você.
Para fornecer um contexto histórico aqui, que remonta a meados da década de 1990, quando o processamento digital de sinais realmente decolou, o desempenho do aparelho auditivo tem melhorado constantemente desde então. Na verdade, de acordo com dados de mercado desde o início dessa revolução dos aparelhos auditivos digitais em 1996, as taxas de satisfação com aparelhos auditivos aumentaram dramaticamente de 54% para 83% de satisfação até 2022, o que representa um aumento de quase 30%.
Um grande motivo para esse aumento na satisfação com aparelhos auditivos provavelmente se deve a várias coisas, incluindo as melhores práticas de cuidados audiológicos, que incluem medidas de caixa de teste, medições reais do ouvido e medidas de resultados validadas. Mas também tem a ver com inovações tecnológicas, como redução de ruído, microfones direcionais e tecnologia de microfone remoto.
No entanto, mesmo com essas melhorias na tecnologia de aparelhos auditivos digitais nas últimas décadas, o desempenho do aparelho auditivo no ruído de fundo começou a estagnar, levando a apenas melhorias incrementais de geração em geração de novas tecnologias. Isso até que a inteligência artificial na forma de redes neurais profundas começou a entrar em cena em janeiro de 2021.
Mas antes de dizer exatamente como a Deep Neural Networks mudou completamente o jogo para usuários de aparelhos auditivos com ruído de fundo, faça-me um grande favor e clique no botão curtir. Isso realmente ajuda o canal e, por favor, inscreva-se no canal com as notificações ativadas, caso ainda não tenha feito isso. Dito isso, agradecemos muito e deixe um comentário na seção de comentários se for a primeira vez que você ouve falar sobre redes neurais profundas dentro de aparelhos auditivos.
Ok, vamos falar sobre a maior limitação de um aparelho auditivo quando se trata de separar a fala do ruído de fundo. Quando você vai a algum lugar barulhento, como um restaurante barulhento, toda essa fala se mistura com todo o ruído de fundo, e alguém com audição normal normalmente consegue separar a fala do ruído de fundo graças ao sistema auditivo saudável.
No entanto, se você tiver danos no sistema auditivo ou se tiver dificuldades cognitivas, não conseguirá separar a fala do ruído de fundo com a mesma eficiência de alguém com audição normal até agora. Ouvir um processamento de sinal digital dependia da capacidade de um engenheiro de áudio de definir as diferenças entre as informações de fala e as informações de ruído dentro de um algoritmo de computador feito pelo homem. Isso significa que a capacidade do seu aparelho auditivo de identificar a fala e identificar o ruído e depois separar os dois para que você obtenha apenas a fala depende muito da capacidade de um engenheiro humano de definir as diferenças entre eles acusticamente.
E embora os engenheiros de aparelhos auditivos sejam extremamente inteligentes e muito mais inteligentes do que eu, vamos divulgar isso. Sua capacidade de identificar essas diferentes características é limitada. Quero dizer, pode haver milhões ou bilhões de diferenças entre esses sons em ambientes diferentes, e não é realista esperar que um engenheiro humano seja capaz de identificar todas essas características diferentes, entrar em redes neurais profundas ou, abreviadamente, em DNN.
Pense em uma rede neural profunda como um cérebro humano artificial com milhões de conexões neurais artificiais que podem ser treinadas com dados e são capazes de realizar aprendizado profundo. Essencialmente, os engenheiros criam esse algoritmo de computador de aprendizado de máquina da Deep Neural Network e alimentam milhões de amostras de som diferentes nele. À medida que esses sons passam por essas camadas de neurônios, o algoritmo aprende as diferentes características desses sons, o que ajuda a identificar o que faz barulho na fala, na fala e no ruído.
Quanto mais informações sonoras você insere em uma dessas redes neurais profundas, mais inteligente ela fica e melhor é a separação da fala do ruído de fundo.
Por exemplo, o Serviço Postal dos Estados Unidos usa uma Rede Neural Profunda treinada para identificar endereços manuscritos em cartas para garantir que essas cartas sejam enviadas para os lugares certos. Imagine a variabilidade da caligrafia entre pessoas diferentes. Algumas pessoas escrevem de forma muito desleixada, como eu, e outras escrevem muito bem, como quase todo mundo na minha equipe, o que me lembra que minha caligrafia é tão ruim, sem falar que dois funcionários dos correios diferentes poderiam ler esse endereço de forma diferente, e essa carta pode acabar em dois lugares completamente diferentes, dependendo de quem a lê.
No entanto, uma rede neural profunda treinada com milhões de amostras diferentes de caligrafia poderia identificar com mais precisão o endereço correto para enviar aquela carta melhor do que um humano. Mesmo que um algoritmo de computador tenha sido desenvolvido por um engenheiro humano para identificar essas diferentes características da caligrafia, não há como eles conseguirem identificar tantas quanto uma Rede Neural Profunda poderia.
É claro que o mesmo acontece quando se trata de algoritmos de processamento de som de aparelhos auditivos, e a melhor notícia é que as redes neurais profundas de aparelhos auditivos continuam melhorando ainda mais. Além de um grande fabricante de aparelhos auditivos, a Oticon, já fez uma atualização de sua rede neural profunda original para a versão 2.0, mas outros fabricantes de aparelhos auditivos estão começando a se divertir, incluindo Phonak e Starkey.
A Phonak levou sua Deep Neural Network a um nível totalmente diferente com o lançamento do aparelho auditivo Infinio Sphere em agosto de 2024. O aparelho auditivo Sphere Infinio, na verdade, usa dois chips diferentes. A Deep Neural Network treinou o chip DEEPSONIC, além do chip ERA. O chip ERA lida com o processamento de som da maioria das situações, enquanto o chip DEEPSONIC é 100% dedicado a separar a fala do ruído de fundo. O resultado é um aparelho auditivo basicamente projetado para fazer uma coisa que separa a fala do ruído, e faz um ótimo trabalho.
[Demonstração de amostra de som]
Na verdade, a Phonak tem uma amostra de som de seu chip DEEPSONIC em ação. Vá em frente e confira.
“Foi como tocar uma música. E eu era assim. Então, atrás da batida, porque quando eu pressiono, de repente, a mudança de tom estava atrasada em cerca de 10 milissegundos. Quero dizer, é o suficiente para dar a sensação de que é”
Ok. Claramente, isso foi muito impressionante. Lembre-se de que o desempenho dessa rede neural profunda depende muito de quão bem seu fonoaudiólogo ajusta e programa seu aparelho auditivo para você.
Vou explicar isso um pouco mais aqui em apenas um minuto, mas antes de fazer isso, quero falar sobre a Starkey porque eles acabaram de lançar seu aparelho auditivo Edge AI em outubro de 2024. A Starkey já usou Inteligência Artificial em sua tecnologia de aparelhos auditivos, mas era necessário ativar um recurso chamado Edge Mode para que ele funcionasse melhor em uma situação de ruído de fundo.
Agora, com este novo aparelho auditivo lançado pela Starkey, eles estão usando uma rede neural profunda o tempo todo para melhorar sua capacidade de separar a fala do ruído de fundo sem sempre precisar ativar o modo edge. Eu também tenho uma amostra de áudio para isso.
[Demonstração de amostra de som]
“Nosso objetivo na Starkey é o medo dos usuários de aparelhos auditivos de que eles percam um dos momentos mais importantes da vida devido à falta de vida útil da bateria de seus aparelhos auditivos. E considerando que queríamos ver qual é o dia mais longo que um usuário de aparelho auditivo pode esperar usar seus dispositivos.”
Agora, os aparelhos auditivos Starkey's Edge AI ainda têm o Edge Mode plus em seus aparelhos auditivos, que você pode ativar para obter um benefício adicional na separação da fala do ruído de fundo. Obviamente, existem as mesmas ressalvas com uma rede neural profunda Starkey e com uma rede neural profunda da Oticon ou com uma rede neural profunda da Oticon, ou seja, seu desempenho depende muito de quão bem seu fonoaudiólogo ajusta e programa esses dispositivos para você.
E, finalmente, isso se resume a se o seu fonoaudiólogo segue as melhores práticas audiológicas ou não. As melhores práticas são uma série de considerações e procedimentos que devem ser concluídos pelo seu fonoaudiólogo para que você receba o máximo de benefícios de seus aparelhos auditivos.
E a melhor maneira de encontrar um fonoaudiólogo que siga essas melhores práticas é acessar meu site hearing up.com e procurar um membro da rede de audição em sua área. Todos os membros da área de audição foram avaliados e estão comprometidos em seguir as melhores práticas audiológicas abrangentes, incluindo medidas de caixa de teste, medição real do ouvido e medidas de resultados de validação para garantir que você ouça melhor, independentemente da rede neural profunda usada pelos aparelhos auditivos.
Portanto, se ouvir o melhor de si é o que é mais importante para você, procure um membro da rede de audição em sua área.
As redes neurais profundas melhoraram significativamente o desempenho dos aparelhos auditivos e do ruído de fundo, e isso nem é um debate neste momento, e é capaz de fazer isso sem precisar depender muito dos microfones direcionais que antes usávamos dentro dos aparelhos auditivos para melhorar a relação sinal/ruído.
Cada uma dessas redes neurais profundas está proporcionando entre 11 e 13 decibéis de melhorias anunciadas na relação sinal/ruído, o que é significativamente mais do que você pode obter com um aparelho auditivo que não usa uma rede neural profunda.
Na verdade, todos os pacientes que atendi em minha clínica que foram atualizados para um aparelho auditivo que usa uma rede neural profunda tiveram uma melhora significativa no desempenho quando se trata de situações de ruído de fundo. E a única coisa sobre a qual as pessoas não falam é que essas redes neurais profundas também estão tornando a fala mais clara em situações silenciosas.
Está chegando ao ponto em que, eventualmente, todo fabricante de aparelhos auditivos precisará ter um aparelho auditivo treinado por uma rede neural profunda se quiser se manter relevante no mercado global de aparelhos auditivos em geral. As redes neurais profundas estão mudando completamente a forma como os aparelhos auditivos processam o som, e é impressionante ver até onde a tecnologia de aparelhos auditivos avançou desde que entrei no setor em 2012.
E agora que você sabe o que é uma Rede Neural Profunda, como funciona e do que é capaz, me diga se você está tão impressionado quanto eu ou se acha que é só um exagero na seção de comentários.
Esse é o futuro da tecnologia de aparelhos auditivos e está acontecendo agora.
Olá pessoal, Cliff Olson, Doutor em Audiologia e fundador da Applied Hearing Solutions em Phoenix, Arizona. E neste vídeo eu estou falando sobre redes neurais profundas e como essa forma de inteligência artificial está mudando completamente. Qual o desempenho dos aparelhos auditivos em caso de ruído de fundo?
Pergunte a qualquer pessoa com perda auditiva e garanto que ela dirá que o principal desafio que enfrentam devido à perda auditiva é ouvir ruídos de fundo. E embora muitas pessoas achem que os fabricantes de aparelhos auditivos gastam muito tempo desenvolvendo recursos interessantes dentro de aparelhos auditivos, como LE Audio, controles de toque Bluetooth e programação remota, posso dizer que esses fabricantes estão gastando muito mais tempo tentando resolver esse problema de audição e ruído de fundo.
Praticamente toda a inovação tecnológica no setor de aparelhos auditivos está sendo liderada por alguns fabricantes, incluindo Sonova, Damont, Starkey, GN e WSAUdiology. Combinado. Esses fabricantes de aparelhos auditivos gastam centenas de milhões de dólares todos os anos em pesquisa e desenvolvimento para resolver essa prioridade máxima que você tem como pessoa com perda auditiva, que é garantir que você possa entrar em uma situação ruidosa e realmente entender as pessoas que estão falando com você.
Para fornecer um contexto histórico aqui, que remonta a meados da década de 1990, quando o processamento digital de sinais realmente decolou, o desempenho do aparelho auditivo tem melhorado constantemente desde então. Na verdade, de acordo com dados de mercado desde o início dessa revolução dos aparelhos auditivos digitais em 1996, as taxas de satisfação com aparelhos auditivos aumentaram dramaticamente de 54% para 83% de satisfação até 2022, o que representa um aumento de quase 30%.
Um grande motivo para esse aumento na satisfação com aparelhos auditivos provavelmente se deve a várias coisas, incluindo as melhores práticas de cuidados audiológicos, que incluem medidas de caixa de teste, medições reais do ouvido e medidas de resultados validadas. Mas também tem a ver com inovações tecnológicas, como redução de ruído, microfones direcionais e tecnologia de microfone remoto.
No entanto, mesmo com essas melhorias na tecnologia de aparelhos auditivos digitais nas últimas décadas, o desempenho do aparelho auditivo no ruído de fundo começou a estagnar, levando a apenas melhorias incrementais de geração em geração de novas tecnologias. Isso até que a inteligência artificial na forma de redes neurais profundas começou a entrar em cena em janeiro de 2021.
Mas antes de dizer exatamente como a Deep Neural Networks mudou completamente o jogo para usuários de aparelhos auditivos com ruído de fundo, faça-me um grande favor e clique no botão curtir. Isso realmente ajuda o canal e, por favor, inscreva-se no canal com as notificações ativadas, caso ainda não tenha feito isso. Dito isso, agradecemos muito e deixe um comentário na seção de comentários se for a primeira vez que você ouve falar sobre redes neurais profundas dentro de aparelhos auditivos.
Ok, vamos falar sobre a maior limitação de um aparelho auditivo quando se trata de separar a fala do ruído de fundo. Quando você vai a algum lugar barulhento, como um restaurante barulhento, toda essa fala se mistura com todo o ruído de fundo, e alguém com audição normal normalmente consegue separar a fala do ruído de fundo graças ao sistema auditivo saudável.
No entanto, se você tiver danos no sistema auditivo ou se tiver dificuldades cognitivas, não conseguirá separar a fala do ruído de fundo com a mesma eficiência de alguém com audição normal até agora. Ouvir um processamento de sinal digital dependia da capacidade de um engenheiro de áudio de definir as diferenças entre as informações de fala e as informações de ruído dentro de um algoritmo de computador feito pelo homem. Isso significa que a capacidade do seu aparelho auditivo de identificar a fala e identificar o ruído e depois separar os dois para que você obtenha apenas a fala depende muito da capacidade de um engenheiro humano de definir as diferenças entre eles acusticamente.
E embora os engenheiros de aparelhos auditivos sejam extremamente inteligentes e muito mais inteligentes do que eu, vamos divulgar isso. Sua capacidade de identificar essas diferentes características é limitada. Quero dizer, pode haver milhões ou bilhões de diferenças entre esses sons em ambientes diferentes, e não é realista esperar que um engenheiro humano seja capaz de identificar todas essas características diferentes, entrar em redes neurais profundas ou, abreviadamente, em DNN.
Pense em uma rede neural profunda como um cérebro humano artificial com milhões de conexões neurais artificiais que podem ser treinadas com dados e são capazes de realizar aprendizado profundo. Essencialmente, os engenheiros criam esse algoritmo de computador de aprendizado de máquina da Deep Neural Network e alimentam milhões de amostras de som diferentes nele. À medida que esses sons passam por essas camadas de neurônios, o algoritmo aprende as diferentes características desses sons, o que ajuda a identificar o que faz barulho na fala, na fala e no ruído.
Quanto mais informações sonoras você insere em uma dessas redes neurais profundas, mais inteligente ela fica e melhor é a separação da fala do ruído de fundo.
Por exemplo, o Serviço Postal dos Estados Unidos usa uma Rede Neural Profunda treinada para identificar endereços manuscritos em cartas para garantir que essas cartas sejam enviadas para os lugares certos. Imagine a variabilidade da caligrafia entre pessoas diferentes. Algumas pessoas escrevem de forma muito desleixada, como eu, e outras escrevem muito bem, como quase todo mundo na minha equipe, o que me lembra que minha caligrafia é tão ruim, sem falar que dois funcionários dos correios diferentes poderiam ler esse endereço de forma diferente, e essa carta pode acabar em dois lugares completamente diferentes, dependendo de quem a lê.
No entanto, uma rede neural profunda treinada com milhões de amostras diferentes de caligrafia poderia identificar com mais precisão o endereço correto para enviar aquela carta melhor do que um humano. Mesmo que um algoritmo de computador tenha sido desenvolvido por um engenheiro humano para identificar essas diferentes características da caligrafia, não há como eles conseguirem identificar tantas quanto uma Rede Neural Profunda poderia.
É claro que o mesmo acontece quando se trata de algoritmos de processamento de som de aparelhos auditivos, e a melhor notícia é que as redes neurais profundas de aparelhos auditivos continuam melhorando ainda mais. Além de um grande fabricante de aparelhos auditivos, a Oticon, já fez uma atualização de sua rede neural profunda original para a versão 2.0, mas outros fabricantes de aparelhos auditivos estão começando a se divertir, incluindo Phonak e Starkey.
A Phonak levou sua Deep Neural Network a um nível totalmente diferente com o lançamento do aparelho auditivo Infinio Sphere em agosto de 2024. O aparelho auditivo Sphere Infinio, na verdade, usa dois chips diferentes. A Deep Neural Network treinou o chip DEEPSONIC, além do chip ERA. O chip ERA lida com o processamento de som da maioria das situações, enquanto o chip DEEPSONIC é 100% dedicado a separar a fala do ruído de fundo. O resultado é um aparelho auditivo basicamente projetado para fazer uma coisa que separa a fala do ruído, e faz um ótimo trabalho.
[Demonstração de amostra de som]
Na verdade, a Phonak tem uma amostra de som de seu chip DEEPSONIC em ação. Vá em frente e confira.
“Foi como tocar uma música. E eu era assim. Então, atrás da batida, porque quando eu pressiono, de repente, a mudança de tom estava atrasada em cerca de 10 milissegundos. Quero dizer, é o suficiente para dar a sensação de que é”
Ok. Claramente, isso foi muito impressionante. Lembre-se de que o desempenho dessa rede neural profunda depende muito de quão bem seu fonoaudiólogo ajusta e programa seu aparelho auditivo para você.
Vou explicar isso um pouco mais aqui em apenas um minuto, mas antes de fazer isso, quero falar sobre a Starkey porque eles acabaram de lançar seu aparelho auditivo Edge AI em outubro de 2024. A Starkey já usou Inteligência Artificial em sua tecnologia de aparelhos auditivos, mas era necessário ativar um recurso chamado Edge Mode para que ele funcionasse melhor em uma situação de ruído de fundo.
Agora, com este novo aparelho auditivo lançado pela Starkey, eles estão usando uma rede neural profunda o tempo todo para melhorar sua capacidade de separar a fala do ruído de fundo sem sempre precisar ativar o modo edge. Eu também tenho uma amostra de áudio para isso.
[Demonstração de amostra de som]
“Nosso objetivo na Starkey é o medo dos usuários de aparelhos auditivos de que eles percam um dos momentos mais importantes da vida devido à falta de vida útil da bateria de seus aparelhos auditivos. E considerando que queríamos ver qual é o dia mais longo que um usuário de aparelho auditivo pode esperar usar seus dispositivos.”
Agora, os aparelhos auditivos Starkey's Edge AI ainda têm o Edge Mode plus em seus aparelhos auditivos, que você pode ativar para obter um benefício adicional na separação da fala do ruído de fundo. Obviamente, existem as mesmas ressalvas com uma rede neural profunda Starkey e com uma rede neural profunda da Oticon ou com uma rede neural profunda da Oticon, ou seja, seu desempenho depende muito de quão bem seu fonoaudiólogo ajusta e programa esses dispositivos para você.
E, finalmente, isso se resume a se o seu fonoaudiólogo segue as melhores práticas audiológicas ou não. As melhores práticas são uma série de considerações e procedimentos que devem ser concluídos pelo seu fonoaudiólogo para que você receba o máximo de benefícios de seus aparelhos auditivos.
E a melhor maneira de encontrar um fonoaudiólogo que siga essas melhores práticas é acessar meu site hearing up.com e procurar um membro da rede de audição em sua área. Todos os membros da área de audição foram avaliados e estão comprometidos em seguir as melhores práticas audiológicas abrangentes, incluindo medidas de caixa de teste, medição real do ouvido e medidas de resultados de validação para garantir que você ouça melhor, independentemente da rede neural profunda usada pelos aparelhos auditivos.
Portanto, se ouvir o melhor de si é o que é mais importante para você, procure um membro da rede de audição em sua área.
As redes neurais profundas melhoraram significativamente o desempenho dos aparelhos auditivos e do ruído de fundo, e isso nem é um debate neste momento, e é capaz de fazer isso sem precisar depender muito dos microfones direcionais que antes usávamos dentro dos aparelhos auditivos para melhorar a relação sinal/ruído.
Cada uma dessas redes neurais profundas está proporcionando entre 11 e 13 decibéis de melhorias anunciadas na relação sinal/ruído, o que é significativamente mais do que você pode obter com um aparelho auditivo que não usa uma rede neural profunda.
Na verdade, todos os pacientes que atendi em minha clínica que foram atualizados para um aparelho auditivo que usa uma rede neural profunda tiveram uma melhora significativa no desempenho quando se trata de situações de ruído de fundo. E a única coisa sobre a qual as pessoas não falam é que essas redes neurais profundas também estão tornando a fala mais clara em situações silenciosas.
Está chegando ao ponto em que, eventualmente, todo fabricante de aparelhos auditivos precisará ter um aparelho auditivo treinado por uma rede neural profunda se quiser se manter relevante no mercado global de aparelhos auditivos em geral. As redes neurais profundas estão mudando completamente a forma como os aparelhos auditivos processam o som, e é impressionante ver até onde a tecnologia de aparelhos auditivos avançou desde que entrei no setor em 2012.
E agora que você sabe o que é uma Rede Neural Profunda, como funciona e do que é capaz, me diga se você está tão impressionado quanto eu ou se acha que é só um exagero na seção de comentários.

Os aparelhos Phonak Virto Infinio oferecem discrição e conforto, mas apresentam limitações em ambientes complexos frente aos modelos retroauriculares.
Leia mais
Três métodos verificam o desempenho do aparelho auditivo: caixa de teste para especificações, medição do ouvido real para precisão e avaliações de resultados.
Leia mais
A lavagem diária com água do chuveiro previne o acúmulo de cera de forma mais eficaz e barata, mas a remoção profissional é a mais segura.
Leia mais
O LACE AI Pro usa IA para oferecer treinamento auditivo personalizado, ampliando o processamento cerebral além do que aparelhos auditivos alcançam.
Leia mais
Os custos do aparelho auditivo incluem tecnologia, serviços como medição e adaptação, suporte contínuo e taxas externas — justificando o investimento.
Leia mais.jpg)
O estudo da Apple com 160.000 participantes revelou que a variabilidade cardíaca se correlaciona ao zumbido, primeiro biomarcador objetivo do tratamento.
Leia mais