¿Qué es una red neuronal profunda para audífonos?

¿Qué es una red neuronal profunda para audífonos?

Los audífonos han recorrido un largo camino para abordar los desafíos que enfrentan las personas con pérdida auditiva. Hemos visto un progreso notable en la tecnología, especialmente cuando se trata de abordar la principal preocupación de entender el habla en entornos ruidosos.

La llegada de las redes neuronales profundas marca un importante avance en las capacidades de los audífonos. Este enfoque de inteligencia artificial permite separar sin precedentes la voz de ruido de fondo, mejorando la experiencia auditiva de los usuarios. A medida que los fabricantes siguen invirtiendo mucho en investigación y desarrollo, asistimos a una nueva era de audífonos que promete revolucionar la forma en que las personas con pérdida auditiva navegan por el mundo auditivo.

El desafío de escuchar en entornos ruidosos

La audición con ruido de fondo representa un obstáculo importante para las personas con pérdida auditiva. Este problema se clasifica constantemente como la principal preocupación entre las personas que luchan contra las deficiencias auditivas. Si bien los fabricantes de audífonos han logrado avances en el desarrollo de varias funciones, su objetivo principal sigue siendo abordar este problema crucial.

Las empresas líderes de la industria invierten importantes recursos en investigación y desarrollo, con el objetivo de mejorar comprensión del habla en situaciones ruidosas. Desde mediados de la década de 1990, el procesamiento digital de señales ha impulsado mejoras constantes en el rendimiento de los audífonos. Los índices de satisfacción entre los usuarios han aumentado del 54% al 83% en 2022, lo que refleja estos avances.

Varios factores contribuyen a este aumento de la satisfacción, incluidas las mejores prácticas de atención audiológica y las innovaciones tecnológicas. La reducción del ruido, los micrófonos direccionales y la tecnología de micrófonos remotos han contribuido a mejorar la experiencia del usuario. A pesar de estos avances, el progreso en el rendimiento de los audífonos en entornos ruidosos había comenzado a estancarse, con solo pequeñas mejoras entre generaciones.

La introducción de la inteligencia artificial, específicamente de las redes neuronales profundas (DNN), en enero de 2021 marcó un punto de inflexión para abordar este desafío. Las DNN representan un avance significativo en la capacidad de separar la voz del ruido de fondo, lo que ofrece nuevas esperanzas a quienes tienen dificultades en entornos ruidosos.

El procesamiento de señales digitales tradicional se basaba en algoritmos diseñados por humanos para diferenciar entre voz y ruido. Ingenieros expertos crearon estos sistemas, pero su capacidad para identificar y definir las innumerables diferencias acústicas entre los distintos sonidos era limitada. Sin embargo, los DNN pueden entrenarse con millones de muestras de sonido, aprendiendo a distinguir la voz del ruido con mucha mayor precisión y adaptabilidad.

Avances en la tecnología de audífonos y la satisfacción del usuario

La tecnología de los audífonos ha avanzado mucho desde mediados de la década de 1990, cuando el procesamiento digital de señales revolucionó la industria. Hemos visto un progreso notable en las tasas de satisfacción de los usuarios, pasando del 54% en 1996 a un impresionante 83% en 2022. Esta mejora significativa se puede atribuir a varios factores, como la mejora de las prácticas de atención audiológica y las innovaciones tecnológicas.

Los avances clave en la tecnología de los audífonos incluyen:

  • Sistemas de reducción de ruido
  • Micrófonos direccionales
  • Tecnología de micrófono remoto

Estas funciones han mejorado considerablemente la experiencia auditiva de muchos usuarios. Sin embargo, a pesar de estos avances, el progreso en rendimiento de ruido de fondo comenzó a estabilizarse en los últimos años.

El punto de inflexión llegó en enero de 2021 con la introducción de las redes neuronales profundas (DNN) en los audífonos. Esta forma de inteligencia artificial ha transformado la forma en que los audífonos procesan el sonido en entornos ruidosos.

Las DNN funcionan imitando las conexiones neuronales del cerebro humano. Se entrenan con millones de muestras de sonido y aprenden a distinguir entre el habla y el ruido con una precisión increíble. Este enfoque supera con creces los métodos tradicionales que se basaban en algoritmos diseñados por humanos para definir las diferencias acústicas.

El auge de las redes neuronales avanzadas en la tecnología auditiva

Definición de redes neuronales y su impacto en los audífonos

Las redes neuronales están revolucionando la tecnología de los audífonos. Estos sofisticados algoritmos imitan la estructura del cerebro humano y utilizan capas interconectadas para procesar e interpretar información sonora compleja. Al entrenarse con vastos conjuntos de datos de muestras de audio, las redes neuronales pueden distinguir la voz del ruido de fondo con una precisión sin precedentes. Esta capacidad aborda uno de los desafíos más importantes a los que se enfrentan los usuarios de audífonos: comprender las conversaciones en entornos ruidosos.

Avances con respecto a los métodos de separación de sonido anteriores

El procesamiento tradicional del sonido en los audífonos se basaba en algoritmos diseñados por humanos para diferenciar el habla del ruido. Si bien eran efectivos hasta cierto punto, estos métodos tenían limitaciones en entornos acústicos complejos. Las redes neuronales superan estas técnicas antiguas al identificar patrones y características sutiles del sonido que los ingenieros humanos podrían pasar por alto. Esto se traduce en una reducción del ruido más precisa y adaptable, lo que mejora considerablemente la claridad del habla para los usuarios.

Redes neuronales más allá de los audífonos

La aplicación de las redes neuronales va mucho más allá de la tecnología auditiva. En los servicios postales, estos sistemas descifran con precisión las direcciones manuscritas, lo que demuestra su versatilidad en las tareas de reconocimiento de patrones. Esta capacidad de aprender y adaptarse a diversas entradas hace que las redes neuronales sean invaluables en numerosos campos, desde el reconocimiento de imágenes hasta el procesamiento del lenguaje.

Las redes neuronales profundas revolucionan el rendimiento de los audífonos

Superar las estancaciones de rendimiento

La tecnología de los audífonos ha visto avances significativos desde mediados de la década de 1990, con el procesamiento digital de señales que conduce a mejoras constantes. Las tasas de satisfacción de los usuarios pasaron del 54% en 1996 al 83% en 2022. Este progreso puede atribuirse a la mejora de las prácticas de cuidado audiológico y a las innovaciones, como la reducción del ruido y los micrófonos direccionales. Sin embargo, a pesar de estos avances, la eficacia de los audífonos en entornos ruidosos comenzó a estabilizarse, con solo pequeñas mejoras entre las generaciones de productos.

Gran avance en la separación entre voz y ruido

Las redes neuronales profundas (DNN) han transformado las capacidades de los audífonos, particularmente a la hora de distinguir el habla del ruido de fondo. El procesamiento digital de señales tradicional se basaba en algoritmos diseñados por humanos para diferenciar la voz del ruido, lo que tenía limitaciones. Sin embargo, las DNN imitan las conexiones neuronales del cerebro humano y pueden entrenarse con millones de muestras de sonido. Esto les permite identificar distinciones sutiles entre el habla y el ruido de manera mucho más eficaz que los métodos convencionales.

Tecnologías innovadoras de audífonos: aplicaciones en el mundo real

Mejoras en la red neuronal de Oticon

Oticon ha logrado avances significativos en la mejora de su tecnología de redes neuronales profundas. Han actualizado su sistema original a la versión 2.0, lo que demuestra su compromiso con la mejora continua. Esta última versión se basa en la base de su algoritmo de aprendizaje profundo inicial y procesa las muestras de sonido de forma más eficaz para distinguir la voz del ruido de fondo.

La red neuronal mejorada permite una mejor adaptación a varios entornos acústicos, lo que puede ofrecer a los usuarios una comunicación más clara en situaciones de escucha difíciles. Al perfeccionar su enfoque basado en la inteligencia artificial, Oticon pretende ofrecer experiencias auditivas más naturales y cómodas.

La revolucionaria esfera Infinio de Phonak

Phonak presentó el Esfera Infinio audífono en agosto de 2024, lo que supuso un salto significativo en la tecnología auditiva. Este dispositivo utiliza un sistema de doble chip:

  1. A-chip: gestiona el procesamiento general del sonido
  2. Chip Deep Sonic: dedicado a la separación entre voz y ruido

El chip Deep Sonic, alimentado por una red neuronal profunda especializada, se centra exclusivamente en aislar la voz del ruido de fondo. Este enfoque específico permite una claridad extraordinaria en entornos ruidosos.

Phonak ha publicado muestras de audio que demuestran las capacidades de Infinio Sphere:

Antes del procesamientoDespués del procesamientoVoz amortiguada con un ruido de fondo destacadoHabla nítida con una reducción significativa del ruido

Integración de inteligencia artificial de Starkey's Edge

Starkey lanzaron su audífono Edge AI en octubre de 2024, incorporando la tecnología de redes neuronales profundas en su procesamiento central. A diferencia de sus modelos anteriores, que requerían la activación manual de las funciones de IA, el Edge AI funciona de forma continua.

Entre las principales características de Edge AI se incluyen las siguientes:

  • Procesamiento de sonido constante impulsado por IA
  • Adaptación automática a diferentes entornos acústicos
  • Claridad de voz mejorada en entornos ruidosos

El papel crucial de la adaptación experta de los audífonos

La adaptación profesional de los audífonos es esencial para un rendimiento óptimo. Hemos visto avances notables en la tecnología de los audífonos, especialmente con las redes neuronales profundas que revolucionan el reconocimiento de voz en entornos ruidosos. Estos sofisticados sistemas de inteligencia artificial pueden separar la voz del ruido de fondo de forma más eficaz que nunca.

Los principales fabricantes, como Oticon, Phonak y Starkey, han invertido mucho en esta tecnología. El audífono Infinio Sphere de Phonak, lanzado en agosto de 2024, utiliza dos chips: uno para el procesamiento general del sonido y otro dedicado a la separación del ruido del habla. El audífono Starky's Edge AI, lanzado en octubre de 2024, emplea una red neuronal profunda de forma continua.

Si bien estas innovaciones son impresionantes, su eficacia depende en gran medida de la adaptación y la programación adecuadas por parte de un audioprotesista cualificado. Ni siquiera la IA más avanzada puede compensar una configuración incorrecta. La adaptación experta garantiza que el dispositivo se adapte a sus necesidades auditivas y estilo de vida específicos.

Por lo general, una adaptación profesional implica:

  1. Evaluación auditiva integral
  2. Programación personalizada del audífono
  3. Mediciones del oído real para una entrega de sonido precisa
  4. Asesoramiento sobre uso y mantenimiento

No podemos exagerar la importancia de trabajar con un audiólogo experto. Ajustarán sus audífonos para maximice los beneficios de estas tecnologías de vanguardia, que le ayudan a oír con claridad en entornos desafiantes.

Transcripción del vídeo

Transcripción del vídeo

Este es el futuro de la tecnología de audífonos y está sucediendo ahora mismo.

Hola chicos, Cliff Olson, doctor en audiología y fundador de Applied Hearing Solutions en Phoenix, Arizona. Y en este vídeo hablo de las redes neuronales profundas y de cómo esta forma de inteligencia artificial está cambiando por completo. ¿Qué tan bien funcionan los audífonos con ruido de fondo?

Pregúntele a cualquier persona con pérdida auditiva y le garantizo que le dirá que el principal desafío al que se enfrentan debido a su pérdida auditiva es escuchar con ruido de fondo. Y aunque muchas personas piensan que los fabricantes de audífonos dedican demasiado tiempo a desarrollar funciones interesantes en los audífonos, como LE Audio, los controles táctiles Bluetooth y la programación remota, puedo decirles que estos fabricantes dedican mucho más tiempo a tratar de resolver este problema de audición y ruido de fondo.

Prácticamente toda la innovación tecnológica en la industria de los audífonos está liderada por unos pocos fabricantes, entre los que se incluyen Sonova, Damont, Starkey, GN y WSaudiology. Combinado. Estos fabricantes de audífonos gastan cientos de millones de dólares cada año en investigación y desarrollo para resolver esta máxima prioridad que tienen las personas con pérdida auditiva, que es garantizar que puedan enfrentarse a una situación ruidosa y entender realmente a las personas que les hablan.

Para proporcionarle un poco de contexto histórico, que se remonta a mediados de la década de 1990, cuando el procesamiento digital de señales realmente despegó, el rendimiento de los audífonos ha mejorado constantemente desde entonces. De hecho, según los datos del mercado obtenidos desde el inicio de la revolución de los audífonos digitales en 1996, las tasas de satisfacción con los audífonos han aumentado drásticamente, pasando del 54% al 83% en 2022, lo que representa un aumento de casi el 30%.

Una de las principales razones de este aumento en la satisfacción con los audífonos probablemente se deba a varias cosas, incluida la atención audiológica basada en las mejores prácticas, que incluye medidas de caja de prueba, mediciones del oído real y medidas de resultado validadas. Pero también tiene que ver con la innovación tecnológica, como la reducción del ruido, los micrófonos direccionales y la tecnología de micrófonos remotos.

Sin embargo, incluso con estas mejoras en la tecnología de los audífonos digitales en las últimas décadas, el rendimiento de los audífonos con el ruido de fondo ha empezado a estancarse, lo que solo ha dado lugar a mejoras graduales de generación en generación de nuevas tecnologías. Eso fue hasta que la inteligencia artificial en forma de redes neuronales profundas comenzó a aparecer en enero de 2021.

Pero antes de explicarte exactamente cómo Deep Neural Networks cambió por completo las reglas del juego para los usuarios de audífonos con ruido de fondo, hazme un gran favor y haz clic en el botón Me gusta. Es una gran ayuda para el canal. Por favor, suscríbete al canal con las notificaciones activadas si aún no lo has hecho. Dicho esto, lo agradecemos enormemente. Si es la primera vez que oyes hablar de las redes neuronales profundas en los audífonos, déjame un comentario en la sección de comentarios.

Bien, sigamos adelante y hablemos de la mayor limitación de un audífono cuando se trata de separar el habla del ruido de fondo. Cuando vas a un lugar ruidoso, como un restaurante ruidoso, todo lo que se habla se mezcla con todo el ruido de fondo, y una persona con una audición normal normalmente puede separar lo que habla del ruido de fondo gracias a su sistema auditivo sano.

Sin embargo, si tiene daños en el sistema auditivo o si tiene problemas cognitivos, no podrá separar el habla del ruido de fondo de manera tan eficiente como lo haría una persona con audición normal hasta ahora. El procesamiento de una señal digital dependía de la capacidad de un ingeniero de audio para definir las diferencias entre la información de voz y la información de ruido dentro de un algoritmo informático creado por el hombre, lo que significa que la capacidad de los audífonos para identificar el habla e identificar el ruido y, luego, separar los dos para que solo se escuche el habla depende en gran medida de la capacidad del ingeniero humano para definir acústicamente las diferencias entre ellos.

Y aunque los ingenieros de audífonos son extremadamente inteligentes y mucho más inteligentes que yo, simplemente lo publicaremos. Su capacidad para identificar estas diferentes características es limitada. Quiero decir, puede haber millones o miles de millones de diferencias entre estos sonidos en diferentes entornos, y no es realista esperar que un ingeniero humano pueda identificar todas esas características diferentes, entrar en redes neuronales profundas o DNN, por sus siglas en inglés.

Piense en una red neuronal profunda como un cerebro humano artificial con millones de conexiones neuronales artificiales que se pueden entrenar con datos y es capaz de realizar un aprendizaje profundo. Básicamente, los ingenieros crean este algoritmo informático de aprendizaje automático de redes neuronales profundas y lo incorporan con millones de muestras de sonido diferentes. A medida que estos sonidos atraviesan estas capas neuronales, el algoritmo aprende las diferentes características de estos sonidos, lo que le ayuda a identificar qué es lo que hace que el habla, el habla y el ruido sean ruidosos.

Cuanta más información sonora introduzcas en una de estas redes neuronales profundas, más inteligente se volverá y mejor separará la voz del ruido de fondo.

Por ejemplo, el Servicio Postal de los Estados Unidos utiliza una red neuronal profunda capacitada para identificar las direcciones escritas a mano en las cartas y asegurarse de que esas cartas se envíen a los lugares correctos. Imagínese la variabilidad de la escritura a mano entre diferentes personas. Algunas personas escriben muy mal, como yo, y otras escriben muy bien, como casi todos los demás miembros de mi equipo, lo que me recuerda que mi letra es muy mala, sin mencionar que dos trabajadores de correos diferentes podrían leer esa dirección de manera diferente y que esa carta podría terminar en dos lugares completamente diferentes según quién la lea.

Sin embargo, una red neuronal profunda entrenada con millones de muestras de escritura a mano diferentes podría identificar con mayor precisión la dirección correcta a la que enviar esa carta mejor que un humano. Incluso si un ingeniero humano desarrollara un algoritmo informático para identificar estas diferentes características de la escritura a mano, no hay forma de que pueda identificar tantas como lo haría una red neuronal profunda.

Por supuesto, lo mismo ocurre con los algoritmos de procesamiento del sonido de los audífonos, y la mejor noticia es que las redes neuronales profundas de los audífonos siguen mejorando aún más. No solo un importante fabricante de audífonos, sino que Oticon ya ha actualizado su red neuronal profunda original a la versión 2.0, sino que otros fabricantes de audífonos están empezando a participar en la diversión, como Phonak y Starkey.

Phonak llevó su red neuronal profunda a un nivel completamente diferente con el lanzamiento de su audífono Infinio Sphere en agosto de 2024. El audífono Sphere Infinio en realidad usa dos chips diferentes. La Deep Neural Network entrenó el chip DEEPSONIC además de su chip ERA. El chip ERA se encarga del procesamiento del sonido en la mayoría de las situaciones, mientras que el chip DEEPSONIC está dedicado al 100% a separar la voz del ruido de fondo. El resultado es un audífono que está prácticamente diseñado para hacer una cosa: separar la voz del ruido, y lo hace muy bien.

[Demostración de muestra de sonido]

De hecho, Phonak tiene una muestra de sonido de su chip DEEPSONIC en acción. Adelante, compruébalo.

«Era como tocar una canción. Y yo estaba así. Y detrás del ritmo, porque cuando lo presiono, de repente el cambio de tono estaba retrasado unos 10 milisegundos. Quiero decir, es suficiente para que te sientas mal, ya sabes, es»

Está bien. Está claro que fue impresionante. Tenga en cuenta que el rendimiento de esta red neuronal profunda depende en gran medida de qué tan bien su audioprotesista adapte y programe su audífono para usted.

Continuaré y explicaré esto un poco más aquí en solo un minuto, pero antes de hacerlo, quiero hablar sobre Starkey porque acaban de lanzar su audífono Edge AI en octubre de 2024. Starkey ya había utilizado la inteligencia artificial en la tecnología de sus audífonos, pero había que activar una función llamada Edge Mode para que funcionara al máximo en una situación de ruido de fondo.

Ahora, con este nuevo audífono lanzado por Starkey, utilizan constantemente una red neuronal profunda para mejorar la capacidad de separar la voz del ruido de fondo sin tener que activar siempre el modo perimetral. También tengo una muestra de audio para eso.

[Demostración de muestra de sonido]

«Nuestro objetivo en Starkey es evitar que los usuarios de audífonos teman perderse uno de los momentos más importantes de la vida por quedarse sin batería en sus audífonos. Y teniendo en cuenta que queríamos ver cuál es el día más largo que un usuario de audífonos puede esperar usar sus dispositivos».

Ahora, los audífonos Edge AI de Starkey todavía tienen el modo Edge Plus en sus audífonos, que puedes activar para obtener una ventaja adicional al separar la voz del ruido de fondo. Por supuesto, las redes neuronales profundas de Starkey tienen las mismas salvedades que las de una red neuronal profunda de Oticon o de teléfono, ya que su rendimiento depende en gran medida de lo bien que el audioprotesista adapte y programe estos dispositivos para ti.

Y, en última instancia, todo se reduce a si su audioprotesista sigue o no las mejores prácticas audiológicas. Las mejores prácticas son una serie de consideraciones y procedimientos que su audioprotesista debe completar para que pueda obtener el máximo beneficio de sus audífonos.

Y la mejor manera de encontrar un audioprotesista que siga estas mejores prácticas es visitar mi sitio web hearing up.com y buscar un miembro de la red Hearing Up en su área. Todos los miembros de Hearing Up han sido examinados y se comprometen a seguir las mejores prácticas exhaustivas de Audiologic, incluidas las medidas de laboratorio, la medición del oído real y las medidas de validación de los resultados para garantizar que oyes lo mejor posible independientemente de la red neuronal profunda que utilicen los audífonos.

Por lo tanto, si lo más importante para usted es escuchar lo mejor posible, asegúrese de acudir a un miembro de la red de Hearing Up en su área.

Las redes neuronales profundas han mejorado significativamente el rendimiento de los audífonos y el ruido de fondo, y esto ni siquiera es un debate en este momento, e incluso pueden hacerlo sin tener que depender en gran medida de los micrófonos direccionales que antes teníamos que usar dentro de los audífonos para mejorar la relación señal/ruido.

Cada una de estas redes neuronales profundas le proporciona entre 11 y 13 decibelios las mejoras anunciadas en la relación señal/ruido, que es significativamente más de lo que puede obtener con un audífono que no utilice una red neuronal profunda.

De hecho, todos los pacientes que he visto en mi clínica que se han adaptado a un audífono que utiliza una red neuronal profunda han visto una mejora significativa en el rendimiento cuando se trata de situaciones de ruido de fondo. Y lo único de lo que la gente no habla es de que estas redes neuronales profundas también permiten hablar con más claridad en situaciones silenciosas.

Estamos llegando a un punto en el que, con el tiempo, todos los fabricantes de audífonos tendrán que tener un audífono que haya sido entrenado por una red neuronal profunda si quieren seguir siendo relevantes en el mercado mundial de audífonos en general. Las redes neuronales profundas están cambiando por completo la forma en que los audífonos procesan el sonido, y es sorprendente ver lo lejos que ha llegado la tecnología de audífonos desde que ingresé en la industria en 2012.

Y ahora que sabes qué es una red neuronal profunda, cómo funciona y de qué es capaz, dime si estás tan impresionado como yo o si crees que es solo un montón de publicidad en la sección de comentarios.

Vídeos relacionados

Artículos relacionados

Reseña de un audiólogo: audífonos personalizados Phonak Virto Infinio

Los audífonos Virto Infinio de Phonak ofrecen comodidad y discreción, pero tienen límites en entornos complejos frente a los modelos retroauriculares.

Leer más
Cómo saber si sus audífonos funcionan de la mejor manera

Tres métodos verifican el rendimiento de los audífonos: caja de prueba para especificaciones, medición del oído real para precisión y evaluaciones de resultados.

Leer más
¿Es el agua de la ducha la mejor (y más barata) forma de eliminar el cerumen?

El enjuague diario con agua de la ducha previene la acumulación de cerumen más eficaz y barato que productos, aunque la extracción profesional es más segura.

Leer más
Revisión del Dr. Cliff sobre el entrenamiento auditivo LACE AI Pro

LACE AI Pro usa IA para brindar entrenamiento auditivo personalizado, mejorando el procesamiento cerebral más allá de lo que logran los audífonos.

Leer más
Lo que realmente está pagando con los audífonos

Los costos de los audífonos abarcan tecnología, servicios como medición y adaptación, soporte continuo y honorarios externos, lo que justifica la inversión.

Leer más
Estudio de Apple Health sobre el tinnitus | Qué significa, por el Dr. Cliff

El estudio de Apple con 160 000 participantes halló que la variabilidad cardíaca se asocia al tinnitus, primer biomarcador objetivo para medir su tratamiento.

Leer más