Por @Wicho — 15 de Noviembre de 2023


Las instalaciones de Oticon en Kongebakken – Oticon

Cuando conté en casa que Oticon, uno de los principales fabricantes de audífonos del mundo, me había invitado a ver sus instalaciones de investigación y desarrollo a mi familia le dio un poco la risa. Y es que llevan tiempo metiéndose conmigo porque dicen que cada vez oigo peor. Claro que una ya tiene una edad y la presbiacusia está ahí. Y también muchas horas de escuchar música con cascos mucho antes de que el móvil me avisara de que me estaba pasando. Y unas cuantas decenas de conciertos.

Curiosamente, Oticon tiene un origen familiar: fue fundada en 1904 por Hans Demant, cuya esposa tenía una discapacidad auditiva. A la muerte de Hans en 1910 tomó las tiendas de la empresa su hijo William y aún hoy en día la empresa, que cotiza en bolsa, está bajo el control de la William Demant Foundation, que es dueña de entre el 55 y el 60 % de las acciones. Así que dentro de lo que cabe aún persiguen los objetivos de la familia. Claro que la escala ha cambiado. Hoy en día Oticon vende unos 17 millones de audífonos al año en los alrededor de 130 países en los que tiene oficinas de ventas y cuenta con unas 20.500 personas en su plantilla; en 1939 eran 15 personas.

En centro de I+D de la empresa está en Kongebakken, a las afueras de Copenhague. Ocupa una parcela de 38.000 metros cuadrados y trabajan en él unas 1.500 personas que se reparten en tres edificios. El verde, comprado a Intel, empezó a funcionar en 2005; el azul, de nueva construcción, en 2014; y el amarillo, también de nueva construcción en 2020. De Kongebakken salen todos los avances en audífonos de la empresa, aunque la producción está en sendas plantas en Polonia y Ballerup.

Wetware, software, e inteligencia artificial

La función de un audífono es captar los sonidos que rodean a la persona que lo usa y transmitirlos a su oído y de ahí a su cerebro de tal forma que la persona en cuestión oiga lo mejor posible. Y esto, por supuesto, dista mucho de ser trivial.

La parte mecánica de la audición, la que ocurre hasta la cóclea, la tenemos bastante clara; a fin de cuenta, aunque esto sea simplificar un poco, son vibraciones que captan las distintas partes del oído hasta que llegan a las células ciliares que están en el órgano de Corti, que a su vez está situado en la cóclea. Aunque ahí es dónde se empieza a complicar la cosa. Tenemos unas 12.000 células de esas pero sólo 3.000 de ellas mandan el sonido al cerebro a través del nervio coclear y luego del acústico. Las otras 9.000 preprocesan el sonido, reduciendo el volumen de información como a un quinto de la que reciben, para que luego el cerebro se encargue de interpretarla.

Claro que, como casi todo lo que pasa en nuestro cerebro, no sabemos al 100 % como funciona. Aunque la literatura médica más reciente sugiere que en la primera fase del procesamiento del sonido, denominada subsistema de orientación, el cerebro representa toda la escena auditiva. En la fase posterior, denominada subsistema de enfoque, el cerebro procesa y amplifica selectivamente el sonido en el que nos queremos centrar, recudiendo hasta 100 veces el ruido. Esto nos permite escuchar una conversación determinada aunque haya un ambiente ruidoso.


Oticon denomina a este proceso BrainHearing – Oticon

Pero con el tiempo la calidad de la señal que recibe el cerebro se va deteriorando, lo que le obliga a esforzarse más e incluso a reclutar otras zonas para intentar procesar correctamente la información. De hecho cuando hay perdida auditiva la queja suele ser no entender, no no oír. Pero es un proceso que llega a ser diez veces más lento que el normal. Por eso nos cuesta más seguir conversaciones; por eso huimos de lugares ruidosos; y por eso nos cansamos más. Hay incluso estudios que sugieren que estos problemas para procesar el sonido llevan no sólo a un mayor cansancio sino también a un mayor aislamiento social e incluso a problemas de demencia. También hay estudios que indican que recuerdas mejor –hasta 25 veces más– cuando tu cerebro no tiene que ponerse a hacer virguerías para intentar entender lo que se está diciendo.

Así que el trabajo de un audífono, al menos tal y como Oticon entiende las cosas, es procesar el sonido y entregar al cerebro a través del oído lo que denominan un código neural que le permita volver a orientarse y enfocar correctamente. Para ello los audífonos amplifican, aunque con cuidado y de forma selectiva, los sonidos que captan, al tiempo que eliminan los ruidos, en especial los ruidos repentinos como puede ser un taladro funcionando, por ejemplo, que interfieren mucho en el proceso y de los que podemos estar expuestos hasta a 500.000 al día. De esto último se encarga un subsistema conocido como Sudden Sound Stabilizer (Estabilizador de sonidos repentinos) que reduce el esfuerzo para entender en un 22 %.

La idea es que el código neural, aunque quizás no sea una representación 100 % fiable del sonido que rodea a la persona que lleva puesto un audífono de Oticon, sea el necesario para que el cerebro tenga las mejores posibilidades de que los subsistemas de orientación y enfoque funcionen lo mejor posible.

Para ello Oticon usa en sus audífonos aprendizaje profundo (deep learning) y redes neuronales profundas (deep neural networks, DNN), dos desarrollos de la inteligencia artificial. Las redes neuronales profundas son entrenadas con una biblioteca de 12 millones de escenas sonoras que la empresa ha ido recogiendo por el mundo adelante con un micrófono especial. Aunque no todo el procesado del sonido lo hacen las redes neuronales; hay cosas que han aprendido que puede hacer el audífono por su cuenta, lo que requiere una menor capacidad de proceso y por tanto de consumo de batería.


El más nuevo estudio de sonido de Kongebakken – Wicho

Los resultados se miden tanto a la salida de sus audífonos en uno de dos estudios de audio que hay en Kongebakken como midiendo el tamaño de la pupila de personas voluntarias –a mayor tamaño de la pupila, mayor esfuerzo del cerebro– y/o haciéndoles electroencefalogramas (EEG) de 64 vías de los que Oticon es capaz de extraer la señal sonora que está procesando el cerebro. De hecho están estudiando como incorporar los resultados de los EEG en el entrenamiento de las redes neuronales, aunque aún no lo están haciendo.

Esos doce millones de muestras, además, pueden ser modificadas en los estudios de audio añadiéndoles ruido u otros cambios que ayudan con el entrenamiento de las redes neuronales. En general cuánto mejor lo haga una red, más ruido le meterán para ver hasta dónde llega. También se pueden estudiar los efectos de distintas formas y tamaños de orejas, si una persona tiene el pelo largo, etc.

Los resultados, medidos en calidad de sonido y comprensión –cantidad de palabras que se entienden– son los criterios básicos que permiten decidir cómo se está portando una red neuronal. Si detectan una versión claramente mejor –entrenan varias copias a la vez– esa versión se convertirá en el nuevo estándar que incorporarán en los audífonos y que servirá de semilla para seguir entrenando nuevas versiones. Por otro lado, también aplican los avances en redes neuronales profundas a las suyas para ver si y cómo influyen en los resultados. La última vez que actualizaron la DNN que va en los audífonos fue hace tres años.

Hardware sometido a tortura

En Kongebakken es también dónde se implementan estos avances en el hardware de los audífonos, empezando por los circuitos integrados sobre los que corre todo el software que los hace funcionar. El disponer de chips propios les permite priorizar cosas como el bajo consumo, algo fundamental en un dispositivo que tiene que funcionar muchas horas al día. Hay un cambio de generación en los chips aproximadamente cada ocho años.

La versión actual, conocida como Polaris/More, de 2020, incorpora 154 millones de transistores en tres chips con tecnología de 28, 55 y 65 nanómetros que ocupan 23,4 milímetros cúbicos. El módulo Polaris se monta sobre un circuito impreso flexible junto con el resto de los componentes del audífono, que a su vez se monta dentro de la carcasa.


Un módulo Polaris/More – Wicho

La carcasa también se prototipa en Kongebakken usando tanto impresión en 3D con máquinas que permiten una resolución de hasta 10μm o bien tallando bloques de metal o plástico con máquinas de control numérico.

El prototipo ensamblado es luego sometido a toda una serie de torturas –pruebas lo llaman en Oticon– para ver cómo responde en el MundoReal™. Por una parte lo rocían con sudor –nos juraron que artificial, no recogido en el gimnasio del edificio rojo– para luego ponerlo a secar en un horno. A la semana de dejar actuar el sudor comprueban que todo siga funcionando. Hacen algo parecido con un cerumen artificial que han desarrollado, aunque por lo visto antes usaban Nutella, que al parecer tiene una consistencia similar. No sé si volveré a mirar del mismo modo a la Nutella.

También, entre otras pruebas más, los someten a pruebas de caída, los meten y los sacan miles de veces de su base de carga, o abren y cierran también miles de veces las cubiertas de los compartimentos de las pilas/baterías.

Y cuando todo está correcto se envían los planos a las fábricas de Polonia y Ullerup para ponerlos en las manos –bueno, en las orejas y oídos– de las personas que se van a beneficiar de todos los avances que incorporan.

Precio y estigma

En Oticon son conscientes de que el precio de estos dispositivos puede ser un problema. En España, por ejemplo, no están cubiertos por la Seguridad Social, y hablamos de miles de euros por audífono según la gama. Y también de que todavía hay un cierto estigma que señala a las personas que los usan.

Pero por otra parte nos contaron que dado el uso y abuso de los cascos que se viene haciendo desde hace años prevén que la demanda de audífonos va a ser cada vez mayor, así que no va a quedar mucho más remedio que afrontar esos dos problemas…

Y que en no muchos años lo mismo nos vemos llevando audífonos.

Compartir en Flipboard Publicar / Tuitear