Malgré quelques progrès qui ont été réalisés dans le domaine, l'un des problèmes persistants avec les appareils auditifs est le fait qu'ils amplifient le bruit de fond le long de avec les voix des peuples. Alors que nos cerveaux sont raisonnablement bien à distinguer entre la parole et le bruit ambiant gênant, utilisateurs d'aides auditives obtenir le bruit et la voix qui leur est présentée dans un seul paquet, souvent incompréhensible. Des chercheurs de l'Ohio State University, cependant, peuvent avoir une solution. Ils ont développé un algorithme de débruitage qui a été montré pour améliorer la reconnaissance des mots parlés sujets d'essai de jusqu'à 90 pour cent.

L'algorithme basé sur l'apprentissage de la machine utilise un réseau neuronal profonde, qui - comme le cerveau humain - a une structure en couches qui lui permet d'apprendre. Une partie de sa «formation» consiste à obtenir à choisir des mots connus comme ils sont lus dans un contexte bruyant. Les pièces dans lesquelles la voix domine le bruit sont amplifiés, tandis que les cas où les domine de bruit sont éliminés.

Dans les tests de la technologie, 12 volontaires partiellement sourds enlevé leurs prothèses auditives, ont ensuite été invités à identifier autant de mots que qu'ils pouvaient dans les enregistrements de la parole obscurcies par le bruit de fond. Ils ont ensuite pris le test terminé, ce temps à écouter le même enregistrement après qu'il avait été "nettoyé" en utilisant l'algorithme.

Leur compréhension des mots augmenté en moyenne de 25 à près de 85 pour cent dans les cas où le discours avait déjà été obscurci par hasard "background bavardage" (tels que le bruit produit par les voix d'autres personnes) et de 35 à 85 pour cent quand il avait précédemment été obscurcie par plus cohérente "bruit stationnaire» (comme le bruit d'un climatiseur).

Lorsque 12 élèves avec une audition pleine écouté le discours occulté par le bruit, ils réellement des résultats inférieurs aux premier groupe a fait en écoutant le discours améliorée. "Cela signifie que les personnes malentendantes qui ont eu l'avantage de cet algorithme pouvait entendre mieux que les élèves sans perte d'audition," explique le professeur Eric Healy, qui dirige la recherche.

L'algorithme a été créé par une équipe dirigée par le professeur Deliang "Leon" Wang. Il est actuellement commercialisé, et est disponible pour des licences de l'université. En fin de compte, il est à espérer qu'il pourrait trouver une utilisation dans de minuscules appareils auditifs numériques, ou peut-être même dans les systèmes où le smartphone de l'utilisateur effectue tout le traitement, puis transmet l'audio sans fil à une oreillette jumelé.

Un document sur la recherche vient d'être publiée dans le Journal de l'Acoustical Society of America.

Des exemples de la façon dont la technologie fonctionne peut être entendu dans la vidéo ci-dessous.