Ansprechperson: Prof. Dr. Timo Gerkmann

Das KI SIGS Anwendungsprojekt "Individualisierte Hörhilfenanpassung"

verfolgt die Zielsetzung, Methoden der künstlichen Intelligenz zu entwickeln und bereitzustellen, die eine Anpassung von Hörhilfen an Nutzer und ihre spezifischen Hörverluste und Vorlieben ermöglichen. Des Weiteren sollen KI-basierte Methoden zur Sprachverbesserung entwickelt werden, die an die individuelle Nutzung angepasst sind. Dabei widmet sich das Institut für Institut für Signalverabeitung, geleitet von Prof. Alfred Mertins, und Prof. Jonas Obleser vom Institut für Psychologie I den leichten und mittleren Hörverlusten, die mit einem medizinischen Hörgerät ausgeglichen werden sollen. Darüber hinaus befassen sich die Universität Hamburg unter der Leitung von Prof. Dr.-Ing. Timo Gerkmann und der Industriepartner Advanced Bionics mit dem gesamten Spektrum von leichten bis sehr starken Hörverlusten.

AP 380

AP 380: Individualisierte Hörhilfenanpassung

Ansprechperson: Prof. Dr. Timo Gerkmann

Das KI SIGS Anwendungsprojekt "Individualisierte Hörhilfenanpassung" verfolgt die Zielsetzung, Methoden der künstlichen Intelligenz zu entwickeln und bereitzustellen, die eine Anpassung von Hörhilfen an Nutzer und ihre spezifischen Hörverluste und Vorlieben ermöglichen. Des Weiteren sollen KI-basierte Methoden zur Sprachverbesserung entwickelt werden, die an die individuelle Nutzung angepasst sind. Dabei widmet sich das Institut für Institut für Signalverabeitung, geleitet von Prof. Alfred Mertins, und Prof. Jonas Obleser vom Institut für Psychologie I den leichten und mittleren Hörverlusten, die mit einem medizinischen Hörgerät ausgeglichen werden sollen. Darüber hinaus befassen sich die Universität Hamburg unter der Leitung von Prof. Dr.-Ing. Timo Gerkmann und der Industriepartner Advanced Bionics mit dem gesamten Spektrum von leichten bis sehr starken Hörverlusten.

Im Bereich der Sprachverbesserung werden durch die Universität Hamburg unter Leitung von Prof. Dr.-Ing. Timo Gerkmann leichtgewichtige KI-Methoden entwickelt die an die individuellen Bedürfnisse von Personen mit leichten und starken Hörverlusten angepasst werden können. Die Ergebnisse wurden unter anderem in EURASIP Journal on Audio, Speech and Music Processing veröffentlicht [1]. Zum anderen geht es um die Erhöhung der Robustheit und der Reduktion des Rechenaufwands von modernen Verfahren der Diffusionsbasierten Sprachverbesserung. Die Ergebnisse wurden unter anderem in den IEEE/ACM Transactions on Audio, Speech, and Language Processing veröffentlicht [2]. Die Grundlage für die Entwicklung der vorgeschlagenen KI-Methoden für die Anpassung des First Fits stellen vom Industriepartner erhobene Datensätze, für die bislang keine effizienten Möglichkeiten der Nutzung existieren, sowie im Projekt erhobene Messdaten dar. Neben Audiogrammen und den Ergebnissen von Anpassungsverläufen zählen hierzu auch EEG-Daten, die Aufschluss über die Verarbeitung der Audiosignale im Gehirn geben sollen [3]. Aufgrund der hohen Dimensionalität des Parameterraums (d.h., der Vielzahl von Konfigurationsmöglichkeiten, sowie der hohen interindividuellen Variabilität ist die optimale Gerätekonfiguration eine Herausforderung, die nicht mit Faustformeln, sondern nur durch datengetriebene Methoden der künstlichen Intelligenz ausreichend gelöst werden kann. Ziel der Arbeiten an der Universität zu Lübeck ist es daher, mit Verfahren maschinellen Lernens aus den großen Datenbasen zu passgenaueren Hörsystemeinstellungen für den einzelnen Patienten zu gelangen, bei denen der Einzelne von den verteilten Anpassungsmodifikationen und Entscheidungen anderer Nutzer mit ähnlichen Hörprofilen in vergleichbaren akustischen Situationen und mit ähnlichen Anforderungen profitieren kann. Dadurch soll der Anpassungsprozess verkürzt und die Akzeptanz und der Nutzen der Hörsysteme in der Praxis verbessert werden.

Projektposter

Publikationen

[1] Jean-Marie Lemercier, Joachim Thiemann, Raphael Koning, Timo Gerkmann, "A Neural Network-supported Two-Stage Algorithm for Lightweight Dereverberation on Hearing Devices", EURASIP Journal on Audio, Speech, and Music Processing, Vol 18, 2023

[2] Jean-Marie Lemercier, Julius Richter, Simon Welker, Timo Gerkmann, "StoRM: A Diffusion-based Stochastic Regeneration Model for Speech Enhancement and Dereverberation", IEEE/ACM Trans. Audio, Speech, Language Proc., Vol. 31, pp. 2724 -2737, 2023

[3] R. Pallenberg, A.-K. Griedelbach, A. Mertins, LSTMs for EEG-based Auditory Attention Decoding, EUSIPCO, Helsinki, Finnland, Sep. 2023

Off