Projekte

AP 310: Homecare Augendiagnostik

Ansprechperson: Prof. Dr. Reinhard Koch

Das Projekt iAuge ist ein Teilprojekt des überregionalen Verbundprojektes „KI-Space für intelligente Gesundheitssysteme“ (KI-SIGS). In Kooperation von Partnern an den Universitäten Lübeck, Kiel und Bremen, dem Universitätsklinikum Schleswig-Holstein (UKSH) sowie der Fa. Visotec GmbH und der UniTransferKlinik aus Lübeck werden neue KI-basierte Lösungen zur ophthalmologischen Diagnostik erarbeitet. Wesentliches Ziel der Arbeiten am Institut für Medizinische Informatik (IMI) ist die Entwicklung von optimierten Deep Neural Networks für die automatische KI-basierte Auswertung von dreidimensionalen OCT-Bildern (OCT: Optical Coherence Tomography) zur verbesserten Versorgung von Patienten mit Augenerkrankungen.

AP 320: Digitaler Röntgenassistent

Ansprechperson: Prof. Dr. Thomas Martinetz

In dem KI-SIGS Anwendungsprojekt "Digitaler Röntgenassistent" wollen die Verbundpartner des UKSH Lübeck (Jörg Barkhausen), der IMAGE Information Systems Europe GmbH (Arpad Bischof), der Pattern Recognition Company GmbH (Erhardt Barth) und des Instituts für Neuro- und Bioinformatik der Universität zu Lübeck (Thomas Martinetz) den Prozess der Röntgenaufnahme mit KI unterstützen und optimieren.

Allein in Deutschland werden im Jahr ca. 150 Millionen Röntgenbilder aufgenommen. Da viele dieser Bilder unter Zeitdruck und von nicht immer erfahrenem Personal aufgenommen werden, entspricht die Qualität sehr häufig nicht den vorgegebenen Leitlinien. Dies geht auf Kosten der diagnostischen Qualität, führt zu erhöhter Strahlendosis und oft auch zu erhöhtem Ressourcen- und Zeitaufwand, weil neue oder zusätzliche Aufnahmen notwendig sind. Ziel des Projektes ist die Entwicklung eines Röntgenassistenten, welcher das bildaufnehmende Personal führt und dadurch die Qualität der Röntgenbilder signifikant steigert.

Über eine passend am Röntgengerät angebrachte 3D-Time-Of-Flight (3D-TOF) Kamera wird die Lage des Patienten und des zu untersuchenden Bereiches erfasst. Mithilfe KI-basierter Methoden und Algorithmen wird gelernt, welches Röntgenbild mit welcher Qualität bei einer Aufnahme in dieser Lage zu erwarten ist. Nur wenn das Bild den geforderten Kriterien entspricht und für die entsprechende Diagnose geeignet ist, kann eine Aufnahme durchgeführt werden bzw. wird ein entsprechendes Signal für eine Aufnahme gegeben. Darüber hinaus kann dem Benutzer auch über z.B. entsprechende Pfeilsignale und ein Ampelsystem mitgeteilt werden, in welche Richtung eine Lageänderung durch Drehung, Verschiebung, Neigung oder Beugung erfolgen muss bzw. Einblendungsempfehlungen oder sogar eine automatische Einblendung, um stets zu einer guten bis sehr guten Aufnahme zu gelangen.


Zu den Seiten der Verbundpartner:
- Radiologie des UKSH Lübeck
- IMAGE Information Systems Europe GmbH
- Pattern Recognition Company GmbH
- Institut für Neuro- und Bioinformatiok der Universität zu Lübeck

Montag, 14.09.2020

AP 330: RIDIMP

Ansprechperson: Dr. Karin Hochbaum

Risikoindikatoren für cardiopulmonale Dekompensation auf Intensivstationen durch Monitoring von Vitalparametern: Ziel des Projekts ist es mittels Methoden des Maschinellen Lernens zu untersuchen, ob es Parameterkonstellationen gibt, die in Summe einen Hinweis auf nachfolgende akute cardiopulmonale Entgleisungen bei intensivpflichtigen Patienten geben können und daraus eine Entscheidungsunterstützung für Mediziner zu entwickeln.

AP 340: KI für radiologische Bildgebung in der Notfall- und Intensivmedizin

Ansprechperson: Prof. Dr. Claus-C. Glüer

Mediziner(innen) müssen oft in kurzer Zeit wichtige Entscheidungen treffen, bei denen es auch um Leben und Tod geht. Um sie bei ihrer Entscheidungsfindung zu unterstützen, soll in dem Projekt "Künstliche Intelligenz (KI) für radiologische Bildgebung in der Notfall- und Intensivmedizin" ein intelligenter Röntgenassistent entwickelt werden, der dabei hilft, wichtige Informationen aus Röntgen- und CT-Bildern zu filtern, die entscheidend für die weitere Versorgung von Patientinnen und Patienten sind. Partner in diesem Verbundprojekt sind das Institut für Medizinische Informatik der Universität zu Lübeck (Mattias Paul Heinrich, Heinz Handels), die Christian-Albrechts-Universität zu Kiel (Claus-C. Glüer), das Universitätsklinikum Hamburg-Eppendorf (UKE), das Universitätsklinikum Schleswig-Holstein (UKSH) sowie die Unternehmen Philips, Hamburg, und mbits, Heidelberg.


Weitere Infos zu dem Projekt gibt es in diesem Beitrag.

AP 350: Intelligenter Ultraschall-Aspirator

Ansprechperson: Dr. Steffen Buschschlüter

In vielen medizinischen Disziplinen ist die intraoperative Tumordifferenzierung eine herausfordernde Problemstellung, die viel Fachwissen, Intuition und technologischen Aufwand erfordert. Besonders in der Neurochirurgie ist die präzise Unterscheidung von gesundem Gewebe und Tumor zwingend notwendig, da eine unbeabsichtigte Resektion von gesundem Hirngewebe oder Blutgefäßen mit erheblichen Konsequenzen einhergehen. Vorarbeiten und Erfahrungen zeigen, dass Tumore und gesundes Hirngewebe jedoch hinsichtlich ihrer mechanischen Eigenschaften deutliche Unterschiede aufweisen.

Eine Arbeitsgruppe unter der Leitung von Prof. Floris Ernst am Institut für Robotik und Kognitive Systeme der Universität zu Lübeck verfolgt nun das Ziel, mit Hilfe von maschinellen Lernverfahren Gewebe intraoperativ zu vermessen und eine Tumorranderkennung zu ermöglichen. Im Rahmen des KI-SIGS-Anwendungsprojektes „Intelligenter Ultraschall-Aspirator“ kooperiert die Arbeitsgruppe mit der Klinik für Neurochirurgie des UKSH und der Söring GmbH. In diesem dreijährigen Forschungsprojekt werden intraoperative Daten wie Gewebefestigkeiten und MRT-Informationen gesammelt und mit histologischen Untersuchungen von Gewebeproben kombiniert. Die so generierten Trainingsdaten ermöglichen die Entwicklung einer auf maschinellem Lernen basierenden Online-Detektion des Gewebetyps verbunden mit der Möglichkeit innovativer Assistenzfunktionen für die Neurochirurgie. Die Gewebeerkennung soll im Zuge des Projektes testweise in Produkte der Söring GmbH implementiert und klinisch am UKSH erprobt werden.

AP 360: VIKOOB

Ansprechperson: Prof. Dr. Philipp Rostalski

Visuelle KOntextinformation zur Optimierung der Beatmungstherapie: Verbesserte Nutzung multimodaler Sensordaten in der Beatmungstherapie durch Zusammenspiel visuell extrahierter Kontextinformation (aus Multikamera-Tiefenbildern), Zeitreihen der Vitalparameter und fortschrittlichen KI-Algorithmen (Deep-Learning und probabilistische Modelle). Umfassende Patientenbeurteilung (z.B. bezüglich Stress, Körperlage etc.) und damit potenziell neue diagnostische/therapeutische Anwendungen.

AP 370: PELVIS

Ansprechperson: Prof. Dr. Jan Modersitzki

Interventionsunterstützung zur Repositionierung von Knochenfragmenten bei Beckenfrakturen: Hauptziel ist die Optimierung und Vereinfachung von Beckenfraktur-OPs durch KI-gestützte Repositionierung mittels Röntgen-Stereotaxie als Alternative zu aufwändigen Voll-Navigationssystemen. Weitere Ziele sind die Implementierung geeigneter KI-Verfahren, sowie die Lösung der Probleme die bei Segmentierungen und Visualisierungen durch den Übergang von 3D CT Daten zu intraoperativen, selektiven 2D Röntgenbildern entstehen (2D-3D Mapping).

AP 380: Individualisierte Hörhilfenanpassung

Ansprechperson: Prof. Dr. Timo Gerkmann

Das KI SIGS Anwendungsprojekt "Individualisierte Hörhilfenanpassung" verfolgt die Zielsetzung, Methoden der künstlichen Intelligenz zu entwickeln und bereitzustellen, die den sogenannten „First Fit“ verbessern und eine Adaptation an die Nutzer und ihre spezifischen Hörverluste und Vorlieben ermöglichen. Des Weiteren sollen KI-basierte Störgeräuschunterdrückungsmethoden entwickelt werden, die an die individuelle Nutzung angepasst sind. Dabei widmet sich das Institut für Signalverabeitung, geleitet von Prof. Alfred Mertins, den leichten und mittleren Hörverlusten, die mit einem medizinischen Hörgerät ausgeglichen werden sollen, und die Universität Hamburg befasst sich mit sehr starken Hörverlusten, die eines Cochlea-Implantats bedürfen. Der Industriepartner Advanced Bionics addressiert das gesamte Spektrum von leichten bis sehr starken Hörverlusten.

Die Grundlage für die Entwicklung der vorgeschlagenen KI-Methoden stellen vom Industriepartner erhobene Datensätze dar, für die bislang keine effiziente Möglichkeiten der Nutzung existieren. Advanced Bionics verfügt über Daten zu mehr als einer Million Anpassungsverläufen inklusive Rückmeldungen der Kunden, die sukzessive in Änderungen der Parametereinstellungen der jeweiligen Hörgeräte umgesetzt wurden. Ebenso ist sogenannte Data-Logging-Information verfügbar, die dokumentiert, in welchen akustischen Situationen sich die Hörgeräteträger befanden und welche Verstärkungsänderungen in diesen Situationen von ihnen vorgenommen wurden. Aufgrund der hohen Dimensionalität des Parameterraums und der Vielzahl von Einstellmöglichkeiten ist die optimale Gerätekonfiguration eine Herausforderung, die nicht mit Faustformeln, sondern nur durch datengetriebene Methoden der künstlichen Intelligenz ausreichend gelöst werden kann.

Ziel der Arbeiten an der Universität zu Lübeck ist es daher, mit Verfahren maschinellen Lernens aus den großen Datenbasen zu passgenaueren Hörsystemeinstellungen für den einzelnen Patienten zu gelangen, bei denen der Einzelne von den verteilten Anpassungsmodifikationen und Entscheidungen anderer Nutzer mit ähnlichen Hörprofilen in vergleichbaren akustischen Situationen und mit ähnlichen Anforderungen profitieren kann. Dadurch soll der Anpassungsprozess verkürzt und die Akzeptanz und der Nutzen der Hörsysteme in der Praxis verbessert werden.

AP 390: Bewegungstraining

Ansprechperson: Prof. Dr. Frank Steinicke

Entwicklung und Bereitstellung von interaktiven KI-Werkzeugen für das Bewegungstraining, welche mittels intelligenter virtueller Agenten und Robotersysteme Rückmeldungen über (in-)korrekt durchgeführte Bewegungen auf natürliche Art und Weise geben.