Projekte

AP 310: Homecare Augendiagnostik

Ansprechperson: Prof. Dr. Reinhard Koch

Das Projekt iAuge ist ein Teilprojekt des überregionalen Verbundprojektes „KI-Space für intelligente Gesundheitssysteme“ (KI-SIGS). In Kooperation von Partnern an den Universitäten Lübeck, Kiel und Bremen, dem Universitätsklinikum Schleswig-Holstein (UKSH) sowie der Fa. Visotec GmbH und der UniTransferKlinik aus Lübeck werden neue KI-basierte Lösungen zur ophthalmologischen Diagnostik erarbeitet. Wesentliches Ziel der Arbeiten am Institut für Medizinische Informatik (IMI) ist die Entwicklung von optimierten Deep Neural Networks für die automatische KI-basierte Auswertung von dreidimensionalen OCT-Bildern (OCT: Optical Coherence Tomography) zur verbesserten Versorgung von Patienten mit Augenerkrankungen.

AP 320: Digitaler Röntgenassistent

Ansprechperson: Prof. Dr. Thomas Martinetz

In dem KI-SIGS Anwendungsprojekt "Digitaler Röntgenassistent" wollen die Verbundpartner des UKSH Lübeck (Jörg Barkhausen), der IMAGE Information Systems Europe GmbH (Arpad Bischof), der Pattern Recognition Company GmbH (Erhardt Barth) und des Instituts für Neuro- und Bioinformatik der Universität zu Lübeck (Thomas Martinetz) den Prozess der Röntgenaufnahme mit KI unterstützen und optimieren.

AP 330: RIDIMP

Ansprechperson: Prof. Dr. med. Rolf Dembinski

Risikoindikatoren für cardiopulmonale Dekompensation auf Intensivstationen durch Monitoring von Vitalparametern:

Hämodynamische und pulmonale Dekompensationen sind lebensbedrohliche Verschlechterungen der Kreislauf- und Lungenfunktion. Mit zunehmendem Fortschreiten können körpereigene Gegenregulationsmechanismen keine ausreichende Stabilisierung mehr erzielen. Ohne sofortige therapeutische Intervention, wie eine medikamentöse Kreislaufunterstützung oder eine invasive Beatmung, führen sie letztendlich zum Schock, ARDS (acute respiratory distress syndrome) bis hin zum Versterben der Patient:innen.

AP 340: KI für radiologische Bildgebung in der Notfall- und Intensivmedizin

Ansprechperson: Prof. Dr. Claus-C. Glüer

Mediziner:innen müssen oft in kurzer Zeit wichtige Entscheidungen treffen, bei denen es auch um Leben und Tod geht. Um sie bei ihrer Entscheidungsfindung zu unterstützen, soll in dem Projekt "Künstliche Intelligenz (KI) für radiologische Bildgebung in der Notfall- und Intensivmedizin" ein intelligenter Röntgenassistent entwickelt werden, der dabei hilft, wichtige Informationen aus Röntgen- und CT-Bildern zu filtern, die entscheidend für die weitere Versorgung von Patientinnen und Patienten sind. Partner in diesem Verbundprojekt sind das Institut für Medizinische Informatik der Universität zu Lübeck (Mattias Paul Heinrich, Heinz Handels), die Christian-Albrechts-Universität zu Kiel (Claus-C. Glüer), das Universitätsklinikum Hamburg-Eppendorf (UKE), das Universitätsklinikum Schleswig-Holstein (UKSH) sowie die Unternehmen Philips, Hamburg, und mbits, Heidelberg.


Weitere Infos zu dem Projekt gibt es hier oder in diesem Beitrag.

AP 350: Intelligenter Ultraschall-Aspirator

Ansprechperson: Dr. Steffen Buschschlüter

In vielen medizinischen Disziplinen ist die intraoperative Tumordifferenzierung eine herausfordernde Problemstellung, die viel Fachwissen, Intuition und technologischen Aufwand erfordert. Besonders in der Neurochirurgie ist die präzise Unterscheidung von gesundem Gewebe und Tumor zwingend notwendig, da eine unbeabsichtigte Resektion von gesundem Hirngewebe oder Blutgefäßen mit erheblichen Konsequenzen einhergehen. Vorarbeiten und Erfahrungen zeigen, dass Tumore und gesundes Hirngewebe jedoch hinsichtlich ihrer mechanischen Eigenschaften deutliche Unterschiede aufweisen.

AP 360: VIKOOB

Ansprechperson: Prof. Dr. Philipp Rostalski

Visuelle Kontextinformation zur Optimierung der Beatmungstherapie: Verbesserte Nutzung multimodaler Sensordaten in der Beatmungstherapie durch Zusammenspiel visuell extrahierter Kontextinformation (aus Multikamera-Tiefenbildern), Zeitreihen der Vitalparameter und fortschrittlichen KI-Algorithmen (Deep-Learning und probabilistische Modelle). Umfassende Patientenbeurteilung (z.B. bezüglich Stress, Körperlage etc.) und damit potenziell neue diagnostische/therapeutische Anwendungen.

AP 370: PELVIS

Ansprechperson: Prof. Dr. Jan Modersitzki

Interventionsunterstützung zur Repositionierung von Knochenfragmenten bei Beckenfrakturen: Hauptziel ist die Optimierung und Vereinfachung von Beckenfraktur-OPs durch KI-gestützte Repositionierung mittels Röntgen-Stereotaxie als Alternative zu aufwändigen Voll-Navigationssystemen. Weitere Ziele sind die Implementierung geeigneter KI-Verfahren, sowie die Lösung der Probleme die bei Segmentierungen und Visualisierungen durch den Übergang von 3D CT Daten zu intraoperativen, selektiven 2D Röntgenbildern entstehen (2D-3D Mapping).

AP 380: Individualisierte Hörhilfenanpassung

Ansprechperson: Prof. Dr. Timo Gerkmann

Das KI SIGS Anwendungsprojekt "Individualisierte Hörhilfenanpassung"

verfolgt die Zielsetzung, Methoden der künstlichen Intelligenz zu entwickeln und bereitzustellen, die eine Anpassung von Hörhilfen an Nutzer und ihre spezifischen Hörverluste und Vorlieben ermöglichen. Des Weiteren sollen KI-basierte Methoden zur Sprachverbesserung entwickelt werden, die an die individuelle Nutzung angepasst sind. Dabei widmet sich das Institut für Institut für Signalverabeitung, geleitet von Prof. Alfred Mertins, und Prof. Jonas Obleser vom Institut für Psychologie I den leichten und mittleren Hörverlusten, die mit einem medizinischen Hörgerät ausgeglichen werden sollen. Darüber hinaus befassen sich die Universität Hamburg unter der Leitung von Prof. Dr.-Ing. Timo Gerkmann und der Industriepartner Advanced Bionics mit dem gesamten Spektrum von leichten bis sehr starken Hörverlusten.

AP 390: Bewegungstraining

Ansprechperson: Prof. Dr. Frank Steinicke

Im KI-SIGS-Anwendungsprojekt (AP390) „Bewegungstraining“ entwickeln die Partner Universität Hamburg, Universität Bremen, apoQlar und SZENARIS mit Unterstützung des Hospitals zum Heiligen Geist ein KI-gestütztes Trainingssystem zur Verbesserung der Gesundheit und Fitness von älteren Erwachsenen. Um die Schulung effektiv durchführen zu können, mussten wir zunächst die Eigenschaften und Bedürfnisse unserer Nutzerinnen und Nutzer verstehen. Unsere Zielgruppe sind in erster Linie ältere Erwachsene im Alter von 50-65 Jahren, die Hilfe benötigen, um Gesundheits-, Mobilitäts- und Fitnessgewohnheiten ohne Trainerinnen und Trainer oder medizinisches Personal zu entwickeln und aufrechtzuerhalten. Herausforderungen sind dabei der Mangel an Motivation (z. B. keine soziale Interaktion während COVID) und zunehmende körperliche Beschwerden. 

Daher liegt unser Fokus auf der Steigerung der Motivation, aktiv und fit zu bleiben. Darüber hinaus werden Gamification und virtuelle Agenten verwendet, um die Erfahrung der Nutzerinnen und Nutzer  mit dem System zu verbessern. Um eine breite Bevölkerungsgruppe zu erreichen, muss das System auf mehrere Kontexte (VR/AR, Robotik usw.) erweiterbar sein.