Springe zum Hauptinhalt

Projekte

Drittmittelprojekte der Professur Media Computing

Im Folgenden sind Drittmittelprojekte aufgeführt, die durch die öffentliche Hand gefördert werden und wurden. Daneben führen wir auch Auftragsforschung für die Industrie durch.

Förderung:

Zeitraum: 09/2021 - 08/2025

Fördermittelgeber: Bundesministerium für Bildung und Forschung (BMBF)

Fördermittelsumme: Gesamtvolumen: ~10 Mio Euro, Eigenanteil: ca. 800.000€

Einordnung in Forschungsschwerpunkte und Kernkompetenzen:

Professur: KI in der Augenmedizin

TU Chemnitz: Mensch und Technik

Beschreibung:

Ein digitales Ökosystem zur Stärkung von medizinischer Forschung, Diagnostik und Therapie in Sachsen - Der Digitale Fortschrittshub MiHUBx tritt an, die Vernetzung unterschiedlichster Akteure und Initiativen der Gesundheitsforschung und -versorgung miteinander zu einem zukunfts- wie wachstumsfähigen, nachhaltigen und flexiblen System zu vernetzen. MIHUBx - Use Case 1 "Diabetologie trifft Onkologie": Die Gruppen von Jun.-Prof. Kowerko (TUC, IT-Projektleitung) und Prof. Ritter (HSMW) werden gemeinsam Schnittstellen zwischen medizinischen Partnern (z.B. sächsisches Makulazentrum) schaffen und einer zentralen Datenintegrationszentrums-Infrastruktur aggregiert zufügen und sie damit für Forschungszwecke nutzbar(er) machen. Genaue Anforderungen bezüglich zu erhebender Kerndaten und grundlegende (algorithmische) Funktionalität werden gemeinsam mit medizinischen Partnern (Augenärzte, Diabetologen, Allgemeinärzten) erhoben und fließen in einen Mockup, der iterativ und partizipativ zu einem Demonstrator weiterentwickelt wird. Akzeptanz und Nutzen der Mensch-Technik-Schnittstellen werden dabei systematisch mit erhoben, mit Fokus Arzt/Ärztin im Umgang mit KI-Modulen. Integriert werden dabei die zuvor von den medizinischen Partnern vordefinierten Datensätze. Dabei wird sich die Gruppe von Prof. Ritter auf die Analyse und Verarbeitung von Bildern und Volumina aus OCTs und Textextrakten zur Behandlungsanalyse in Korrelation zur Sehschärfe unter verschiedenen Zeitspannen konzentrieren, während Media Computing sich auf medizinische Texte der elektronischen Patientenakten und fokussieren wird, um diese strukturiert nach allgemein anerkannter (internationaler) Terminologie/Ontologie wie SNOMEDCT bereitzustellen. Der Demonstrator wird grundlegende Funktionen für Annotation, Datenexploration und Behandlungsvisualisierungen enthalten, sowie therapieunterstützende Algorithmen enthalten, speziell für Krankheitsverläufe unter verschiedenen Behandlungsszenarien, für Diabetes und für diabetische Augenerkrankungen. Usability und User Experience werden kontinuierlich mit evaluiert. Die medizinische Leitung haben Prof. Dr. med. Katrin Engelmann (Chefärztin der Augenklinik der Klinikums Chemnitz gGmbH), sowie Prof. Dr. med. Peter Schwarz (Uniklinikum Dresden, Schwerpunkt Prävention).

Projektpartner:

  • Klinikum Chemnitz gGmbH, Augenklinik, Prof. Dr. med. Katrin Engelmann
  • Klinikum Chemnitz gGmbH, Abteilung Informatik/Datenintegrationszentrum, Dr. Frank Nüßler, Martin Bartos
  • TU Dresden, Zentrum für medizinische Informatik, Prof. Dr. Martin Sedlmayr
  • TU Dresden, Med. Klinik III (Prävention und Diabetes), Prof. Dr. med. Peter Schwarz
  • Hochschule Mittweida, Professur Medieninformatik, Prof. Dr. Marc Ritter
  • Hochschule Mittweida, Professur für Digitale Transformation und Angewandte, Prof. Dr. Christian Roschke

Pressemitteilungen:

Publikationen:

Förderung:

Zeitraum: 07/2023 - 06/2027

Fördermittelgeber: Europäischer Sozialfond Plus (ESF Plus) im Freistaat Sachsen / SAB

Fördermittelsumme: 81.600€

Einordnung in Forschungsschwerpunkte und Kernkompetenzen:

Professur: Visuelle Inspektion in industriellen Fertigungsprozessen

TU Chemnitz: Materialien und Intelligente Systeme

Beschreibung:

Das Hauptziel visueller Inspektionssysteme ist die Erkennung von Fehlern während des gesamten Herstellungsprozesses bzw. am Ende der jeweiligen Teilprozessschritte. Die Verfügbarkeit von Annotierten Daten ist im Allgemeinen begrenzt, da es sich im industriellen Kontext um geschützte Daten handelt und für Prozessingenieure die Annotation von Fehlern sehr arbeitsintensiv ist und Expertenwissen erfordert. Zwar sind Fehler durch optimierte Prozesse i.d.R. selten, jedoch können sie beim Auftreten zu erheblichen Störungen des Produktionsprozesses führen. Für diese Arbeit nutzen wir hochauflösende Bilder des Inspektionssystems unserer regionalen Partner wie der 3D-Micromac AG, diese entstehen am Ende eines sog. Dicing Prozessschrittes, bei dem Wafer mit einem laserbasierten Verfahren geschnitten und anschließend in Hunderte bis Tausende Chips vereinzelt werden. Vorarbeiten zeigen, dass die Fehlererkennung mit neuronalen Netzen sehr leistungsstark ist. Sollte jedoch nur einer von 100 Chips fehlerhaft sein, liegt der positive Vorhersagewert nur noch bei ca. 50%, d.h. die Hälfte der erkannten Fehler sind eigentlich keine (falsch-positiv), was im industriellen Kontext für den praktischen Einsatz eines solchen Systems noch zu hoch sein kann, demnach müssen Klassifikationsprozesse weiter verfeinert werden. Ferner generalisieren die KI-Modelle noch zu wenig bei neuem, noch unbekannten Wafer-Bildmaterial, dem gilt es mit Methoden der Datensynthese entgegenzuwirken.

Projektpartner:

  • 3D-Micromac AG, Dr. Michael Grimm

Förderung:

Zeitraum: 10/2018 - 03/2021

Fördermittelgeber: Sächsisches Staatsministerium für Wissenschaft, Kultur und Tourismus (SMWK)

Fördermittelsumme: Gesamtvolumen: ~100.000€

Beschreibung:

Ziel war die Überprüfung der Hypothese, dass eine verringerte Zellvitalität am Augenhintergrund (Fundus) frühzeitig spektral sichtbar gemacht werden kann. Dazu wurde eine kommerzielle Funduskamera modifiziert, so dass spektral-gefilterte Fundusaufnahmen bei ca. 100 Patienten durchgeführt werden konnten. Die Filterung ist auf den Spektralbereich der Absorption des Moleküls Cytochrom C angepasst, das mit dem Zelltod in Verbindung steht. Auf den Fundusbilder gestellte ärztliche Befunde konnten mit KI-basierter Bildanalyse durch die zusätzlichen farbgefilterten Fundusaufnahmen besser klassifizieren lassen auf Standard-Color-Fundusaufnahmen.

Projektpartner:

  • Klinikum Chemnitz gGmbH, Augenklinik, Prof. Dr. med. Katrin Engelmann

Förderung:

Zeitraum: 06/202 - 11/2022

Fördermittelgeber: Deutscher Akademischer Austauschdienst (DAAD), CAPES

Förderprogramm: "Co-funded Research Grants – Short-Term Grants"

Fördermittelsumme: DAAD: 5.350 €, CAPES: ~2500€

Beschreibung:

Die Automatisierung von Prozessen, die bisher von Menschen durchgeführt wurden, wird immer häufiger, z.B. im Bereich der visuellen Fehlerprüfung. Die visuelle Inspektion ist jedoch aufgrund des Mangels an öffentlichen Daten, des Klassenungleichgewichts und der spezifischen Geometrie der Defekte immer noch eine komplexe Aufgabe. Ziel ist es, zu evaluieren, wie Deep Learning-basierte Modelle kombiniert und optimiert werden können, um domänenspezifische und unterschiedlich große Defekte zu erkennen, indem öffentliche und eigene Datensätze aus verschiedenen Szenarien untersucht werden (z. B. Inspektion von Stromleitungen und Halbleiterwafern).

Projektpartner:

  • Voxar Labs at Informatics Center of UFPE Cidade Universitária (Campus Recife)

Publikationen:

Förderung:

Zeitraum:  10/2018 - 06/2021

Fördermittelgeber: Novartis Pharma GmbH, GWT GmbH

Fördermittelsumme: Gesamtvolumen: ~180.000€, Eigenanteil: 110.000€

Beschreibung:

OphthalVis2.0 zielte darauf ab mittels Text Mining gewonnene Daten strukturiert in eine Datenbank zu überführen für Analysen zum Visusverlauf von Patienten mit Altersbedingter Makuladegeneration, Diabetischem Makulaödem und retinalen Venenverschlüssen unter intravitrealer operativer Medikamentenapplikations-therapie (IVOM). Gemeinsam mit der Augenklinik der Klinikum Chemnitz gGmbH wurden fast 50.000 Patientendatensätze strukturiert und erlaubten systematische statistische Erhebungen zum Visusverlauf, aber auch erste maschinelle Modellierungen zum Visusverlauf unter IVOM-Therapie.

Projektpartner:

  • Klinikum Chemnitz gGmbH, Augenklinik, Prof. Dr. med. Katrin Engelmann

Förderung:

Zeitraum: 10/2018 - 09/2021

Fördermittelgeber: Europäischer Sozialfond (ESF) / SMWK

Fördermittelsumme: 54.000€

Beschreibung:

Inspiriert durch das visuelle Wahrnehmungssystem des Menschen befasst sich die hexagonale Bildverarbeitung im Kontext maschineller Lernverfahren mit der Entwicklung bildverarbeitender Systeme, die nach biologischem Vorbild die Vorteile evolutionär begründeter Strukturen in sich vereinen. Während klassische bildverarbeitende Systeme nach aktuellem Stand der Technik von Aufnahme- und Ausgabegeräten fast ausschließlich quadratisch gerasterte Verfahren zur Anwendung bringen, bieten ihre hexagonalen Pendants eine Reihe entscheidender Vorteile, von denen Forscher sowie Anwender profitieren können. Diese Arbeit beschäftigt sich als ein erster anwendungsorientierter Ansatz mit der Synthese des hierfür konzipierten Frameworks, genannt Hexnet, den Verarbeitungsschritten der hexagonalen Bildtransformation und abhängigen (maschinellen Lern-)Verfahren, die mit Schwerpunkt der robusten Objektklassifikation in klinischen sowie industriellen Problemstellungen zur Anwendung kommen.

Projektpartner:

  • Klinikum Chemnitz gGmbH, Augenklinik, Prof. Dr. med. Katrin Engelmann
  • Intenta GmbH, Dr. Basel Fardi, Jan Schloßhauer
  • 3D-Micromac AG, Dr. Michael Grimm

Förderung:

Zeitraum: 09/2014 - 02/2016

Fördermittelgeber: Novartis GmbH

Fördermittelsumme: ~200.000 €, Eigenanteil: 100.000 €

Beschreibung:

Ziel war es beispielhaft zu zeigen wie mit Software-Tools Augenärztinnen und -ärzte gezielt unterstützt werden können, bspw. durch Visualisierung von augenmedizinischer Daten oder Diagnoseunterstützung bei Schädigungen der Netzhaut mittel Optischer Koheränztomographie. Hier wurde zu Demozwecken ein Android-App entwickelt, die unter Verwendung von Bildverarbeitung den Schädigungsgrad des retinalen Pigmentepithels quantifiziert und anzeigt. Ferner wurde ein Prototyp entwickelt, welcher OCTs unterschiedlicher Hersteller in einer einheitlichen Anwendung präsentiert und Daten in ein einheitliches Format überführt.

Projektpartner:

  • Augenärztinnen und -ärzte aus Freiburg and Chemnitz
  • Jun.-Prof. Dr. Paul Rosenthal, Juniorprofessur Visual Computing

Publikationen:

  • Kowerko, Danny, Robert Manthey, René Erler, Thomas Kronfeld, Tobias Schlosser, Frederik Beuth, Tom Kretzschmar, u. a. „Schlussbericht zum InnoProfile-Transfer Begleitprojekt localizeIT“. Schlussbericht. Chemnitzer Informatik-Berichte. Chemnitz: TU Chemnitz, 29. Januar 2019. https://www.tu-chemnitz.de/informatik/service/ib/pdf/CSR-20-02.pdf.

Förderung:

Zeitraum: 08/2014 - 07/2019

Fördermittelgeber:  Bundesministerium für Bildung und Forschung (BMBF)

Förderprogramm: InnoProfile-Transfer

Fördermittelsumme: Gesamtvolumen: ~2.5 Mio Euro

Beschreibung:

Die InnoProfile-Transfer-Initiative „localizeIT – Lokalisierung visueller Medien“ fußt auf den Ergebnissen der Nachwuchsforschergruppe sachs­Me­dia (siehe Rubrik „abgeschlossene Projekte“, Professur Medieninformatik). DieInnoProfile-Initiative sachsMedia hat sich intensiv mit der Bildanalyse, insbesondere von Videomaterial auseinander gesetzt. Ziel der Analyse war die Entdeckung von Personen und Objekten in Videomaterial. Anwendungsfall war Material der Filmwirtschaft, wie es im Lokalfernsehen entsteht. Ziel von localizeIT ist es die Probleme und Bedürfnisse weiterer Anwendungsfälle zu lösen, die sich in Gesprächen und Kooperationen mit Unternehmen der Region Chemnitz in den vergangenen Jahren herauskristallisiert haben. Diese lassen sich in dem Thema der Lokalisierungsfrage visueller Medien zusammenfassen. Dabei behandelt das Projekt die Lokalisierungsfrage unter drei Gesichtspunkten: Lokalisierung des Mediums: Wo ist eine Aufnahme entstanden? Lokalisierung im Medium: Wo sind welche Objekte in einer Abbildung platziert? Lokalisierung in der Welt: Wo sind die Objekte der Abbildungen in der realen Welt positioniert? Das Projekt wurde als Begleitprojekt zur Stiftungsjuniorprofessur Media Computing gemeinsam mit der Professur Medieninformatik konzipiert. Zu den Anwendungsfällen zählte u.a. die Personenerkennung und -verhaltensanalyse im Raum anhand von Audio-, Bild- und Videoaufnahmen. Es wurde erforscht inwiefern Bild- und Videoverarbeitung zur Charakterisierung von Schmelzzonen während des Laserschweißens zum Prozessverständnis beitragen kann, aber auch zur Charakterisierung des entstandenen Produkts nach dem Schweißen, bspw. die Güte eines lasergeführten Schweißprozesses beim Vereinzeln von Chips in der Halbleiterindrustrie.

Projektpartner:

Stifterfirmen:

  • Intenta GmbH, Dr. Basel Fardi, Jan Schloßhauer
  • 3D-Micromac AG, Dr. Michael Grimm
  • 3D Insight GmbH, Dr. Stephan Rusdorf
  • IBS Software und Research GmbH

Publikationen:

  • Kowerko, Danny, Robert Manthey, René Erler, Thomas Kronfeld, Tobias Schlosser, Frederik Beuth, Tom Kretzschmar, u. a. „Schlussbericht zum InnoProfile-Transfer Begleitprojekt localizeIT“. Schlussbericht. Chemnitzer Informatik-Berichte. Chemnitz: TU Chemnitz, 29. Januar 2019. https://www.tu-chemnitz.de/informatik/service/ib/pdf/CSR-20-02.pdf.