Springe zum Hauptinhalt
Professur Datenmanagement
Forschung

Forschung

FAIR und Open Data. Im Rahmen des EU Data Act und des Forschungsdatengesetzes werden Daten zukünftig unter Einhaltung der FAIR-Prinzipien vermehrt als Open Data veröffentlicht. Das Ziel besteht darin, Daten aus Forschung und Verwaltung für relevante Interessengruppen auffindbar und nutzbar zu machen. Dies erfordert jedoch die Evaluierung neuer Technologien in verschiedenen Bereichen. Wichtige Aspekte hierbei sind die Entwicklung und Bewertung semantischer Metadatenvokabulare für DCAT-Datenkataloge, rechtliche Rahmenbedingungen und das Lifecycle-Management rund um die veröffentlichten Daten.

Wissensgraphen und Datenintegration. Wissensgraphen und die damit verbundene Integration verteilter Daten spielen zunehmend eine zentrale Rolle in der globalen Informationslandschaft des Webs. Teilaspekte dessen, wie das Semantic Web (unter Nutzung der W3C-Standards RDF/RDFS/OWL) und Linked Data sind weiterhin Gegenstand intensiver Forschung. Dabei werden Technologien aus dem Web genutzt, die den meisten Web-Entwickler:innen bekannt sind, wie beispielsweise die Protokolle HTTP sowie Identifikationskonzepte wie IRIs, URIs und URNs. Durch diese sich entwickelnde Informationsvernetzung können Daten mit konzeptuellen Beschreibungen und Kontextinformationen (Semantik) verbunden werden und darauf aufbauende Informationsbausteine organisationsübergreifend exploriert, genutzt, veredelt und revisioniert werden. Dies ermöglicht effizientere Integrationsprozesse für Daten, wodurch sich auch klassische Migrationsaufgaben verändern werden. Ein besonders wichtiger Aspekt bei der Erstellung von Wissensgraphen ist die Integration und Adaption von Daten aus Bestandssystemen. Hierbei kommen heterogene, teilweise sehr komplexe, Konvertierungsmechanismen zum Einsatz, um diverse Sprachen miteinander zu integrieren (zB. SPARQL2SQL, RDB2RDF).

Analyse und Auswertung von Daten, Unterstützungsprozesse für Data Sciences. Ein weiterer Forschungsaspekt im Bereich des Datenmanagements steht im Zusammenhang mit Technologien aus dem Bereich der Künstlichen Intelligenz. Aktuell werden u.a. Large Language Models (LLMs) untersucht, um ihre Vor- und Nachteile sowie Einsatzmöglichkeiten in verschiedenen gesellschaftlichen Bereichen, industriellen Umfeldern und Forschungsdisziplinen zu verstehen. Zum einen wird untersucht, inwieweit die Kombination von Wissensgraphen und LLMs die Nutzung von Daten (Transparenz, Erklärbarkeit, Aktualität, …) verbessert. Zum anderen wird der Einsatz von LLMs bei der Konzept- und Schemaerstellung erforscht. Besonders spannend ist dabei die Integration von APIs mit LLMs (wie ChatGPT, BERT, LLAMA usw.) in Kombination mit integrierten Entwicklungsumgebungen (IDEs). Weitere unterstützende Aktivitäten stammen aus dem Bereich Ontology Evolution und Repair. Hier ist auch das Interesse an der Anbindung von APIs in Datenmanagement-Tools groß, die effizientes und qualitatives Pipelining von Daten und Services ermöglichen.