Springe zum Hauptinhalt
Professur Medieninformatik
Promotionen

Promotionen

2023

2021

Michael Storz

Miteinander, Gegeneinander und Füreinander — Gruppeninteraktionen an einem Tabeltop im Museum

Museen werden häufig von Gruppen wie z.B. Familien besucht, die ein Interesse daran haben, die Inhalte dieser Institutionen gemeinsam zu erkunden. Leider sind jedoch in vielen Museen interaktive oder gar gemeinschaftlich nutzbare Exponate weiterhin eine Seltenheit. Interaktive Tabletops können den Bedürfnissen von Besuchergruppen begegnen und kollaborative Gruppeninteraktionen ermöglichen.

Der Fokus dieser Arbeit liegt darauf, kollaborative Gruppeninteraktion an interaktiven Tischen für verschiedene Ausstellungskontexte einerseits herzustellen und andererseits detailliert zu untersuchen, um besondere Potentiale von interaktiven Tabletops für Gruppenkollaboration im Museum herauszuarbeiten.

Die Dissertation beschreibt dabei die iterative Entwicklung von zwei interaktiven Tabletop-Exponaten in ihrer physischen Gestaltung und ihren Anwendungen, die entwicklungsbegleitend durch drei In-the-wild-Studien unter realweltlichen Bedingungen weiterentwickelt wurden. In einer letzten In-the-wild-Studie wurden Gruppeninteraktionen am Tisch zum Zwecke der Interaktionsanalyse videografisch erfasst. Als Fundament für Entwicklung und Interaktionsanalyse dient eine Auseinandersetzung mit bestehenden Tabletopanwendungen in Museen hinsichtlich ihrer Potentiale für Gruppeninteraktionen.

In der Interaktionsanalyse zeigte sich unter anderem, dass die Gestaltung der Anwendung als rundenbasiertes Spiel Einfluss auf die Gruppeninteraktion hat. Insbesondere konnte beobachtet werden, dass Besucherinnen ihren Aufenthalt am Tabletopexponat sowohl mit ihrer Gruppe als auch mit dem Spielzustand koordinieren. Die Rundenbasiertheit der Anwendung motiviert Spielerinnen, ihre Gruppenmitglieder zu unterstützen und dadurch zudem das Voranschreiten des Spieles zu sichern. Aus den Ergebnissen der Interaktionsanalyse werden abschließend Implikationen für die Gestaltung von interaktiven Exponaten und ihre Anwendung für museale Kontexte abgeleitet.

Christian Roschke

Generische Verkettung maschineller Ansätze der Bilderkennung — durch Wissenstransfer in verteilten Systemen - Am Beispiel der Aufgabengebiete INS und ActEV der Evaluationskampagne TRECVid

Der technologische Fortschritt im Bereich multimedialer Sensorik und zugehörigen Methoden zur Datenaufzeichnung, Datenhaltung und -verarbeitung führt im Big Data-Umfeld u.a. zu immensen Datenbeständen in Mediatheken, Medienarchiven und Wissensmanagementsystemen. Zugrundliegende State of the Art - Verarbeitungsalgorithmen werden oftmals problemorientiert entwickelt. Aufgrund der enormen Datenmengen lassen sich nur bedingt zuverlässig Rückschlüsse auf Güte und Anwendbarkeit ziehen. So gestaltet sich auch die intellektuelle Erschließung von großen Korpora schwierig, da die Datenmenge für valide Aussagen nahezu vollumfänglich zumindest semi-intellektuell zu prüfen wären, was spezifisches Fachwissen aus der zugrundeliegenden Datendomäne ebenso voraussetzt wie zugehöriges Verständnis für Datenhandling und Klassifikationsprozesse in der Informations- und Kommunikationstechnik. Ferner gehen damit gesonderte Anforderungen an Hard und Software einher, welche sich in der Regel schlecht skalieren, da diese zumeist auf Multi-Kern-Rechnern entwickelt und ausgeführt werden ohne dabei eine notwendige Verteilung vorzusehen. Demzufolge fehlen auch Mechanismen, um die Übertragbarkeit der Verfahren auf andere Anwendungsdomänen mit geringen Aufwänden zu gewährleisten.

Der Fokus dieser Arbeit liegt in der Konzeptionierung und Entwicklung einer verteilten holistischen Infrastruktur, die die automatisierte Verarbeitung multimedialer Daten im Sinne der Merkmalsextraktion, Datenfusion und Metadatensuche innerhalb eines homogenen aber zugleich verteilten Systems ermöglicht. Dabei sind Ansätze aus den Domänen des Maschinellen Lernens, der Verteilten Systeme, des Datenmanagements und der Virtualisierung zielführend miteinander zu verknüpfen, um auf große Datenmengen angewendet, evaluiert und optimiert werden zu können. Diesbezüglich sind insbesondere aktuelle Technologien und Frameworks zur Detektion von Mustern zu analysieren und einer Leistungsbewertung zu unterziehen, so dass ein Kriterienkatalog ableitbar ist. Die so ermittelten Kriterien bilden die Grundlage für eine Anforderungsanalyse und die Konzeptionierung der notwendigen Infrastruktur. Diese Architektur bildet die Grundlage für Experimente im BigData-Umfeld in kontextspezifischen Anwendungsfällen aus wissenschaftlichen Evaluationskampagnen, wie beispielsweise TRECVid. Diesbezüglich wird die generische Applizierbarkeit in den beiden Aufgabenfeldern Instance Search und Activities in Extended Videos eruiert.

2019

Stefan Kahl

Identifying Birds by Sound: Large-scale Acoustic Event Recognition for Avian Activity Monitoring

Vögel sind allgegenwärtig und offenbaren ihre Präsenz oft durch ihre Vokalisation. Sie reagieren stark auf Umweltveränderungen und sind daher ideale Indikatoren, um die Gesundheit von Ökosystemen über verschiedene Lebensformen hinweg zu überwachen. Die automatisierte Beobachtung der Stimmaktivität und der Artenvielfalt von Vögeln kann für Ornithologen, Naturschutzbiologen und Vogelbeobachter ein geeignetes Werkzeug sein, um die langfristige Überwachung kritischer Umweltnischen zu unterstützen.

Die digitale Klangtransformation wird häufig bei der Untersuchung von Vogelgeräuschen eingesetzt. Seit den Anfängen des Geräuschspektrographen spielen Spektrogramme eine wichtige Rolle in der Vogelforschung. Es ist davon auszugehen, dass visuelle Darstellungen von Vogelgeräuschen wertvolle Informationen über die Identität der Arten enthalten, so dass Spektrogramme eine besonders geeignete Darstellung darstellen. Tiefe künstliche neuronale Netze haben die traditionellen Klassifikatoren im Bereich der visuellen Erkennung und der Klassifizierung akustischer Ereignisse übertroffen. Dennoch erfordern tiefe neuronale Netze Expertenwissen, um leistungsfähige Modelle zu entwerfen, zu trainieren und zu testen.

Mit dieser Einschränkung und den Anforderungen zukünftiger Anwendungen im Hinterkopf wurde eine umfangreiche Forschungsplattform zur automatisierten Überwachung von Vogelaktivitäten entwickelt: BirdNET. Eine noch nie dagewesene Menge an Trainings-, Validierungs- und Testdaten wurde verwendet, um die Gesamtleistung des Systems in mehr als 3.900 Stunden Feldaufnahmen, die 987 Klassen und fast 300 Stunden vollständig kommentierte Soundlandschaften mit fast 80.000 Vokalisationen umfassen, zu bewerten. Das daraus resultierende Benchmark-System liefert hochmoderne Bewertungen in verschiedenen akustischen Bereichen und wurde zur Entwicklung von Experten-Tools und öffentlichen Demonstratoren verwendet, die die Demokratisierung des wissenschaftlichen Fortschritts und zukünftige Erhaltungsmaßnahmen vorantreiben können.

2018

Robert Herms

Effective Speech Features for Cognitive Load Assessment: Classification and Regression

Die automatische Erkennung der kognitiven Belastung ist ein wichtiger Schritt zur Entwicklung von adaptive Systeme, die in der Lage sind, den Benutzer dynamisch zu unterstützen, um die erlebte Last in einem optimalen Bereich für maximale Produktivität zu halten. Rede enthält eine Vielzahl von Informationen und wurde als potentielle Modalität zur die kognitive Belastung des Benutzers zu messen.

Der Fokus dieser Arbeit liegt auf der Wirksamkeit von Sprachmerkmalen zur automatischen kognitiven Belastungsbeurteilung, wobei neue Perspektiven dieses Forschungsgebietes besonders berücksichtigt werden. Die Dissertation führt einen neuen Korpus zur Messung kognitiver Belastung ein, genannt CoLoSS. Der Korpus beinhaltet Sprachaufzeichnungen von Benutzern, die eine Lernaufgabe durchgeführt haben. Diese Datensammlung erweitert bestehende Korpora zur kognitiven Belastung, da neue Lernaufgaben eingeführt werden und zusätzlich diskrete Belastungsstufen definiert werden. Das CoLoSS-Korpus bildet zusammen mit der CLSE-Datenbank, in der zwei Varianten des Stroop-Tests und eine Lesespanne-Aufgabe eingesetzt werden, die Grundlage für die Auswertungen.

Verschiedene akustische Merkmale aus verschiedenen Kategorien wie Prosodie, Stimmqualität und Spektrum werden auf ihre Relevanz hin untersucht. Darüber hinaus werden die Teager-Energieparameter, die sich bei der Stresserkennung als sehr erfolgreich erwiesen haben, für die Beurteilung kognitiver Belastung eingeführt. Es wird ferner gezeigt, wie die automatische Spracherkennungstechnologie zur Extraktion möglicher Indikatoren für die kognitive Belastung des Nutzers genutzt werden können. Als weiterer Beitrag, werden drei handgefertigte Feature-Sets vorgeschlagen.

Die Eignung der extrahierten Merkmale wird systematisch durch Erkennungsexperimente mit sprecherunabhängigen Systemen, die für eine Drei-Klassen-Klassifikation (niedrige, mittlere und hohe kognitive Belastung) ausgelegt sind, evaluiert. Verschiedene Konfigurationen hinsichtlich Merkmalskombinationen, Filter zur Merkmalsauswahl, Merkmalsnormalisierungsmethoden und Modellparameter werden getestet. Um die Generalisierbarkeit der vorgeschlagenen Merkmalssätze nachzuweisen, werden korpusübergreifende Experimente durchgeführt. Zusätzlich wird ein neuartiger Ansatz zur sprachbasierten kognitiven Lastmodellierung vorgestellt, bei dem die Last als kontinuierliche Größe dargestellt wird und ihre Vorhersage somit als Regressionsproblem betrachtet werden kann. Die Auswertung von Regressionsalgorithmen auf dem CoLoSS-Korpus zeigt die Vorteile der Verwendung der automatischen Merkmalssubsetauswahl.

Stefanie Müller

Systematisierung und Identifizierung von Störquellen und Störerscheinungen in zeithistorischen Videodokumenten am Beispiel digitalisierter Videobestände sächsischer Lokalfernsehsender

Das zunehmende Aussterben des VHS- und SVHS-Systems sowie weiterer magnetbandbasierter Videosysteme zwingt lokale sächsische Fernsehsender zu einer raschen Digitalisierung großer Mengen analoger Videobänder. Die darauf befindlichen Aufnahmen stellen wichtige Zeitzeugnisse aus der Wendezeit dar und dokumentieren die Herausforderungen, welchen sich die ostdeutschen Bürger nach dem Wechsel von einem sozialistischen zu einem marktwirtschaftlichen System gegenübersahen. Oftmals ist diese Massendigitalisierung nur von einer generellen Sicherung ohne optimierende Maßnahmen geprägt, sodass qualitative Mängel erst nach der Digitalisierung aufwändig manuell retuschiert werden können. Hierzu ist zunächst ein Überblick über qualitativ gute und schlechte Sequenzen wünschenswert. Bislang existieren jedoch keine Verfahren für eine automatisierte Qualitätsanalyse von Digitalisaten analoger Archivbestände.

An dieser Stelle setzt der in der vorliegenden Arbeit vorgestellte Ansatz für eine automatisierte Erkennung und Klassifikation von Störerscheinungen an. Anhand einer extensiven Literaturrecherche und Materialanalyse werden mögliche Störquellen und Störerscheinungen theoretisch identifiziert und systematisiert. Dabei wird die vage, t.w. überlappende und z.T. auch widersprüchliche Terminologie von über 800 Begrifflichkeiten eingeordnet und neu definiert. Die Erkenntnisse werden durch Tabellen und Abbildungen ergänzt, sodass eine bisher nicht existente Übersicht über die diskutierten Phänomene präsentiert werden kann. Zudem wird ein Vorschlag für ein geeignetes Verfahren für deren automatisierte Detektion und Darstellung evaluiert. Die vorgestellte Methode wird mit Hilfe der im Deep Learning üblichen CNN umgesetzt und beinhaltet die Generierung von Datensätzen, das Training des Systems sowie die Klassifikation der zuvor systematisierten Phänomene.

Zusätzlich wird eine nutzerfreundliche Darstellung präsentiert, welche es erlaubt, brauchbares und unbrauchbares Videomaterial ohne vertiefte Kenntnisse über Störerscheinungen oder Künstliche Neuronale Netze und ohne Zeitaufwand auf einen Blick zu unterscheiden und semantische Strukturen zu erkennen. Die vorgestellte Methode arbeitet ressourcenschonend und stellt eine Zeit-, Personal- und Kostenersparnis für den Anwender dar. Darüber hinaus lässt sich die Methode auf andere Videoformate adaptieren und auf große Datenbestände erweitern.

2016

Markus Rickert

Inhaltsbasierte Analyse und Segmentierung narrativer, audiovisueller Medien

Audiovisuelle Medien, insbesondere Filme und Fernsehsendungen, entwickelten sich innerhalb der letzten einhundert Jahre zu bedeutenden Massenmedien. Große Bestände audiovisueller Medien werden heute in Datenbanken und Mediatheken verwaltet und professionellen Nutzern ebenso wie den privaten Konsumenten zur Verfügung gestellt. Eine besondere Herausforderung liegt in der Indexierung, Durchsuchung und Beschreibung der multimedialen Datenbestände.

Die Segmentierung audiovisueller Medien als Teilgebiet der Videoanalyse bildet die Grundlage für verschiedene Anwendungen im Bereich Multimedia-Information-Retrieval, Content-Browsing und Video-Summarization. Insbesondere die Segmentierung in semantische Handlungsabschnitte bei narrativen Medien, die vergleichbar mit Szenen oder Sequenzen sind, gestaltet sich schwierig. Sie setzt ein besonderes Verständnis der filmischen Stilelemente voraus, die im Rahmen des Schaffensprozesses genutzt wurden, um die Handlung und Narration zu unterstützen.

Die Arbeit untersucht die filmischen Stilelemente und wie sie sich im Rahmen algorithmischer Verfahren für die Analyse nutzen lassen. Hierzu wurde ein Analyse-Framework entwickelt sowie ein Verfahren zur Sequenz-Segmentierung von Filmen und Videos. Es kann gezeigt werden, dass unter Verwendung eines mehrstufigen Analyse-Prozesses und auf Basis visueller MPEG-7 Deskriptoren semantische Zusammenhänge in narrativen audiovisuellen Medien gefunden werden können, die zu einer geeigneten Sequenz-Segmentierung führen.

Anke Schneider

Farbeinflussfaktoren zur Emotionalen Bildwirkung und Ihre — Bedeutung für das Retrieval von Tourismusbildern

Der Einsatz von Bildern in den unterschiedlichsten Bereichen ist enorm gestiegen (Wedel & Pieters, 2008), da Bilder die Fähigkeit haben Erlebnisse, sowie Emotionen zu erzeugen und die Phantasie anzuregen. Zudem lässt die rasante Entwicklung im Multimediabereich die Anzahl der fotografierten und gespeicherten Bilder steigen. Die Suche nach dem „besten Bild“ für z.B. eine Kampagne gestaltet sich schwierig, da die Inhalte mehrerer Bilder zu einem Thema nicht selten eine hohe Ähnlichkeit aufweisen. Die Bilder können sich allerdings sehr deutlich in ihren Low-Level Features, wie Farbton, Sättigung und Helligkeit, unterscheiden. Jedoch ist der Emotional Gap zwischen diesen Low-Level Features und der dahinter steckenden High-Level-Semantik im inhaltsbasierten Image Retrieval nur marginal untersucht (Neumann & Gegenfurtner, 2006). Im Fokus dieser Arbeit steht die Analyse des Einflusses der emotionalen Wirkung eines Bildes auf die Qualität der Image Retrieval Ergebnisse. Dies umfasst zum einen die Untersuchung der von Farbeigenschaften eines Bildes ausgelösten Emotionen, sowie die Evaluation der Ergebnisse einer emotionalen Bildsuche. Durch verschiedene Experimente kann gezeigt werden, dass die Helligkeit und der Farbton die emotionale Wahrnehmung eines Bildes maßgeblich beeinflussen. Anhand der Ergebnisse konnte eine emotionale Annotation von Bildern und somit die Einbindung von Emotionen in den Suchprozess ermöglicht werden. Die anschließende Evaluierung der Suchergebnisse zeigt, dass die Qualität der Ergebnisse des Image Retrievals verbessert werden konnte.

Thomas Wilhelm-Stein

Information Retrieval in der Lehre - Unterstützung des Erwerbs von Praxiswissen zu IR Komponenten mittels realer Experimente und Spielemechaniken

Das Thema Information Retrieval hat insbesondere in der Form von Internetsuchmaschinen eine große Bedeutung erlangt. Retrievalsysteme werden für eine Vielzahl unterschiedlicher Rechercheszenarien eingesetzt, unter anderem für firmeninterne Supportdatenbanken, aber auch für die Organisation persönlicher E-Mails.

Eine aktuelle Herausforderung besteht in der Bestimmung und Vorhersage der Leistungsfähigkeit einzelner Komponenten dieser Retrievalsysteme, insbesondere der komplexen Wechselwirkungen zwischen ihnen. Für die Implementierung und Konfiguration der Retrievalsysteme und der Retrievalkomponenten werden Fachleute benötigt. In diversen Studiengängen, wie Informatik, Bibliotheks- und Informationswissenschaft, Web Engineering und Business Intelligence & Analytics, werden Information Retrieval Konzepte und Techniken gelehrt. Auch wenn diese Vielfalt eine Bereicherung für das Themengebiet ist, so bringen die Studierenden unterschiedliches Vorwissen mit. Die für eine praktische Umsetzung notwendigen Programmierkenntnisse sind nicht Vorraussetzung oder Bestandteil aller relevanten Studiengänge.

Mithilfe der webbasierten Lernanwendung Xtrieval Web Lab können alle Studierenden praktisches Wissen über den Information Retrieval Prozess erwerben, indem sie Retrievalkomponenten zu einem Retrievalsystem zusammenstellen und evaluieren, ohne dafür eine Programmiersprache einsetzen zu müssen. Spielemechaniken leiten die Lernenden bei ihrem Entdeckungsprozess an, motivieren und verhindern eine Informationsüberladung durch eine Aufteilung der Lerninhalte.

Das Xtrieval Web Lab wurde Im Rahmen einer Studie mit 50 Teilnehmern evaluiert. Nach der Druchführung mehrere Experimente durch die Teilnehmer wurde ihr Lernfortschritt mittels eines Fragebogens überprüft. Dabei konnte ein verbessertes Verständnis bezüglich der verwendeten Retrievalkomponenten nachgewiesen werden, d.h. nach der Verwendung des Xtrieval Web Labs wurden signifikant mehr korrekte Antworten gegeben als davor. Alle Teilnehmer werteten die Lernanwendung als sinnvolle Ergänzung zur Vorlesung und zogen ein überwiegend positives Fazit hinsichtlich ihrer Erfahrungen damit.

2015

Albrecht Kurze

Modellierung des QoS-QoE-Zusammenhangs für mobile Dienste und empirische Bestimmung in einem Netzemulations-Testbed

Thema der Arbeit ist der Zusammenhang von Quality of Service (QoS) und Quality of Experience (QoE) für mobile Internet-Dienste. Dazu wurde der Einfluss von leistungsrelevanten Netzparametern (QoS, z. B. Durchsatz und Latenz) zusammen mit weiteren Nebenfaktoren (z. B. mobiles Endgerät oder App) auf das Nutzererlebnis (QoE, z. B. Zufriedenheit) erforscht. Es sollten grundsätzliche Wirkungen zwischen „schneller“ (QoS) und „besser“ (QoE) aufgeklärt und für ausgewählte Dienste quantifiziert werden, um von einem angestrebten Grad der Nutzerzufriedenheit auf die notwendigen Werte der QoS-Netzparameter zu schließen. Dabei stand die Frage „Wie schnell ist gut genug?“ im Vordergrund, um zwischen den Interessen der Netzanbieter („so schnell wie nötig“) und den Interessen der Nutzer („so gut wie möglich“) zu vermitteln.

Sowohl QoS als auch QoE sind hochkomplexe Konzepte. Insbesondere QoE bedarf einer multi- bzw. interdisziplinären Betrachtung zwischen Ingenieurs- und Humanwissenschaften, da neben Technik und Kontext der Mensch ein wichtiger Faktor ist. Zur Berücksichtigung der relevanten Einflussfaktoren und internen Zusammenhänge zwischen QoS und QoE wurde ein eigenes Modell entworfen. Dieses integriert sowohl die technische Netz- als auch die Nutzersicht auf die mobilen Dienste in der Art, dass plausible Vorhersagen zum QoS-QoE-Zusammenhang möglich sind. Durch den Menschen als weichem und unscharfem (nichtdeterministischem) Einflussfaktor sind diese Zusammenhänge aber nicht rein rational aufzuklären und zu quantifizieren. Daraus entsteht die Notwendigkeit einer empirischen Untersuchung in Form einer QoE-Evaluation.

Es wurde ein umfangreiches psychophysikalisches Laborexperiment mit echten Nutzern, echten Endgeräten und echten Diensten konzipiert, um planmäßig unterschiedliche Netz- und Nutzungssituationen zusammenzubringen. Dafür war zu klären, was typische mobile Netzund Nutzungssituationen überhaupt sind – und wie sich diese sinnvoll in die empirische Untersuchung integrieren lassen. Aus der Analyse mobiler Netzsituationen entstanden sinnvolle Kombinationen der primär leistungsrelevanten QoS-Parameter. Innerhalb eines entwickelten WLAN-Testbeds zur drahtlosen Einbindung der mobilen Endgeräte können durch eine Netzemulation diese Netzsituationen flexibel und gezielt nachgebildet werden. Für die Einbeziehung der mobilen Dienste in die empirische Untersuchung wurden Prinzipien zur Testrelevanz, Testeignung und Testeffizienz definiert und umgesetzt, welche die Besonderheiten des Testaufbaus und des Testdesigns angemessen berücksichtigen. Der entwickelte Testparcours der Nutzungssituationen umfasst typische Nutzungsszenarien für sechs ausgewählte mobile Dienste. Die Stichprobe der ausgeführten Studie von 216 Probanden mit Vorerfahrungen in der Nutzung des mobilen Internets ist überwiegend jung und gut gebildet.

In der ausführlichen Auswertung der erhobenen Daten konnten vielfältige Erkenntnisse zum QoS-QoE-Zusammenhang gewonnen werden. Die vorhergesagten QoS-QoE-Charakteristiken zu den verschiedenen Diensten im Testparcours wurden als entweder kontinuierlich-elastisch oder sprunghaft-fest bestätigt. In der statistischen Analyse konnte für die untersuchten Dienste jeweils ein Zufriedenheitskorridor zwischen einem unteren und oberen Schwellwert erfolgreich ermittelt werden. Dabei sind teilweise die im Modell berücksichtigten QoS-unabhängigen Einflussfaktoren auf die QoE, z. B. die Art der Präsentation der Stimuli in der App, als ebenso relevant zu erkennen wie die QoS-Netzparameter selbst.

2014

Marc Ritter

Optimierung von Algorithmen zur Videoanalyse - Ein Analyseframework für die Anforderungen lokaler Fernsehsender

Der große technologische Fortschritt im Bereich der Sensorik und den damit verbundenen Aufzeichnungsmethoden führt in fast allen Disziplinen der Wissenschaft sowie im Produzenten- und Konsumentenbereich zu stetig größer werdenden und immer schneller wachsenden Datenbeständen. Von der zunehmenden Datenflut sind auch lokale Fernsehsender betroffen, deren Datenbestände oftmals mehrere zehntausend Videokassetten und -bänder umfassen. Es werden moderne Tools und Verfahren benötigt, um derartige Datenkollektionen inhaltlich automatisiert zu erschließen und durch beschreibende Daten sinnvoll recherchierbar zu machen.

Das Auffinden relevanter Objekte spielt in diesem Prozess eine übergeordnete Rolle. Aufgrund der enormen Größe der Datenbestände treten gesteigerte Anforderungen auf. Dazu gehören niedrige Fehlerraten bei hohen Detektionsraten. Diese eigentlich konträren Bedingungen sind notwendig, um einerseits eine Korruption des Suchindex durch zu viele fehlerhafte Daten zu verhindern, damit spätere Suchanfragen erfolgreich beantwortbar sind. Andererseits müssen immer noch genügend Objekte indiziert werden, um eine Aussage über den tatsächlichen Inhalt treffen zu können.

Die vorliegende Arbeit geht der Frage nach, wie bestehende Detektionsverfahren an diese gesteigerten Anforderungen angepasst und optimiert werden können. Einer Auswertung des aktuellen Forschungsstandes folgt die Ableitung eines Anforderungskatalogs. Die nachfolgende Entwicklung und Umsetzung eines holistischen Frameworks stellt ein offenes und an die hohen Leistungsbedürfnisse der Bildverarbeitung angepasstes Workflow- und Prozesssystem mit dem Ziel zur Verfügung, die Entwicklung von Bilderkennungsalgorithmen, die Visualisierung von Zwischenschritten sowie deren Evaluation und Optimierung zu ermöglichen. Dazu werden einerseits Verfahren zur strukturellen Zerlegung von Videomaterialien in das System integriert, analysiert und optimiert.

Andererseits steht bei der nachfolgenden inhaltlichen Analyse die Gesichtsdetektion im Vordergrund, da diese Objektklasse am häufigsten in den vorliegenden Datenbeständen auftritt. Deren Anwendbarkeit wird stellvertretend auf einem großen Datensatz der Tagesschau evaluiert und auf sehr geringe Falsch-Positiv-Raten optimiert. Um die generische Applizierbarkeit auf weiteren Objektklassen zu eruieren, untersucht eine empirische Evaluationsstudie abschließend die Kombinationsfähigkeit verschiedener Merkmale zur Fußgängerdetektion auf unterschiedlichen Datensätzen.

2013

Arne Berger

Prototypen im Interaktionsdesign - Klassifizierung der Dimensionen von Entwurfsartefakten zur Optimierung der Kooperation von Design und Informatik

Die Arbeit beschäftigt sich mit dem Entwerfen in Theorie und Praxis. Dabei werden die unterschiedlichen Entwurfstätigkeiten als eingebettet in ein Entwurfsgefüge verstanden, in dem verschiedene kooperative Disziplinen mit unterschiedlichen Bezügen, Artefakte für die zukünftige Verwendung entwerfen.

In der vorliegenden Arbeit wird Design als eine Kooperationsdisziplin im Wandel dargestellt und gezeigt, wie die Zusammenarbeit mit Prototypen als manifesten Anker- und Differenzpunkten, gewinnbringender gestaltet werden kann.

Zunächst wird die Kooperation von Designer und Ingenieur zur Lösung komplexer Probleme im Allgemeinen betrachtet. Anschließend wird die entwurfspraktische Zusammenarbeit beider Berufsgruppen im Interaktionsdesign untersucht. Dabei wird vorgeschlagen, den Entwurf in Skizzen, Mock-Ups oder Prototypen als kommunikativen Bezugspunkt zu wählen. Die Dimensionen von Prototypen im Interaktionsdesign werden bestimmt und in einer Taxonomie zusammengeführt.

2012

Jens Kürsten

A Generic Approach to Component-Level Evaluation in Information Retrieval

Das Forschungsgebiet Information Retrieval befasst sich mit Theorien und Modellen, die die Grundlage für jegliche Dienste bilden, die als Antwort auf ein formuliertes Informationsbedürfnis den Zugang zu oder einen Verweis auf entsprechende Elemente einer Dokumentsammlung ermöglichen. Die Qualität von Suchalgorithmen wird im Teilgebiet Information Retrieval Evaluation untersucht. Der klassische Ansatz für den empirischen Vergleich von Retrievalsystemen basiert auf dem Cranfield-Paradigma und nutzt einen spezifischen Korpus mit einer Menge von Beispielanfragen mit zugehörigen Relevanzbewertungen.

Internationale Evaluationskampagnen, wie die Text Retrieval Conference, haben in den vergangenen zwei Jahrzehnten zu großen Fortschritten in der Methodik der empirischen Bewertung von Suchverfahren geführt. Der generelle Fokus dieses systembasierten Ansatzes liegt jedoch nach wie vor auf dem Vergleich der Gesamtsysteme, dass heißt die Systeme werden als Black Box betrachtet. In jüngster Zeit ist diese Evaluationsmethode vor allem aufgrund des Black-Box-Charakters des Untersuchungsgegenstandes in die Kritik geraten. Aktuelle Arbeiten fordern einen differenzierteren Blick in die einzelnen Systemeigenschaften, bzw. ihrer Komponenten. In der vorliegenden Arbeit wird ein generischer Ansatz zur komponentenbasierten Evaluation von Retrievalsystemen vorgestellt und empirisch untersucht.

Der Fokus der vorliegenden Dissertation liegt deshalb auf zentralen Komponenten, die für die Bearbeitung klassischer Ad-Hoc Suchprobleme, wie dem Finden von Büchern zu einem bestimmten Thema in einer Menge von Bibliothekseinträgen, wichtig sind. Ein zentraler Ansatz der Arbeit ist die Weiterentwicklung des Xtrieval Frameworks mittels der Integration weitverbreiteter Retrievalsysteme mit dem Ziel der gegenseitigen Eliminierung systemspezifischer Schwächen. Herausragende Ergebnisse im internationalen Vergleich, für verschiedenste Suchprobleme, verdeutlichen sowohl das Potenzial des Ansatzes als auch die Flexibilität des Xtrieval Frameworks.

Moderne Retrievalsysteme beinhalten zahlreiche Komponenten, die für die Lösung spezifischer Teilaufgaben im gesamten Retrievalprozess wichtig sind. Die hier vorgelegte Arbeit ermöglicht die genaue Betrachtung der einzelnen Komponenten des Ad-hoc Retrievals. Hierfür wird mit Xtrieval ein Framework dargestellt, welches ein breites Spektrum an Verfahren flexibel miteinander kombinieren lässt. Das System ist offen konzipiert und ermöglicht die Integration weiterer Verfahren sowie die Bearbeitung weiterer Retrievalaufgaben jenseits des Ad-hoc Retrieval. Damit wird die bislang in der Forschung verschiedentlich geforderte aber bislang nicht erfolgreich umgesetzte komponentenbasierte Evaluation von Retrievalverfahren ermöglicht.

Mächtigkeit und Bedeutung dieser Evaluationsmöglichkeiten werden anhand ausgewählter Instanzen der Komponenten in einer empirischen Analyse mit über 13.000 Systemkonfigurationen gezeigt. Die Ergebnisse auf den vier untersuchten Ad-hoc Testkollektionen sind vielfältig. So wurden beispielsweise systematische Fehler bestimmter Ranking-Modelle identifiziert und die theoretischen Zusammenhänge zwischen spezifischen Klassen dieser Modelle anhand empirischer Ergebnisse nachgewiesen. Der Maßstab des durchgeführten Experiments macht eine Analyse aller möglichen Einflüsse und Zusammenhänge zwischen den untersuchten Komponenten unmöglich. Daher werden die erzeugten empirischen Daten für weitere Studien öffentlich bereitgestellt.