Multimodale Erkennung von kognitiver Überforderung
In vielen Anwendungsbereichen kann eine Erfassung von affektiven und kognitiven Zuständen vorteilhaft sein. Beispielsweise in Bereichen wie Usability Testing kann eine Zustandserkennung eine bessere Einsicht über die Wirkung eines Produktes auf den Nutzer schaffen und Auskunft über dessen eventuelle Überforderung mit dem Produkt geben.
Allerdings werden einige Zustände äußerst subtil geäußert, sodass ihre Erfassung eine große Herausforderung darstellt. So reicht eine Modalität, z.B. Video, nicht aus, um eine kognitive Überforderung robust zu erkennen. Erst durch die Fusion von unterschiedlichen Modalitäten, wie Blickerfassung und verschiedenen Biosignalen, kann dies ermöglicht werden.
Die Anforderungen und Modalitäten können sich je nach Einsatzszenario ändern. Auch können Störfaktoren die Signale beinträchtigen und Unsicherheiten in der Erfassung des Zustands erzeugen.
Das Ziel dieser Applikation ist es daher ein modulares und robustes System zur multimodalen Zustandserkennung zu entwickeln. Hierfür spielt neben der Datenfusion insbesondere die Quantifizierung von Unsicherheiten eine wichtige Rolle, die eine Beurteilung der Zuverlässigkeit einzelner Modalitäten ermöglicht, um diese entsprechend in die Gesamtbeurteilung einfließen zu lassen.