Dr. Thies Pfeiffer

Virtuelles Prototyping von Benutzerschnittstellen

Wie Benutzerschnittstellen für komplexe Szenarien in der virtuellen Realität erprobt werden können.

Nicht zuletzt mit dem Einzug der mobilen Endgeräte hat die Interaktion mit digitalen Objekten längst den Schreibtisch hinter sich gelassen und ist in die wilde weite Welt hinausgetreten. Kontextabhängige Anwendungen erkennen, wo sich das Gerät gerade befindet oder sogar auf welches Objekt das Gerät gerade ausgerichtet ist, und können dem Nutzer so zielgerichtet und personalisiert Informationen präsentieren. Anwendungsfelder reichen bis hin zur erweiterten Realität, bei der die digitalen Informationen letztlich in die reale Szene eingebettet erscheinen und im besten Fall von realen Objekten nicht mehr zu unterscheiden sind.

Während lange Zeit die Interaktion zwischen Mensch und Maschine im Vordergrund stand, muss bei der Gestaltung solcher kontextabhängigen Anwendungen auch die aktuelle Situation jeweils mit einbezogen werden. Damit wird der Entwurfsraum letztlich auf Mensch-Maschine-Situation-Interaktion erweitert. Für Entwickler und Designer ist es dann deutlich schwerer, solche Interaktionen, welche die aktuelle Situation mit einbeziehen, in formativen Studien oder auch in systematischen Funktionstests ausreichend evaluieren zu können.

Der Vortrag zeigt auf, wie Virtuelle Realität genutzt werden kann, um komplexe Situationen zu modellieren und virtuelles Prototyping von Interaktionsszenarien zu ermöglichen. Ein wesentlicher Vorteil des Ansatzes ist, dass neben Kontext und Software-Nutzerschnittstelle z.B. auch unterschiedliche Endgeräte, oder Hardware-Komponenten im Allgemeinen, auf einfache Art und Weise simuliert werden können. Weiterhin kann der Interaktionskontext für alle Testpersonen absolut konstant gehalten werden, was sich in realen Situationen nur schlecht realisieren lässt, angefangen bei unterschiedlichen Beleuchtungsbedingungen. Dies fördert die Reproduzierbarkeit der Ergebnisse. Nicht zuletzt können komplette Interaktionssitzungen gespeichert und beliebig oft durchlaufen werden, um z.B. Unit-Tests zur Qualitätssicherung zu automatisieren.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Weitere Vorträge auf der UX-DAY Konferenz 2021

Jessica Müller
Working remotely but not lonely
Ingo Waclawczyk
Mit Empathie und Mitgefühl zu besserer User Experience?
Youri Keifens
Die 3 Grundprinzipien für verkaufsstarke Texte
Dr. Ole Tangermann
Die Zukunft des digitalen Kundenkontakts
Özden Seiler
Trust by Design
Johannes Dornisch
Creating a Design System that helps everyone to cook with ease

Speaker-Infos

Dr. Thies Pfeiffer

Mediablix IIT GmbH

Dr. Thies Pfeiffer entwickelt und erforscht zukunftsfähige Mensch-Maschine-Interaktion. Ein besonderer Fokus liegt dabei auf SmartGlasses und der Nutzung von Blickbewegungen zur direkten und indirekten Interaktion. In seiner Arbeit setzt er bereits seit mehreren Jahren Methoden der virtuellen und erweiterten Realität zum Prototyping neuer Systeme und Anwendungen ein.