Nicht zuletzt mit dem Einzug der mobilen Endgeräte hat die Interaktion mit digitalen Objekten längst den Schreibtisch hinter sich gelassen und ist in die wilde weite Welt hinausgetreten. Kontextabhängige Anwendungen erkennen, wo sich das Gerät gerade befindet oder sogar auf welches Objekt das Gerät gerade ausgerichtet ist, und können dem Nutzer so zielgerichtet und personalisiert Informationen präsentieren. Anwendungsfelder reichen bis hin zur erweiterten Realität, bei der die digitalen Informationen letztlich in die reale Szene eingebettet erscheinen und im besten Fall von realen Objekten nicht mehr zu unterscheiden sind.
Während lange Zeit die Interaktion zwischen Mensch und Maschine im Vordergrund stand, muss bei der Gestaltung solcher kontextabhängigen Anwendungen auch die aktuelle Situation jeweils mit einbezogen werden. Damit wird der Entwurfsraum letztlich auf Mensch-Maschine-Situation-Interaktion erweitert. Für Entwickler und Designer ist es dann deutlich schwerer, solche Interaktionen, welche die aktuelle Situation mit einbeziehen, in formativen Studien oder auch in systematischen Funktionstests ausreichend evaluieren zu können.
Der Vortrag zeigt auf, wie Virtuelle Realität genutzt werden kann, um komplexe Situationen zu modellieren und virtuelles Prototyping von Interaktionsszenarien zu ermöglichen. Ein wesentlicher Vorteil des Ansatzes ist, dass neben Kontext und Software-Nutzerschnittstelle z.B. auch unterschiedliche Endgeräte, oder Hardware-Komponenten im Allgemeinen, auf einfache Art und Weise simuliert werden können. Weiterhin kann der Interaktionskontext für alle Testpersonen absolut konstant gehalten werden, was sich in realen Situationen nur schlecht realisieren lässt, angefangen bei unterschiedlichen Beleuchtungsbedingungen. Dies fördert die Reproduzierbarkeit der Ergebnisse. Nicht zuletzt können komplette Interaktionssitzungen gespeichert und beliebig oft durchlaufen werden, um z.B. Unit-Tests zur Qualitätssicherung zu automatisieren.