Diese Seite enthält den folgenden Inhalt:
- Projektbeschreibung
- Nutzen von Gaze Guiding
- Umsetzung des Gaze Guidings
- Setup und weitere nützliche Informationen
- Externe Bibliotheken und Quellen
Bei der GazeFactory handelt es sich um ein Informatikprojekt der Studenten Christof Treitges, Joël Deffner, David Jacobs und Justin Weich der Universität Trier unter der Leitung von Jun.-Prof. Dr.-Ing. Benjamin Weyers.
Das Projekt handelt von der gezielten Blickführung eines Probanden in einer VR-Umgebung. Im folgenden wird für Blickführung
der Fachbegriff Gaze Guiding
oder kurz GG
verwendet. Das Gaze Guiding wird anhand einer Atomkraftwerkssimulation vorgestellt, indem der Proband das Herauffahren eines AKWs vollbringen muss.
Die korrekte Bedienung eines AKWs ist nicht trivial. Das Zusammenspiel einzelner Komponenten und Parameter ist mitunter komplex und sensibel, Fehler können extreme Konsequenzen nach sich ziehen bis hin zu einer Kernschmelze
. Genau darauf soll das Gaze Guiding
vorbereiten, bzw. es gar nicht erst soweit kommen lassen. Das GG
führt einen Probanden schrittweise durch die Simulation, es reagiert auf falsche Eingaben und lenkt den Blick auf den wichtigsten Schritt der als nächstes zu tätigen ist. Ein solches Training erweist sich als sinnvoll, wenn Standardprozeduren
, sogenannte SOP
s, oft in Vergessenheit geraten oder selten genutzt werden. Durch die Simulation wird bereits erlerntes Wissen aufgefrischt oder neues Wissen errungen.
Ausgelegt ist das Projekt für das Herrauffahren eines Atomkraftwerkes, sodass 2100 mm Wasser stabil im Reaktortank verbleiben und eine Energieausgabe von 700 MW ausgewiesen wird.
Das Gaze Guiding
wurde untergliedert in vier Arbeitsbereiche, die SOP
s, das Systemzustandsmodell
, kurz SSM
, das Gaze Guiding Model
, kurz GGM
und die Gaze Guiding Tools
, kurz GGT
s. Die SOP
des Herauffahren des AKWs lässt sich im SSM
wiedererkennen, hier werden alle benötigten Schritte aufgezeigt und alle Fehlerzustände korrekt verwaltet. Das GGM
verwaltet die GGT
s auf Basis des SSM
, das SSM
wiederum erhält die Informationen aus der vorgelegten SOP
. Diese vier Komponenten hängen klar ersichtlich stark zusammen und bilden gemeinsam das Gaze Guiding
.
Bei den GGT
s handelt es sich um einen Text
(grün), dieser gibt an welcher Arbeitsschritt notwendig ist, einem Ausrufezeichen
(grün), welches in unmittelbarer Nähe der auszuführenden Aktion schwebt und einer Richtungserkennung
. Die Richtungserkennung
ist nur dann aktiv, wenn das zu bedienende Objekt nicht im Sichtfeld ist. Der Sichtfeldrand blinkt rot in die Richtung, in die der Proband sich drehen muss, um das Bedienelement ins Sichtfeld zu bringen, dabei ist der Sichtfeldrand nicht nur für rechts und links ausgelegt, sondern für komplette 360°. Der Text
und das Ausrufezeichen
treten immer gemeinsam in räumlicher Nähe auf und besitzen weitere Eigenschaften:
- Fall 1: die zuvor getätigte Aktion war korrekt, es wurde dem
Gaze Guiding
gefolgt. Es tritt kein Sonderfall aus demSSM
ein, es wird derSOP
gefolgt. - Fall 2: die zuvor getätigte Aktion war entgegen des
Gaze Guidings
,Text
undAusrufezeichen
wechseln die Farbe von grün zu orange.
Die Farbänderung wird vorgenommen um zusätzlich dem Probanden mitzuteilen, dass von der SOP
abgewischen wurde.
Um das Projekt zu starten sind folgende Schritte notwendig:
- das Projekt als
.zip
herunterladen und entpacken - den entpackten Ordner im Unity Hub öffnen
- zum öffnen wird die Editor-Version
2021.3.25f
empfohlen, auf welcher das Projekt programmiert wurde. - nachdem das Projekt geladen hat muss nur noch der Playbutton gedrückt werden
Die gesamte Simulation ist sowohl in VR
als auch im Desktopmodus
spielbar, jedoch kommt es bei letzterem zu Komplikationen. Die Richtungserkennung
ist nur dann ersichtlich, wenn ein VR-Headset genutzt wird, da dort erst das Post Processing gerendert wird. Zudem drehen sich die Texte nicht mehr automatisch zum Spieler, da diese sich an der Heaset-Kamera orientieren. Das Ausrufezeichen
funktioniert dagegen einwandfrei.
Im Desktopmodus
werden die Aktionen des Spielers dann wahrgenommen, wenn die Maus über die davorgesehene Schaltflächen bewegt wird, analog ist dies zu der VR-Variante
. Durch das berühren der Schaltflächen mit der digitalen Hand werden entsprechende Eingaben getätigt.
Um zu sehen in welchem Zustand sich die Simulation befindet, kann unter Window
> Animation
> Animator
der Zustandsanimator angezeigt werden. Zusätzlich muss daraufhin der ControllerCube
(8. Element in der Hierarchie
) angeklickt werden um das Zustandsmodell zu laden. Mit blauem Balken wird angezeigt, welcher der aktuelle Zustand ist.
- Prefab des Ausrufezeichens zu finden unter Sketchfab
- Post Processing Bibliothek zu finden unter Post Processing