Skip to content

This project Demonstrates a Gaze Guiding system

Notifications You must be signed in to change notification settings

Justin-Weich/GazeFactory

 
 

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 
 
 
 
 
 
 

Repository files navigation

GazeFactory

Diese Seite enthält den folgenden Inhalt:

Projektbeschreibung

Bei der GazeFactory handelt es sich um ein Informatikprojekt der Studenten Christof Treitges, Joël Deffner, David Jacobs und Justin Weich der Universität Trier unter der Leitung von Jun.-Prof. Dr.-Ing. Benjamin Weyers.

Das Projekt handelt von der gezielten Blickführung eines Probanden in einer VR-Umgebung. Im folgenden wird für Blickführung der Fachbegriff Gaze Guiding oder kurz GG verwendet. Das Gaze Guiding wird anhand einer Atomkraftwerkssimulation vorgestellt, indem der Proband das Herauffahren eines AKWs vollbringen muss.

AKW und Gaze Guiding

Die korrekte Bedienung eines AKWs ist nicht trivial. Das Zusammenspiel einzelner Komponenten und Parameter ist mitunter komplex und sensibel, Fehler können extreme Konsequenzen nach sich ziehen bis hin zu einer Kernschmelze. Genau darauf soll das Gaze Guiding vorbereiten, bzw. es gar nicht erst soweit kommen lassen. Das GG führt einen Probanden schrittweise durch die Simulation, es reagiert auf falsche Eingaben und lenkt den Blick auf den wichtigsten Schritt der als nächstes zu tätigen ist. Ein solches Training erweist sich als sinnvoll, wenn Standardprozeduren, sogenannte SOPs, oft in Vergessenheit geraten oder selten genutzt werden. Durch die Simulation wird bereits erlerntes Wissen aufgefrischt oder neues Wissen errungen.

Ausgelegt ist das Projekt für das Herrauffahren eines Atomkraftwerkes, sodass 2100 mm Wasser stabil im Reaktortank verbleiben und eine Energieausgabe von 700 MW ausgewiesen wird.

Umsetzung des Gaze Guidings

Das Gaze Guiding wurde untergliedert in vier Arbeitsbereiche, die SOPs, das Systemzustandsmodell, kurz SSM, das Gaze Guiding Model, kurz GGM und die Gaze Guiding Tools, kurz GGTs. Die SOP des Herauffahren des AKWs lässt sich im SSM wiedererkennen, hier werden alle benötigten Schritte aufgezeigt und alle Fehlerzustände korrekt verwaltet. Das GGM verwaltet die GGTs auf Basis des SSM, das SSM wiederum erhält die Informationen aus der vorgelegten SOP. Diese vier Komponenten hängen klar ersichtlich stark zusammen und bilden gemeinsam das Gaze Guiding.

Bei den GGTs handelt es sich um einen Text (grün), dieser gibt an welcher Arbeitsschritt notwendig ist, einem Ausrufezeichen (grün), welches in unmittelbarer Nähe der auszuführenden Aktion schwebt und einer Richtungserkennung. Die Richtungserkennung ist nur dann aktiv, wenn das zu bedienende Objekt nicht im Sichtfeld ist. Der Sichtfeldrand blinkt rot in die Richtung, in die der Proband sich drehen muss, um das Bedienelement ins Sichtfeld zu bringen, dabei ist der Sichtfeldrand nicht nur für rechts und links ausgelegt, sondern für komplette 360°. Der Text und das Ausrufezeichen treten immer gemeinsam in räumlicher Nähe auf und besitzen weitere Eigenschaften:

  • Fall 1: die zuvor getätigte Aktion war korrekt, es wurde dem Gaze Guiding gefolgt. Es tritt kein Sonderfall aus dem SSM ein, es wird der SOP gefolgt.
  • Fall 2: die zuvor getätigte Aktion war entgegen des Gaze Guidings, Text und Ausrufezeichen wechseln die Farbe von grün zu orange.

Die Farbänderung wird vorgenommen um zusätzlich dem Probanden mitzuteilen, dass von der SOP abgewischen wurde.

Setup und weitere nützliche Informationen

Starten des Projektes

Um das Projekt zu starten sind folgende Schritte notwendig:

  • das Projekt als .zip herunterladen und entpacken
  • den entpackten Ordner im Unity Hub öffnen
  • zum öffnen wird die Editor-Version 2021.3.25f empfohlen, auf welcher das Projekt programmiert wurde.
  • nachdem das Projekt geladen hat muss nur noch der Playbutton gedrückt werden

Bedienung und Funktionen

Die gesamte Simulation ist sowohl in VR als auch im Desktopmodus spielbar, jedoch kommt es bei letzterem zu Komplikationen. Die Richtungserkennung ist nur dann ersichtlich, wenn ein VR-Headset genutzt wird, da dort erst das Post Processing gerendert wird. Zudem drehen sich die Texte nicht mehr automatisch zum Spieler, da diese sich an der Heaset-Kamera orientieren. Das Ausrufezeichen funktioniert dagegen einwandfrei.

Im Desktopmodus werden die Aktionen des Spielers dann wahrgenommen, wenn die Maus über die davorgesehene Schaltflächen bewegt wird, analog ist dies zu der VR-Variante. Durch das berühren der Schaltflächen mit der digitalen Hand werden entsprechende Eingaben getätigt.

Zustandserkennung

Um zu sehen in welchem Zustand sich die Simulation befindet, kann unter Window > Animation > Animator der Zustandsanimator angezeigt werden. Zusätzlich muss daraufhin der ControllerCube (8. Element in der Hierarchie) angeklickt werden um das Zustandsmodell zu laden. Mit blauem Balken wird angezeigt, welcher der aktuelle Zustand ist.

Externe Bibliotheken und Quellen

About

This project Demonstrates a Gaze Guiding system

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • C# 93.7%
  • ShaderLab 5.7%
  • HLSL 0.6%