Für die technische Umsetzung des Lernraums “Future Food” wurde ein praxisorientierter Entwicklungsprozess in Unity verfolgt. Ziel war es, sowohl visuelle , als auch interaktive Elemente zu kombinieren, insbesondere im Hinblick auf die Integration in das VR-Setup mit Multiplayer-Unterstützung.
In der frühen Phase wurde ein umfangreiches, visuell geführtes Dialogsystem entwickelt, das in Kombination mit einem Head-Up-Display (HUD) vor der Brillenkamera funktionierte. Dabei können die Spieler*innen über ein zentrales Interaktionssystem mit den NPC’s kommunizieren. Sie sollen dadurch Informationen über die alternativen Nahrungsquellen erhalten und im Anschluss mit passenden Nährstoffen für Ihre Health-Bar belohnt werden. Dabei erscheinen Items durch einen Item-Dropper, welche von den Nutzer eingesammelt werden können und im Anschluss die Health-Bar beeinflussen.
Die Texte für die Dialoge wurden über ein modulares ScriptableObject-System (DialogBlock.cs) realisiert, welches verzweigte Gespräche, einen verknüpften Item-Drop und Audiospuren pro Zeile ermöglichte.
Ein zugehöriges Unity Canvas-System (NPCDialog.cs) sorgte für die Anzeige der Dialogtexte, Icons und Entscheidungsmöglichkeiten direkt im Sichtfeld des Spielers. Die Anzeige der Texte wurde durch den Unity Canvas World Space realisiert und dabei durch eine Typing-Animation, Audiowiedergabe und eine Entscheidungslogik mit Rückverzweigung ergänzt. Die Steuerung der Interaktion erfolgte über definierte Input-Actions, wie “Next”, “Yes” und “No”, die auch für die späterer Erweiterung für VR-Controller vorbereitet wurden.
Zusätzlich wurde ein über jedem Spieler schwebendes HUD entwickelt, das die individuelle Health-Bar der Spieler*innen anzeigt und als World-Space-Objekt über dem Avatar angelegt wurde. Die Health-Bar visualisierte vier Nährstoffwerte (Protein, Fett, Vitamine, Antioxidanzien) über skalierbare 3D-Objekte, die über das Health-Bar.cs-Script gesteuert werden. Die Werte wurden durch Item-Pickups beeinflusst, die beim Kontakt über Collider automatisch den jeweiligen Nährstoffwert wachsen ließ.
Trotz erfolgreicher Tests auf dem PC kam es bei der Integration in das HTC-Vive-Setup zu Problemen mit der korrekten 3D-Positionierung der UI-Elementen. Die Dialog-Canvases erschienen zwar im Raum, jedoch nicht dort, wo sie erwartet wurden. Aufgrund zeitlicher Einschränkungen vor der IKG-Showtime und Werkschau musste kurzfristig auf eine alternative Lösung ausgewichen werden.
Start-Canvas
Dialog mit Grille
Zwei Tage vor der Präsentation wurde ein vereinfachtes System umgesetzt, das ohne UI auskam und ausschließlich auf Unity-Audiosources und Trigger-Collider basierte. Sobald der Spieler sich einem NPC näherte und somit die jeweiligen Trigger-Collider miteinander kollidieren, wurde der entsprechende Audioclip des NPC abgespielt, auch wenn der Spieler weiterlief. Eine zentrale Steuerung (TFFNPCVisitManager.cs) registrierte dabei die besuchten NPC’s anhand der zugehörigen npcID. Sobald alle NPC’s besucht wurden, wurde nach 10 Sekunden eine abschließende Belohnungs-Audio ausgelöst.
Es funktionierte gut, jedoch vorerst nur im Singleplayer-Modus. Daher musste erneut eine Lösung gefunden werden, wie der Raum im Multiplayer-Modus realisiert werden konnte.
Die finale Lösung nutzte ausschließlich 3D-Audio. An jedem NPC wurde in Unity eine 3D-AudioSource platziert, deren Reichweite durch Trigger-Collider definiert war. Durch ein überarbeitetes Trigger-System wurde sichergestellt, dass beim Betreten eines Bereichs die zugehörige Audio abgespielt wurde. Verließ der Spieler den Triggerbereich, wurde die Audio pausiert. Beim erneuten Betreten wurde die Wiedergabe nicht von vorne gestartet, sondern für ein paar Sekunden zurückgepult und an dieser Stelle fortgesetzt.
Diese Technik sorgte für eine flüssige Nutzererfahrung, ohne redundante Wiederholungen.
Die technische Umsetzung des Lernraums “Future Food” zeigt, wie wichtig ein flexibles und lösungsorientiertes Vorgehen in der Medienentwicklung ist. Ursprünglich geplante Funktionen wie dialogbasierte Interaktionen mit UI und HUD, die im Prototypen auf dem Desktop funktionierten, mussten aus technischen Gründen im VR-Multiplayer-Kontext angepasst werden.
Insbesondere die korrekte Positionierung und Darstellung der UI-Elemente innerhalb der VR-Brille stellten sich als unerwartete Hürde dar, die unter dem gegebenen Zeitdruck nicht mehr vollständig lösbar war.