Damit es jetzt aber nicht zu sehr OT wird, würde ich dich bitten, nochmal im Media Markt oder so ein raum füllendes VR Erlebnis zu testen
Ich habe schonmal VR gespielt. Sogar alle drei Varianten:
1. VR ohne Eingabegeräte: Film lief ab. Ich konnte mich umsehen, aber nicht eingreifen.
2. VR mit Maus: Man konnte sich frei umsehen, restliche Steuerung erfolgte über die Maus.
3. VR mit Sensoren: Man konnte sich frei umsehen, restliche Steuerung erfolgte auch darüber, wie ich meinen Körper bewegt habe.
Bei dir habe ich den Eindruck, dass du erst 3. ausprobiert hast. Ich würde dich bitten, mal 1.+2. auszuprobieren. Vielleicht verstehst du dann besser den Unterschied zwischen Eingabegerät und Ausgabegerät.
Wenn ich in der virtuellen Realität über eine Rehling sehen kann und unter mir die Fische vorbei schwimmen sehen kann - also das Ausgabegerät mir einen anderen Blickwinkel zeigen kann, nur durch das Bewegen durch den Raum und das Hinabblicken in die Tiefe, so gibt es keinen Unterschied mehr zwischen Eingabe und Ausgabegerät, oder würdest Du die Bewegung deines Kopfes als Eingabegerät und das Licht, dass durch deine Augen strömt als Ausgabegerät definieren?
Jain.
Gerade bei den alten VR-Brillen, die noch ohne Gyrosensor ausgestattet waren, wird das deutlich: Damals brauchtest du tatsächlich noch eine Tastatur, damit sich dein Blick gesenkt hat. Das heißt, du hattest eine Brille auf, so dass du alles in 3D sehen kannst. Aber um den Kopf zu bewegen, musstest du Tasten drücken.
Moderne VR-Brillen sind da fortschrittlicher. Hier sind Sensoren eingebaut, die die Bewegung deines Kopfes weitergeben. Aber du interagierst dadurch nicht mit der Spielwelt: Die Spielwelt ändert sich nicht, nur weil du deinen Kopf gedreht hast. Du kannst dich zwar in alle Richtungen drehen, bleibst aber am gleichen Ort stehen. Jetzt gibt es zwei Möglichkeiten:
1. Du bewegst dich automatisch. Egal was du tust. Es gibt ein Skript, das vorschreibt, wo du hinläufst. Das ist insbesondere bei VR-Filmen der Fall.
2. Es gibt ein zusätzliches Eingabegerät, über das du Steuern kannst, wo du dich hinbewegst: Willst du zur Reling laufen? Oder willst du lieber zum Kapitän laufen? Oder willst du lieber hoch in den Ausguck? Um dies zu steuern brauchst du ein Eingabegerät. Das Eingabegerät kann alles mögliche sein: Eine Tastatur, eine Maus, eine Kamera, die deine Bewegungen/Gesten aufzeichnet, ein Touch-Controller oder Handschuhe.
Das ganze ist auch durchaus Threadrelevant:
Computer-RPGs:Fast alle Computer-RPGs, die es gibt, kann man relativ problemlos als VR-Computerspiel anbieten: Die Umgebungen und NSCs sind bereits als 3D-Modelle vorhanden. Das heißt, man kann auch problemlos ein stereoskopisches Bild erschaffen. Dass die Blickrichtung nicht über die Maus, sondern über den Sensor in der VR-Brille gesteuert wird, ist ebenfalls relativ einfach möglich. (Rein technisch müsste man diese Steuerung nichtmal für jedes Spiel entwickeln. Es sollte möglich sein, einen Treiber zu schreiben, der die Bewegungen der VR-Brille in Mausimpulse "übersetzt". Das heißt, du hast zwar eine VR-Brille auf dem Kopf, dem Betriebssystem wird aber vorgegaukelt, es wäre ein 3D-Bildschirm und eine Maus angeschlossen. Das heißt, man müsste es EINMAL pro Betriebssystem programmieren. Anschließend würde es für alle Spiele funktionieren, wo die Blickrichtungs-Steuerung bisher über die Maus erfolgte - also einen Großteil aller heutigen Ego-Shooter und Computer-RPGs.)
Online-Pen&Paper:Wenn man bisher über Skype gespielt hat, kann man hier auch eine deutliche Verbesserung hervorrufen, indem man seine Mitspieler nicht nur 2D auf dem Bildschirm sieht, sondern das Gefühl hat, man würde im selbern Raum stehen. Das ganze ist minimal aufwendiger. Aber auch hier ließe sich mit mittel-viel Aufwand eine Erweiterung für Skype schreiben, die es ermöglicht, einen leeren Raum zu haben, in dem dann 3D-Figuren stehen, die die anderen repräsentieren. Hier hat man jedoch die Einschränkung: Die 3D-Figur ist erstmal bloß eine computergenerierte Figur in der Grafikqualität bisheriger Computerspiele. Nur das Gesicht der realen Person wird als Textur auf das Gesicht der 3D-Figur gelegt. Wenn die Figur vor einem blauen Hintergrund sitzt, so dass das Programm relativ leicht erkennt, was ist das Gesicht und was ist der Hintergrund, sollte das sogar recht vernünftige Ergebnisse erzielen. Mittlerweile ist die Computer-Technik sogar weit genug, dass sie das 2D-Bild der Kamera halbwegs realistisch als 3D auf dem Kopf der 3D-Figur platzieren kann. (Also zum Beispiel mit Auswölbung für die Nase.) Noch besser funktioniert das ganze, wenn die Spieler 3D-Kameras oder zwei normale Kameras angeschlossen haben.
Dank der Fortschritte in der Gesichtserkennung sollte mittlerweile auch Folgendes gehen: Die 3D-Figuren haben vorgefertigte Gesichter. Die Kamera erkennt, was Lippen und was Augenbrauen des Spielers sind und überträgt diese Mimik dann auf die 3D-Figur.
LARP:Hier ist VR zu gefährlich, da man über reale Hindernisse stürzen kann, die man in der VR nicht sieht. Hier würde sich eher eine Art Augmented Reality (überlagerte Realität) anbieten. Das heißt, die Spieler sehen schon den realen Wald, an einigen Stellen werden aber zusätzliche Sachen eingeblendet. Das dürfte mit dem derzeitigen Stand der Technik wahrscheinlich noch nicht machbar sein. In 5-10 Jahren sollte man aber auch das umsetzen können. (Wenn jemand mit viel Geld in diese Richtung investiert, sollte man bereits in 1-2 Jahren Ergebnisse haben. Grundidee: Über Gesichtserkennung und/oder QR-Codes wird festgelegt, wo etwas hinprojiziert wird.)
Normales Pen&Paper:Hier sehe ich keine großen Vorteile durch das VR. Man könnte sich wie beim Online-Pen&Paper in einen virtuellen Raum hineinprojizieren. Aber warum sollte man das tun? Schon sinnvoller wäre auch hier die Augmented Reality: Man könnte einen QR-Code auf den Tisch legen und die AR verwandelt den QR-Code in eine Karte mit 3D-Figuren auf der Karte.
Außerdem ist es möglich 3D-Figuren auf der Karte problemlos bewegen zu können.
All das ist heutzutage bereits auf Bildschirmen möglich! Der Programmieraufwand besteht letztendlich also nur darin, ein Computerprogramm zu schreiben, das QR-Codes erkennt und die Ausgabe anstatt auf dem Bildschirm auf den QR-Code in der AR ausgibt. Hier dürfte das Aufwendigste die QR-Code-Erkennung sein. Karten und Figuren auf Karte bewegen kann man bereits heutzutage. Wenn man das Rad nicht neu erfindet, sondern sich überlegt: "Was gibt es bereits heutzutage? Was muss ich ändern, damit es so funktioniert, wie ich es möchte?", dann wird der Programmieraufwand plötzlich wesentlich überschaubarer!
Wenn ich jemanden sage:
"Programmiere mir ein Programm, dass virtuelle Karten auf QR-Codes projiziert und auf der ich dann 3D-Figuren frei bewegen kann.", dann wird der Programmierer einen Schreck bekommen und sagen, dass er dafür Jahre braucht.
Wenn ich ihm jedoch sage:
"Ich habe hier ein Programm, auf dem man sich Karten ansehen kann. Und auf dem man 3D-Figuren frei bewegen kann. Bitte programmiere eine Mod, so dass diese Karte nicht auf dem Bildschirm, sondern auf einem QR-Code angezeigt wird.", dann wird der Programmierer schon wesentlich zuversichtlicher sein, dass er es in absehbarer Zeit schafft. Weil er weiß: Er muss nicht alles von Grund auf neu programmieren. Er muss nur die Ausgabe und die QR-Code-Erkennung programmieren. Der ganze Rest ist bereits vorhanden.
Außerdem:
Charakterblätter könnten ebenfalls Kärtchen mit einem QR-Code sein. Das Programm verwandelt dann den QR-Code in das jeweilige Charakterblatt. Man könnte den QR-Code auch jemand anderem geben. Wenn dieser darauf schaut, sieht er ebenfalls deine Charakterwerte. Änderungen können zentral eingegeben werden und zeigen sich dann instantan auf allen Charakterbögen.
Mit guter Gesichtserkennung könnte sich auch jede Person ein individuelles Gesicht erstellen, dass beim Spiel dann sein reales Gesicht überlagert. (Technisch sicherlich machbar. Aber mal ehrlich: Wer will das schon?)
Der SL könnte natürlich eine Auswahl von Standard-Gesichtern (Elfe, Zwerg, Ork, Stadtwache, König, Prinzessin etc.) haben, die er dann per Knopfdruck über sein reales Gesicht legt. - Oder auch mal einem Spieler ein Gesicht verpasst, wenn dieser mal für eine Szene einen NSC spielen soll.