Erst mal vielen Dank für all die Antworten!
Ich war ein bisschen überrascht, dass die meisten neugierig/positiv waren
Das ist auch meine aktuelle Einschätzung und ich kann aktuell nicht sagen, ob's mir in der Praxis gefallen würde, aber ausprobieren möchte ich's auf jeden Fall.
Ich tendiere aktuell aber dahin, dass ich mir AR/VR für ein Interaktion auf der Spielerebene vorstelle und weniger, um die Charakterebene zu simulieren und hier eine Grenze zum Computerspiel zu überschreiten. Ich hatte schon extra im initialen Post nicht geschrieben, dass ich Regeln automatisieren wollen würde.
Das sieht wahrscheinlich nicht jeder so, aber für mich wäre Rollenspiel ohne aktives Anwenden der Regeln einfach nur Schauspiel und nicht so attraktiv wie die klassische Mischung.
Was die Befürchtung angeht, dass überzeugende 3D-Szenen sehr aufwendig zu erzeugen wären würde ich antworten, dass ich's mir so vorstelle, wie man jetzt auch fertige Geländeteile auf einem Tisch drapiert, nur das die Geländeteile eben aus einem unerschöpflichen Fundus von 3D-Modellen stammen. Durch die 3D-Sicht sollte es sogar einfacher sein, dass zusammenzustellen, als wenn man das an einem 2D-Bildschirm mit einem 3D-Programm macht. Mein Ziel wäre nicht, die 3D-Welt eines Tripple-A-Games zu realisieren (so wie Hasbro es plant).
Was UIs im "Verse" bzw. 3D-Raum angeht, habe ich keine eigene Erfahrung, doch erste Berichte von Leuten, die Apples Vision Pro Headset ausprobiert hatten, waren sich einig, dass es noch intuitiver war, als zur Maus oder Tastatur zu greifen. Gerade weil sich Apple auf im Raum schwebende immer noch sehr abstrakte UIs konzentriert, ist das glaube ich einfacher als eine simulierte gegenständliche (skeuomorphische) 3D-Welt. Ich vertraue dabei allerdings auch darauf, dass Apple in den letzten Jahren da viel geforscht hat und bin beeindruckt davon, dass sie auf der WWDC [~40 Videos](
https://developer.apple.com/wwdc23/topics/spatial-computing/) dem Thema gewidmet haben.
KI ist auch noch ein weiteres Thema unabhängig von AR/VR. Wahrscheinlich kann man ein LLM (großes Sprachmodell a la ChatGPT) darauf trainieren, auf Bitten wie "generiere mir ein kleines Dorf mit einer Kirche, einer Schmiede und einem Apfelbaum" oder "statt der Schmiede bitte einen Bunker" trainieren und die Ausgabe dann in einen 3D-Viewer packen. Mein Wissenstand ist, dass das eher Fleißarbeit wäre, aber grundsätzlich möglich ist.
Der erwähnte Kickstarter ist extrem nah an dem dran, was ich beschrieb, allerdings wäre in meiner Vorstellung die Gruppe inklusive Tisch nicht im "Metaverse" sondern immer noch in der "realen" Welt. Meine Hoffnung wäre, dass das besser verhindert, dass einem sofort schlecht wird. Den bei dem Kickstarter-Video, wo man die Szene ja auch den Augen einer Person sieht und wo sich alles permanent hin- und herbewegt, ist mir das schon fast zu viel Bewegung. Ich bin da aber auf das Ergebnis gespannt und ich mag den Zeichentrickstil im Ankündigungsvideo.
Zum Punkt, dass man doch besser gleich die Fantasywelt darstellt, um da eintauchen zu können: Ich glaube, da muss man ein Uncanny Valley durchschreiten bis das wirklich überzeugt. Einfacher ist es daher, das gar nicht erst zu versuchen und offensichtlich zu machen, dass es eine abstrakte Simulation ist. Zudem weckt das bei mir eher die Kreativität als wenn ich perfekte Bilder (bzw. Videos) sehe. Daher ist es IMHO gar nicht erstrebenswert, die Fantasywelt zu simulieren.
Hinzu kommt, dass man bei einem Spiel es schaffen muss, 3-4 Stunden mit der Brille auf zu "überleben" und dabei am Tisch zu sitzen und zu beobachten, während man wirklich am Tisch sitzt und beobachtet, hilft die gefürchtete Übelkeit zu vermeiden. Würden die Augen hingegen melden, dass man durch eine Welt läuft während der restliche Körper meint, man sitzt in der Couch, kann schnell Seekrankheit einsetzen.