Die Verwunderung darüber, was ChatGPT alles zusammenbasteln kann, irritiert mich ein bisschen, denn niemand würde sich doch heutzutage wundern, wenn einem Google nach der Eingabe von "roter drache" eine Webseite präsentiert, auf der etwas zu einem roten Drachen steht. Ich beziehe mich da auf das gepostete Video von Treantmonk.
Pro Suchanfrage werkeln 1.000 Rechner, um in dem Bruchteil einer Sekunde aus einem Index von ca. 55 Mrd Webseiten Kandidaten herauszusuchen, zu gewichten und über das Internet zum Browser zu schicken.
ChatGPT ist unbestritten extrem beeindruckend, liegt aber IMHO daran, dass wir kein Gefühl dafür haben, wo groß der Textkorpus ist, aus dem die Antworten zusammengesetzt werden.
Wie ich schon mal schrieb, hat OpenAI etwa 380 Terabyte an Daten zusammengeklau(b)t, 0,5% davon sind Wikipedia, dazu kommen alle Bücher, die Google digitalisiert hat, was mindestens 40 Mio Titel und geschätzt 1/3 aller Bücher weltweit sind, und alles von Reddit, alles was in Foren, auf Twitter, öffentlich auf Facebook, in allen Blogs und sonst wo im Internet jemals gesagt wurde. Natürlich auch komplett Github und vielleicht haben sie sich auch archive.org reingezogen. Daraus wird dann eine Matrix mit 50.000 Spalten und 175 Mrd Zeilen erstellt, die etwa 18 Million Gigabyte (also 18 Petabyte) zur Speicherung braucht (das wären 10.000 SSDs a 2 TB).
OpenAI sagt, dass sie 2020 bei ca. 1E4 Petaflops an Rechenleistung lagen, das sind 1E7 Teraflops (TF). NVidea hat GPUs, die 50 TF schaffen. Wir sprechen hier also von 200.000 GPUs, die OpenAI bei Microsoft angemietet (oder gekauft) hat.
Jeder Trainingslauf von GPT-3 hat $12 Mio verschlungen, sagen sie stolz. Leider sagen sie nicht, was das in Rechenzeit bedeutet, aber wenn wir $2 für GPU-Stunde annehmen, wären das etwa 700 Jahre Rechenzeit, oder 30 Stunden auf 200.000 GPUs.
Das alles, um einen stochastischen Papagei zu erzeugen, der eine wahrscheinliche Wortfolge generiert, indem er berechnet, welches Wort am wahrscheinlichsten (auf der Basis der Eingabedaten) als nächstes kommt, wenn man bis zu 2048 Wörter Kontext berücksichtigt.
Es gibt kein echtes Gedächtnis. Kein Wissen um Regeln (nicht im Rollenspiel-Sinn, sondern in der einfachen Wenn-Dann-Art, wenn es regnet dann wird der Boden nass). Kein Kreativprozess. Keine Kenntnis der Spieler. Es wird nur rezitiert, was ziemlich wahrscheinlich passt.
Daher glaube ich, dass ChatGPT nicht als SL funktioniert. Jedenfalls nicht besser, als Zufallstabellen oder Tools wie der Mythic Game Master Emulator. Auch der hat kein Gedächtnis, kennt keine Regeln, hat keine Sympathie für die Spieler.
Das Ding kann wohlformulierte NSC und Ortsbeschreibungen generieren, weil es solche in seinem Textkorpus kennt. Es kann sich auch kurzfristig an Dinge aus vorherigen Antworten erinnern, aber keinen Plan machen, keinen Plot "im Hinterkopf" haben und auch nicht kreativ reagieren. Sich selbst von Würfelwürfen beeinflussen lassen. Es gibt nur so und so viele Geschichten und es wird immer die wahrscheinlichste wählen.
Es wird diese Geschichten immer vollständig ausbreiten und sich dann nicht mehr daran erinnern. Es wird keine Lebenspunkte abziehen können, keine Status verwalten können und nicht die "Spieler lesen" und empatisch reagieren können, damit diese maximalen Spaß haben. In diesem Sinne wäre ChatGPT vielleicht sogar old-school.
Es kann einen SL unterstützen und Vorschläge machen und dabei ausnutzen, was ansonsten sehr kritisch ist: Nämlich dass es Fakten halluziniert und nicht weiß, was es nicht weiß.
Es kann möglicherweise auch Regeln rezitieren und so dem SL helfen, allerdings nur, wenn man die Regeln schon kennt und so beurteilen kann, ob sie richtig sind.
Das "schau mal, der weiß was ich auch weiß, toll", was gerade alle spielen, funktioniert ja nur, weil man sich die Fälle merkt, wo's passt und die anderen eher ignoriert, genau wie man bei jemandem der Cold-Reading betreibt sich auch später wundert, warum der so viel wusste.
Ich stecke jetzt in der KI-Forschung nicht so drin (was wir hier alle gerade bejubeln ist ja Forschungsstand 2021) und weiß nicht, in welche Richtungen noch geschaut wird. Ende der 80er/Anfang 90er Jahre war ja schon mal ein KI-Hype und da wollte man ja Expertensysteme durch Wenn-Dann-Maschinen bauen und ist letztlich gescheitert. Das könnte aber besser auf's Rollenspiel passen, weil man ja Regeln abbilden will. Denn nicht nur für Charaktere gelten ja regeln, sondern auch für die Interaktion zwischen SL und Spielern kann man ja Regeln (oder Riten) definieren. PbtA macht's sehr schön vor.
Ich bin gar nicht so sicher, ob der Aspekt, dass man mit ChatGPT natürlich sprachlich kommunizieren kann, jetzt so entscheidend ist. Ich mag falsch liegen, da ich es gewohnt bin, die Sprache der Computer zu sprechen, aber für einen automatischen SL würde ich wichtiger finden, dass er den Dialog des Spiels beherrscht, der auch gerne per "Wizard" (nie war der Begriff für das gesteuerte Abfragen relevanter Daten mittels einer Folge modaler Dialoge passender) erfasst werden kann, also dass ich ihn natürlichsprachig dazu bringen kann, mir Zufallstabellen zu erstellen und darauf zu würfeln.