Wieso bist du überrascht? Konversation haben LLMs (um diese Art von KI handelt es sich hier ja) doch inzwischen gemeistert. Und seit gestern Meta mit Llama 4 Scout auch ein LLM mit 10M Token Kontextfenster angekündigt hat, sollte auch die "Vergesslichkeit" der Vergangenheit angehören. Bleibt natürlich die Frage, wie schnell so eine KI antwortet und wenn jede Antwort eine Minute braucht, hat man eher das Gefühl, mit jemandem auf dem Weg zum Mars zu sprechen.
Ich frage mich ja, wie sich so Dienste wie ReamAI finanzieren? Durch die Eingaben der Anwender? Werbung? Affiliate Marketing?
Sagen wir, der System-Prompt enthält Regelwerk und Weltbeschreibung. Die YZE-SRD hat ungefähr 50K Token, D&D ist offensichtlich komplexer, also rate ich mal 200k.
Nun beginnt man zu reden, dabei sind die Eingaben des Anwenders zu vernachlässigen und die KI antwortet immer ausführlich mit 4k. Das addiert sich ja auf. Nach 100 Eingaben wären das 4k+8k+...400k, also 20M. Dazu kommen 100*200k, nochmal 20M. Insgesamt hat man dann 40M Eingaben, was bei typischen Preisen von $0,1 bis $2 pro 1M Token irgenwas zwischen $4 und $80 kostet. Pro User, pro Gespräch. Bei 1000 Usern im Monat geht das richtig ins Geld.
Theoretisch könnte man sich für einen "normalen" KI-Chat einen entsprechenden Prompt basteln und dann einfach loslegen. Wäre für einen selbst billiger, weil diese Dienste pauschal abrechnen und ggf. einfach heimlich die Leistungen kürzen. Nachteil ist aber, dass LLMs keinen Zufall können und damit nicht sonderlich kreativ sind. Ich ist daher besser, echten Zufall, etwa Würfe auf entsprechende Tabellen in das LLM eingefüttert werden. Eine spezielle App kann dies natürlich problemlos leisten.
Aber auch hier ist Abhilfe in Sicht: MCP. Dieser von Anthropic vorgeschlagene Standard, wie LLMs um sog. Tools erweitert werden können, setzt sich gerade massiv durch und auch wenn das eher so für Zugriffe auf andere Programme oder das Dateisystem gedacht war, kann man damit natürlich auch würfeln, auf Zufallstabellen werfen, in Datenbanken nach Monstern suchen usw.
Ich habe mir z.B. ein `dice_roll` tool geschrieben, das XdY würfeln kann und dann in den Claude Desktop-Client eingehängt. Wenn ich danach Claude bitte "Erzeuge bitte einen zufälligen DCC Charakter" (man beachte, dass da nix mit Würfeln oder so vorkommt), dann ruft er 6x mit der Eingabe "3d6" mein Tool auf, um danach Elgar, den Schankwirt zu erzeugen mit STÄ 11, INT 18, WEI 6, GES 11, KON 12 und CHA 6 und dem offensichtlichen Unwissen, dass DCC andere Attribute als D&D hat. Mit "1d4" wurden 2 TP ausgewürfelt und auch noch was mit 5d12, vielleicht das Geld?
Das LLM ist auch schlau genug, bei 2d6+2 oder 2d20kh1 nach der Fehlermeldung meines Tools, dass dies nicht XdY entspricht, dann eben nach 2d6 und 2d20 zu fragen und den Rest selbst zu machen. Man sieht, dass das eine sehr verzeihende Art ist, wie so eine Schnittstelle benutzt werden kann.
Ich wäre jetzt daran interessiert, wie ein einfaches, aber nicht zu einfaches Rollenspielsystem aussehen könnte, das man mit möglichst wenig Worten vollständig beschreiben kann und was dann als Grundlage für eine KI-DM dienen kann. Und die beschreibt man am besten die gewünschte Konversation?
Ich glaube ja, dass hier die Rituale von PbtA gut funktionieren würden.