Selbst wenn Chatgpt Gewalt zulassen würde, Chatgpt vergisst auch oft Sachen.
Das ist aber nicht mehr so schlimm wie vorher.
Hatte GPT-3 ein Kontextfenster von nur 2K (ungefähr 7500 Zeichen), wurde es für GPT-3.5 auf 4K erhöht, für GPT-4 auf 8K und nutzt man das API, kann man auch 32K oder 100K bekommen. Des weiteren fragt sich ChatGPT in längeren Diskussionen mit dem User selbst nach einer Zusammenfassung der bisherigen Diskussion, um sich zumindest an die Essenz davon noch zu erinnern und so das Problem etwas abzumildern. Wenn man mehr will, muss man das API mit einer eigenen Lösung nutzen und dafür bezahlen. Ich habe auch das Gefühl, dass ChatGPT je Auslastung unterschiedlich schlau oder dumm ist und die da wahrscheinlich tricksen.
Nutzt man Claude-2, kann man seit Mitte letzten Jahres von bis zu 100K profitieren und seit neustem hat Anthropic das auf bis zu 200K erhöht. Sie sagen in ihrer FAQ, dass sie das im Chat-Modus dynamisch nach Auslastung einregeln, in der Praxis kann das also wesentlich weniger sein. Über das API müsste man stabil auf 200K zugreifen können. Und könnte wieder nutzen, dass man wichtige Informationen länger erinnert als unwichtige und dies dabei die KI entscheiden lässt.
Gemini startet mit 32K und protzt in der Pro Version mit bis zu 1000K. Googles Video war beeindruckend, aber sie sagen auch, dass man bis zu einer Minute auf die Antwort warten muss, sodass das jetzt nicht für einen interaktiven Chat geeignet ist.
Mistral bietet ebenfalls 32K an, zu dieser AI kann ich aber so gar nix sagen. Sie bieten allerdings zwei vortrainierte LLMs als Opensource an (andere LLMs haben max. 8K), was es eigentlich zu einer idealen Grundlage für ein selbsttrainiertes System für's Rollenspiel ist.
Jetzt müsste man sich "nur noch" einigen hundert Beispiel-Sessions als Trainingsdaten generieren. Das mit einem anderen LLM zu machen, würde jedoch deren Nutzungsbedingungen verletzten. Das kann einen stören oder nicht. Aber dann stehen nur noch ein paar $100 pro Trainingsversuch zwischen dir und einem AI-DM.
Übrigens, meine wenigen Experimente ohne Training einfach nur so mit dem LLMs haben gezeigt, dass die AIs immer in Richtung D&D tendieren, weil das einfach 80%-90% Marktanteil in den USA hat. Das müsste man entweder akzeptieren oder raustrainieren.