Autor Thema: AI fürs Solo-Rollenspiel  (Gelesen 1706 mal)

0 Mitglieder und 2 Gäste betrachten dieses Thema.

Offline AlphaOrange

  • Bloody Beginner
  • *
  • Beiträge: 25
  • Username: AlphaOrange
Re: AI fürs Solo-Rollenspiel
« Antwort #25 am: 4.04.2023 | 09:24 »
Bei network error einfach mit F5 refreshen. Dann ist deine Eingabe und ggf. die angefangene Antwort von ChatGPT weg, aber ansonsten geht es normal weiter.

Offline Darius der Duellant

  • Legend
  • *******
  • ^k̆aπa dlikχanuj šχa’yθ.
  • Beiträge: 5.361
  • Username: Darius_der_Duellant
Re: AI fürs Solo-Rollenspiel
« Antwort #26 am: 4.04.2023 | 10:56 »
Das "Gedächtnisproblem" ist kein GPT oder LLM inhärentes bei dem man großartig überlegen müsste ob es fixbar ist.
Es gibt bereits stand jetzt diverse Drittanbieter (idR aber nicht immer) auf der OpenAI API aufbauend die Gedächtnisfunktionen anbieten, z.B. NovelAI. Sudowriter hat sogar eigene DND Hilfestellungen:
https://sudowrite.notion.site/Sudowrite-for-D-D-2ade4deecd104966a6b80f45d0ca3e4f

Leider fehlt da die Gedächtnisfunktion. Aber prinzipiell sind alle notwendigen Bausteine auf technischer Ebene schon umgesetzt, man muss nur schauen ob man einen Anbieter findet der sie alle unter einer Haube vereint.
Butt-Kicker 100% / Tactician 83% /Power Gamer 83% / Storyteller 83% / Specialist  75% / Method Actor  50% / Casual Gamer 33%

Offline sma

  • Hero
  • *****
  • a.k.a. eibaan
  • Beiträge: 1.564
  • Geschlecht: Männlich
  • Username: sma
Re: AI fürs Solo-Rollenspiel
« Antwort #27 am: 4.04.2023 | 16:35 »
Bei network error einfach mit F5 refreshen. Dann ist deine Eingabe und ggf. die angefangene Antwort von ChatGPT weg, aber ansonsten geht es normal weiter.
Schon klar, aber ich wollte a) nicht noch mehr spammen und b) subtil Kritik an der Instabilität von ChatGPT (trotz Plus-Account) äußern ;)

Offline sma

  • Hero
  • *****
  • a.k.a. eibaan
  • Beiträge: 1.564
  • Geschlecht: Männlich
  • Username: sma
Re: AI fürs Solo-Rollenspiel
« Antwort #28 am: 4.04.2023 | 16:56 »
Das "Gedächtnisproblem" ist kein GPT oder LLM inhärentes bei dem man großartig überlegen müsste ob es fixbar ist.
Da bin ich (vielleicht mangels Fachwissen) etwas skeptischer. Mindestens mal wirkt sich die Größe des "Gedächtnis" massiv auf die notwendige Rechenleistung aus. Das wird ein Grund sein, warum sie so beschränkt ist. So wie ich das verstanden habe, muss am das LLM auch aufwendig neu trainieren, wenn man die Größe ändern will.

In jedem Fall aber danke für die beiden Links.

Bei NovelAI sehe ich auf Anhieb nicht, wo und wie die ihre Geschichte in den LLM-Kontext bekommen. Unter Pricing werden Token erwähnt und die 2K bzw. nur 1K sind weniger, als was ChatGPT bietet. Zudem scheinen die auch ein eigenes LLM-Modell zu benutzen, denn diese Ausgabequalität finde ich eher bescheiden:

"Als wir dort fanden, kamen unsere Eltern zurück und verschwanden unter uns. Die Männer haben uns nachgepfiffen. Dann gab es noch eine Gesellschaft, die ihr Heimat nicht verließ. Sie schloss sich ihrer Häuser, den Kirchen, um uns zu ertragen und für möglichst viele Jahre waren wir hier lebendig. Aber nun steht ein neuer Schatten der Vergangenheit bevor mir, und muss dieser Schatten seinen Namen geben!".

Ich rate mal, dass ist nicht für Deutsch trainiert.

Sudowrite macht da rein aus dem Video einen besseren Eindruck. Ich glaube, deren Trick ist, dass sie die Informationen auf Karten aufteilen und die sind per definitionem recht kurz und werden dann wahrscheinlich als Prompt übergeben. In der Dokumentation schreiben sie an einer Stelle, dass Sudowrite bis zu 1000 Wörter vor dem Cursor liest, um daraus dann die Geschichte weiterzuschreiben, was ganz klar die Beschränkung durch das Kontextfenster ist. Sie nutzen damit indirekt die Geschichte als Speicher, aber gelöst würde ich das Problem damit nicht nennen, denn offensichtlich kann so die AI niemals Bezüge zu Dingen machen, die nicht in den letzten 1000 Wörtern vorkommen. Ich kann mir höchstens vorstellen, dass sie, weil sie bei 1000 Wörtern ja noch etwas Platz haben, immer auch etwas in der Art "dies ist der Titel der Geschichte, dies sind die Protagonisten, dies die Kapitel" o.ä. als Kontext mitschicken.

Offline Darius der Duellant

  • Legend
  • *******
  • ^k̆aπa dlikχanuj šχa’yθ.
  • Beiträge: 5.361
  • Username: Darius_der_Duellant
Re: AI fürs Solo-Rollenspiel
« Antwort #29 am: 4.04.2023 | 23:54 »
Da bin ich (vielleicht mangels Fachwissen) etwas skeptischer. Mindestens mal wirkt sich die Größe des "Gedächtnis" massiv auf die notwendige Rechenleistung aus. Das wird ein Grund sein, warum sie so beschränkt ist. So wie ich das verstanden habe, muss am das LLM auch aufwendig neu trainieren, wenn man die Größe ändern will.

In jedem Fall aber danke für die beiden Links.

Bei NovelAI sehe ich auf Anhieb nicht, wo und wie die ihre Geschichte in den LLM-Kontext bekommen. Unter Pricing werden Token erwähnt und die 2K bzw. nur 1K sind weniger, als was ChatGPT bietet. Zudem scheinen die auch ein eigenes LLM-Modell zu benutzen, denn diese Ausgabequalität finde ich eher bescheiden:

"Als wir dort fanden, kamen unsere Eltern zurück und verschwanden unter uns. Die Männer haben uns nachgepfiffen. Dann gab es noch eine Gesellschaft, die ihr Heimat nicht verließ. Sie schloss sich ihrer Häuser, den Kirchen, um uns zu ertragen und für möglichst viele Jahre waren wir hier lebendig. Aber nun steht ein neuer Schatten der Vergangenheit bevor mir, und muss dieser Schatten seinen Namen geben!".

Ich rate mal, dass ist nicht für Deutsch trainiert.

Sudowrite macht da rein aus dem Video einen besseren Eindruck. Ich glaube, deren Trick ist, dass sie die Informationen auf Karten aufteilen und die sind per definitionem recht kurz und werden dann wahrscheinlich als Prompt übergeben. In der Dokumentation schreiben sie an einer Stelle, dass Sudowrite bis zu 1000 Wörter vor dem Cursor liest, um daraus dann die Geschichte weiterzuschreiben, was ganz klar die Beschränkung durch das Kontextfenster ist. Sie nutzen damit indirekt die Geschichte als Speicher, aber gelöst würde ich das Problem damit nicht nennen, denn offensichtlich kann so die AI niemals Bezüge zu Dingen machen, die nicht in den letzten 1000 Wörtern vorkommen. Ich kann mir höchstens vorstellen, dass sie, weil sie bei 1000 Wörtern ja noch etwas Platz haben, immer auch etwas in der Art "dies ist der Titel der Geschichte, dies sind die Protagonisten, dies die Kapitel" o.ä. als Kontext mitschicken.

Novel ai hat ein spezifisches Feld für persistente Informationen welches unabhängig von der "normalen" Tokenhistorie ist.
Wenn du einfach nur eine längere Kontexthistorie möchtest, versuch Zugang zur GPT4 Version von openai zu bekommen, da ist das bereits der Fall.
Und ja, novelAI ist nicht gpt3.5 sondern ein älteres Modell. Das ist aber wuppe, es geht mir nur um die technische Umsetzbarkeit eines persistenten Gedächtnis und das haben mittlerweile diverse Anbieter.
Butt-Kicker 100% / Tactician 83% /Power Gamer 83% / Storyteller 83% / Specialist  75% / Method Actor  50% / Casual Gamer 33%