Die KI-Modelle, die auf unserer Plattform für unsere Nutzerinnen und Nutzer unterstützt werden, darunter Sophos-1, Sophos-2 und GPT-4, haben alle ein Kontextfenster, das die Menge an Text bestimmt, die sie bei der Erstellung von Antworten berücksichtigen können. Das Kontextfenster bezieht sich auf die Anzahl der Token, die auf einmal berücksichtigt werden können. Ein Token ist eine Texteinheit, die ein Wort, ein Satzzeichen oder ein anderes Zeichen sein kann.
Sophos Modelle
Sophos-1 und Sophos-2 haben beide ein Kontextfenster von 4096 Token. Das bedeutet, dass die Benutzer/innen bei diesen Modellen bis zu 4096 Token Text eingeben können, den das Modell bei der Erstellung einer Antwort berücksichtigen kann.
GPT-Modelle
GPT-4 hingegen hat ein größeres Kontextfenster von 8192 Token. Dadurch können die Nutzer/innen mehr Text eingeben, den das Modell bei der Erstellung einer Antwort berücksichtigen kann.
Reservierte Token
Es ist wichtig zu wissen, dass alle diese Modelle 2048 Token für Benutzerkonfigurationen reservieren. Das bedeutet, dass den Nutzern etwas weniger Token für ihre Anweisungen zur Verfügung stehen als die Gesamtgröße des Kontextfensters. Dennoch kann das Modell eine große Menge an Text berücksichtigen, was zu genaueren und relevanteren Antworten führen kann.
Mögliche Fehlermeldungen - Deine Eingabeaufforderung war zu lang
Es ist wichtig, dass du daran denkst, dass eine Fehlermeldung erscheint, wenn du die Token-Grenze innerhalb dieser Kontextfenster überschreitest: "Dein Prompt war zu lang". In solchen Fällen musst du einen Teil deines Prompts kürzen und es erneut versuchen.
Insgesamt ist es wichtig, das Kontextfenster unserer KI-Modelle zu verstehen, damit die Nutzer/innen ihre Interaktionen mit den Modellen optimieren und möglichst genaue Antworten erhalten können.