Variablen
Konfigurieren Sie dynamische Variablen, die in Übersetzungsanfragen verwendet werden, einschließlich Kontextspeicher für AI/LLM-Übersetzungen.
Kontextspeicher
Hinweis: Dies ist eine manuelle Variablenkonfiguration für Custom MT. In VNTranslator-Versionen >= v0.8.8, wird der Kontextspeicher automatisch auf alle AI/LLM-API-Dienste angewendet, sodass keine manuelle Konfiguration erforderlich ist.
Erhält die Kontexthistorie für AI/LLM-Übersetzungen, sodass das Modell auf vorherige Dialoge verweisen kann, um Kohärenz und Genauigkeit zu verbessern. Passen Sie die Systemaufforderung an und steuern Sie, wie viel Kontext gespeichert wird.

Konfiguration
Aus JSON-Datei importieren Gibt den Pfad zu einer JSON-Datei an, die die zu importierende Kontexthistorie enthält.
Kontextquelle Wählen Sie, woher der Kontext abgerufen wird:
Translation Memory Verwendet kürzliche Übersetzungen aus dem Übersetzungsarchiv als Kontext
Neue Übersetzung Beginnt für jede Übersetzungsanfrage eine neue Konversation
JSON-Datei Importiert Kontexthistorie aus der angegebenen JSON-Datei
Maximale Kontext-Einträge Legt die maximale Anzahl von Kontexteinträgen fest, die im Speicher gehalten werden. Ältere Einträge werden entfernt, wenn dieses Limit erreicht ist.
API-Variablen
Verwenden Sie die folgende Variable in Ihren API-Anfragen, um den Kontextspeicher einzuschließen:
$MT::ConversationMemory.Entries::ToArray()$MT::ContextMemory.Entries::ToArray()
Diese Variable erweitert sich zu einem Array von Kontexteinträgen, das an AI/LLM-APIs übergeben werden kann.
Beispiel: OpenAI GPT-Integration
Initiale Aufforderung:
Systemvorlage:
Benutzervorlage:
Assistentenvorlage:
Custom MT-Konfiguration
Vollständiges Konfigurationsbeispiel für OpenAI GPT mit Kontextspeicher: