Variablen

Konfigurieren Sie dynamische Variablen, die in Übersetzungsanfragen verwendet werden, einschließlich Kontextspeicher für AI/LLM-Übersetzungen.

Kontextspeicher

circle-info

Hinweis: Dies ist eine manuelle Variablenkonfiguration für Custom MT. In VNTranslator-Versionen >= v0.8.8, wird der Kontextspeicher automatisch auf alle AI/LLM-API-Dienste angewendet, sodass keine manuelle Konfiguration erforderlich ist.

Erhält die Kontexthistorie für AI/LLM-Übersetzungen, sodass das Modell auf vorherige Dialoge verweisen kann, um Kohärenz und Genauigkeit zu verbessern. Passen Sie die Systemaufforderung an und steuern Sie, wie viel Kontext gespeichert wird.

Konfiguration

  • Aus JSON-Datei importieren Gibt den Pfad zu einer JSON-Datei an, die die zu importierende Kontexthistorie enthält.

  • Kontextquelle Wählen Sie, woher der Kontext abgerufen wird:

    • Translation Memory Verwendet kürzliche Übersetzungen aus dem Übersetzungsarchiv als Kontext

    • Neue Übersetzung Beginnt für jede Übersetzungsanfrage eine neue Konversation

    • JSON-Datei Importiert Kontexthistorie aus der angegebenen JSON-Datei

  • Maximale Kontext-Einträge Legt die maximale Anzahl von Kontexteinträgen fest, die im Speicher gehalten werden. Ältere Einträge werden entfernt, wenn dieses Limit erreicht ist.

API-Variablen

Verwenden Sie die folgende Variable in Ihren API-Anfragen, um den Kontextspeicher einzuschließen:

  • $MT::ConversationMemory.Entries::ToArray()

  • $MT::ContextMemory.Entries::ToArray()

Diese Variable erweitert sich zu einem Array von Kontexteinträgen, das an AI/LLM-APIs übergeben werden kann.

Beispiel: OpenAI GPT-Integration

Initiale Aufforderung:

Systemvorlage:

Benutzervorlage:

Assistentenvorlage:

Custom MT-Konfiguration

Vollständiges Konfigurationsbeispiel für OpenAI GPT mit Kontextspeicher: