Variables
Configurez les variables dynamiques utilisées dans les requêtes de traduction, y compris la mémoire de contexte pour les traductions AI/LLM.
Mémoire de contexte
Remarque : Ceci est une configuration manuelle de variable pour MT personnalisé. Dans les versions de VNTranslator >= v0.8.8, la mémoire de contexte est automatiquement appliquée à tous les services API AI/LLM, donc la configuration manuelle n'est pas requise.
Maintient l'historique du contexte pour les traductions AI/LLM, permettant au modèle de se référer aux dialogues précédents pour une meilleure cohérence et précision. Personnalisez l'invite système et contrôlez la quantité de contexte conservée.

Configuration
Importer depuis un fichier JSON Spécifie le chemin vers un fichier JSON contenant l'historique du contexte à importer.
Source du contexte Choisissez où le contexte est récupéré :
Mémoire de traduction Utilise les traductions récentes de la Mémoire de Traduction comme contexte
Nouvelle traduction Démarre une conversation fraîche pour chaque requête de traduction
Fichier JSON Importe l'historique du contexte depuis le fichier JSON spécifié
Entrées de contexte max Définit le nombre maximal d'entrées de contexte à stocker en mémoire. Les entrées les plus anciennes sont supprimées lorsque cette limite est atteinte.
Variables API
Utilisez la variable suivante dans vos requêtes API pour inclure la mémoire de contexte :
$MT::ConversationMemory.Entries::ToArray()$MT::ContextMemory.Entries::ToArray()
Cette variable s'étend en un tableau d'entrées de contexte qui peuvent être transmises aux API AI/LLM.
Exemple : Intégration OpenAI GPT
Invite initiale :
Modèle système :
Modèle utilisateur :
Modèle assistant :
Configuration MT personnalisée
Exemple de configuration complet pour OpenAI GPT avec mémoire de contexte :