LLMs
VNTranslator peut être intégré aux LLM populaires soit via des API pour des fonctionnalités avancées, soit via un navigateur web pour un accès gratuit.
Intégration LLM gratuite via le navigateur Web
Aucune configuration d'API requise
Accédez aux LLM directement en utilisant le navigateur Web intégré en vous connectant à chaque service LLM. Veuillez noter :
Certains services LLM peuvent nécessiter des configurations spécifiques ou un accès régional
L'utilisation d'un VPN peut empêcher le chargement des sites Web
ChatGPT Web
✅
✅
✅
Gemini Web
✅
✅
✅
Claude Web
✅
✅
✅
Mistral Web
✅
✅
✅
DeepSeek Web
✅
✅
✅
Grok Web
✅
✅
✅
Intégration du LLM via API
OpenAI API
✅
✅
✅
API Gemini
✅
✅
✅
Claude API
✅
✅
✅
Mistral API
✅
✅
✅
DeepSeek API
✅
✅
✅
Grok API
✅
✅
✅
OpenRouter API
✅
✅
✅
-------------------------
-
-
-
OpenAI Conversation v1.3 (héritage)
✅
✅
✅
OpenAI Translate v1.3 (héritage)
❌
❌
❌
GeminiAI v1.1 (héritage)
❌
❌
❌
Vous pouvez définir le paramètre LLM dans les Paramètres MT. Pour ouvrir les Paramètres MT :
Dans le Lanceur : Barre de menus -> Translator -> Double-cliquez sur l'option de traducteur

Invite système
Personnalisez les instructions initiales fournies au système de traduction pour affiner la traduction.
Flux
Activez le streaming en temps réel pour recevoir les résultats de traduction progressivement au lieu d'attendre la fin complète de la traduction.
Historique du contexte
Améliorez la précision de la traduction en utilisant le contexte du texte précédemment traduit.
Source du contexte Choisissez la source du contexte :
Nouvel historique de traduction: Utilise les traductions les plus récentes de la session en cours.
Mémoire de traduction: Utilise les entrées de mémoire de traduction stockées.
Entrées de contexte max Définissez le nombre maximal d'entrées précédentes à utiliser comme contexte.
Remarque : Plus d'entrées consomment plus de jetons, ce qui peut augmenter le temps de traitement et les coûts d'API.
Liens
GeminiAI - https://aistudio.google.com
ClaudeAI - https://console.anthropic.com
MistralAI - https://console.mistral.ai
DeepSeek - https://platform.deepseek.com
GrokAI - https://console.x.ai
Modèles : https://docs.x.ai/docs/models
OpenRouter - https://openrouter.ai/
Modèles : https://openrouter.ai/models
Hors ligne (Exécuter les LLM localement)

✅ LM Studio (Recommandé)
Téléchargez et installez LM Studio depuis https://lmstudio.ai/
Téléchargez un modèle et chargez-le dans LM Studio
Démarrez le serveur dans LM Studio
Saisissez le nom du modèle dans les paramètres MT
✅ GPT4All
Téléchargez et installez GPT4All depuis https://www.nomic.ai/gpt4all
Filtrage et restrictions de contenu
Les services LLM comme ChatGPT, GeminiAI et ClaudeAI disposent de filtres de contenu qui peuvent bloquer :
Contenu explicite, nuisible ou offensant
Texte qui viole les conditions d'utilisation du fournisseur d'IA
Matériel sensible ou restreint, y compris le contenu protégé par le droit d'auteur
Que se passe-t-il avec le contenu restreint ?
Si votre texte est signalé :
Le LLM peut refuser de le traduire
Vous pouvez recevoir un message d'erreur ou une réponse générique au lieu d'une traduction
Conseils pour éviter les problèmes
Essayez un modèle ou une version différente : Si un modèle signale votre texte, passez à un autre. Notez que les versions plus récentes ont souvent des filtres plus stricts.
Expérimentez l'ingénierie des prompts : Recherchez en ligne des techniques efficaces d'ingénierie de prompt. Veillez à respecter les conditions d'utilisation du fournisseur d'IA lorsque vous le faites.