LLMs

VNTranslator peut être intégré aux LLM populaires soit via des API pour des fonctionnalités avancées, soit via un navigateur web pour un accès gratuit.

Intégration LLM gratuite via le navigateur Web

Aucune configuration d'API requise

Accédez aux LLM directement en utilisant le navigateur Web intégré en vous connectant à chaque service LLM. Veuillez noter :

  • Certains services LLM peuvent nécessiter des configurations spécifiques ou un accès régional

  • L'utilisation d'un VPN peut empêcher le chargement des sites Web

Nom
Combiner l'invite
Flux
Automatisation

ChatGPT Web

Gemini Web

Claude Web

Mistral Web

DeepSeek Web

Grok Web


Intégration du LLM via API

Nom
Invite système
Flux
Historique du contexte

OpenAI API

API Gemini

Claude API

Mistral API

DeepSeek API

Grok API

OpenRouter API

-------------------------

-

-

-

OpenAI Conversation v1.3 (héritage)

OpenAI Translate v1.3 (héritage)

GeminiAI v1.1 (héritage)

circle-info

Vous pouvez définir le paramètre LLM dans les Paramètres MT. Pour ouvrir les Paramètres MT :

  • Dans le Lanceur : Barre de menus -> Translator -> Double-cliquez sur l'option de traducteur

Invite système

Personnalisez les instructions initiales fournies au système de traduction pour affiner la traduction.

Flux

Activez le streaming en temps réel pour recevoir les résultats de traduction progressivement au lieu d'attendre la fin complète de la traduction.

Historique du contexte

Améliorez la précision de la traduction en utilisant le contexte du texte précédemment traduit.

  • Source du contexte Choisissez la source du contexte :

    • Nouvel historique de traduction: Utilise les traductions les plus récentes de la session en cours.

    • Mémoire de traduction: Utilise les entrées de mémoire de traduction stockées.

  • Entrées de contexte max Définissez le nombre maximal d'entrées précédentes à utiliser comme contexte.

    Remarque : Plus d'entrées consomment plus de jetons, ce qui peut augmenter le temps de traitement et les coûts d'API.

Liens


Hors ligne (Exécuter les LLM localement)


Filtrage et restrictions de contenu

Les services LLM comme ChatGPT, GeminiAI et ClaudeAI disposent de filtres de contenu qui peuvent bloquer :

  • Contenu explicite, nuisible ou offensant

  • Texte qui viole les conditions d'utilisation du fournisseur d'IA

  • Matériel sensible ou restreint, y compris le contenu protégé par le droit d'auteur

Que se passe-t-il avec le contenu restreint ?

Si votre texte est signalé :

  • Le LLM peut refuser de le traduire

  • Vous pouvez recevoir un message d'erreur ou une réponse générique au lieu d'une traduction

Conseils pour éviter les problèmes

  • Essayez un modèle ou une version différente : Si un modèle signale votre texte, passez à un autre. Notez que les versions plus récentes ont souvent des filtres plus stricts.

  • Expérimentez l'ingénierie des prompts : Recherchez en ligne des techniques efficaces d'ingénierie de prompt. Veillez à respecter les conditions d'utilisation du fournisseur d'IA lorsque vous le faites.