LLMs
O VNTranslator pode ser integrado com LLMs populares seja por meio de APIs para recursos avançados ou via navegador web para acesso gratuito.
Integração gratuita de LLM via navegador web
Nenhuma configuração de API necessária
Acesse LLMs diretamente usando o navegador web integrado fazendo login em cada serviço de LLM. Por favor, note:
Alguns serviços de LLM podem exigir configurações específicas ou acesso regional
Usar uma VPN pode fazer com que sites não carreguem
ChatGPT Web
✅
✅
✅
Gemini Web
✅
✅
✅
Claude Web
✅
✅
✅
Mistral Web
✅
✅
✅
DeepSeek Web
✅
✅
✅
Grok Web
✅
✅
✅
Integrando LLM via API
OpenAI API
✅
✅
✅
Gemini API
✅
✅
✅
Claude API
✅
✅
✅
Mistral API
✅
✅
✅
DeepSeek API
✅
✅
✅
Grok API
✅
✅
✅
OpenRouter API
✅
✅
✅
-------------------------
-
-
-
OpenAI Conversation v1.3 (legado)
✅
✅
✅
OpenAI Translate v1.3 (legado)
❌
❌
❌
GeminiAI v1.1 (legado)
❌
❌
❌
Você pode definir o parâmetro LLM nas Configurações de MT. Para abrir as Configurações de MT:
No Launcher: Menubar -> Translator -> Clique duas vezes na opção do tradutor

Prompt do Sistema
Personalize as instruções iniciais fornecidas ao sistema de tradução para ajustar finamente a tradução.
Transmissão
Ative a transmissão em tempo real para receber os resultados da tradução progressivamente em vez de esperar a tradução inteira ser concluída.
Histórico de Contexto
Melhore a precisão da tradução usando o contexto de textos traduzidos anteriormente.
Fonte de Contexto Escolha a fonte do contexto:
Novo Histórico de Tradução: Usa as traduções mais recentes da sessão atual.
Memória de Tradução: Usa entradas armazenadas na memória de tradução.
Entradas Máximas de Contexto Defina o número máximo de entradas anteriores a serem usadas como contexto.
Observação: Mais entradas consomem mais tokens, o que pode aumentar o tempo de processamento e os custos de API.
Links
GeminiAI - https://aistudio.google.com
DeepSeek - https://platform.deepseek.com
GrokAI - https://console.x.ai
Modelos: https://docs.x.ai/docs/models
OpenRouter - https://openrouter.ai/
Modelos: https://openrouter.ai/models
Offline (Execute LLMs Localmente)

✅ LM Studio (Recomendado)
Faça o download e instale o LM Studio em https://lmstudio.ai/
Baixe um modelo e carregue-o no LM Studio
Inicie o servidor no LM Studio
Insira o nome do modelo nas configurações de MT
✅ GPT4All
Faça o download e instale o GPT4All em https://www.nomic.ai/gpt4all
Filtragem de Conteúdo e Restrições
Serviços de LLM como ChatGPT, GeminiAI e ClaudeAI possuem filtros de conteúdo que podem bloquear:
Conteúdo explícito, nocivo ou ofensivo
Texto que viole os termos de serviço do provedor de IA
Material sensível ou restrito, incluindo conteúdo protegido por direitos autorais
O que acontece com conteúdo restrito?
Se seu texto for sinalizado:
O LLM pode se recusar a traduzi-lo
Você pode receber uma mensagem de erro ou uma resposta genérica em vez de uma tradução
Dicas para evitar problemas
Tente um modelo ou versão diferente: Se um modelo sinalizar seu texto, mude para outro. Observe que versões mais recentes costumam ter filtros mais rígidos.
Experimente engenharia de prompt: Procure online por técnicas eficazes de engenharia de prompt. Tenha cuidado para seguir os termos de serviço do provedor de IA ao fazer isso.