LLMs

O VNTranslator pode ser integrado com LLMs populares seja por meio de APIs para recursos avançados ou via navegador web para acesso gratuito.

Integração gratuita de LLM via navegador web

Nenhuma configuração de API necessária

Acesse LLMs diretamente usando o navegador web integrado fazendo login em cada serviço de LLM. Por favor, note:

  • Alguns serviços de LLM podem exigir configurações específicas ou acesso regional

  • Usar uma VPN pode fazer com que sites não carreguem

Nome
Combinar Prompt
Transmissão
Automação

ChatGPT Web

Gemini Web

Claude Web

Mistral Web

DeepSeek Web

Grok Web


Integrando LLM via API

Nome
Prompt do Sistema
Transmissão
Histórico de Contexto

OpenAI API

Gemini API

Claude API

Mistral API

DeepSeek API

Grok API

OpenRouter API

-------------------------

-

-

-

OpenAI Conversation v1.3 (legado)

OpenAI Translate v1.3 (legado)

GeminiAI v1.1 (legado)

circle-info

Você pode definir o parâmetro LLM nas Configurações de MT. Para abrir as Configurações de MT:

  • No Launcher: Menubar -> Translator -> Clique duas vezes na opção do tradutor

Prompt do Sistema

Personalize as instruções iniciais fornecidas ao sistema de tradução para ajustar finamente a tradução.

Transmissão

Ative a transmissão em tempo real para receber os resultados da tradução progressivamente em vez de esperar a tradução inteira ser concluída.

Histórico de Contexto

Melhore a precisão da tradução usando o contexto de textos traduzidos anteriormente.

  • Fonte de Contexto Escolha a fonte do contexto:

    • Novo Histórico de Tradução: Usa as traduções mais recentes da sessão atual.

    • Memória de Tradução: Usa entradas armazenadas na memória de tradução.

  • Entradas Máximas de Contexto Defina o número máximo de entradas anteriores a serem usadas como contexto.

    Observação: Mais entradas consomem mais tokens, o que pode aumentar o tempo de processamento e os custos de API.


Offline (Execute LLMs Localmente)


Filtragem de Conteúdo e Restrições

Serviços de LLM como ChatGPT, GeminiAI e ClaudeAI possuem filtros de conteúdo que podem bloquear:

  • Conteúdo explícito, nocivo ou ofensivo

  • Texto que viole os termos de serviço do provedor de IA

  • Material sensível ou restrito, incluindo conteúdo protegido por direitos autorais

O que acontece com conteúdo restrito?

Se seu texto for sinalizado:

  • O LLM pode se recusar a traduzi-lo

  • Você pode receber uma mensagem de erro ou uma resposta genérica em vez de uma tradução

Dicas para evitar problemas

  • Tente um modelo ou versão diferente: Se um modelo sinalizar seu texto, mude para outro. Observe que versões mais recentes costumam ter filtros mais rígidos.

  • Experimente engenharia de prompt: Procure online por técnicas eficazes de engenharia de prompt. Tenha cuidado para seguir os termos de serviço do provedor de IA ao fazer isso.