Configurações de Serviço

Para abrir as Configurações do Serviço:
Pelo Launcher: Barra de menus -> Translator -> Clique duas vezes no nome do Serviço
A partir de Configurações: Configurações -> Mecanismos de Tradução -> Clique no Nome do Serviço
Web Scraping
Mostrar Navegador Abre uma janela do navegador exibindo a página de tradução.
Agente do Usuário Especifica a string de identificação do navegador. (Não é recomendado alterar a menos que necessário)
LLM Web
Mostrar Navegador Abre uma janela do navegador exibindo a página de tradução do LLM.
Combinar Prompt com o Texto Fonte Quando ativado, o texto fonte será mesclado com o prompt personalizado.
Prompt O prompt base usado pelo LLM.
LLM API
Chave de API Sua chave de API pessoal usada para autenticar com o serviço LLM. Mantenha-a privada e segura.
Modelo O nome do modelo LLM que você deseja usar.
Prompt do Sistema Uma instrução base para o modelo de IA que define o contexto ou comportamento para todas as traduções.
Temperatura Controla a aleatoriedade na saída. Valores mais baixos produzem resultados mais focados e determinísticos, enquanto valores mais altos produzem saídas mais criativas.
Máximo de Tokens O número máximo de tokens (palavras/caracteres) que o modelo pode gerar em uma única resposta. Limites mais altos podem aumentar os custos.
Top P Um método alternativo para controlar a criatividade. Funciona junto com a temperatura — valores mais baixos limitam as respostas a resultados mais prováveis.
Penalidade de Frequência Reduz a probabilidade do modelo repetir as mesmas frases. Valores mais altos resultam em menos repetição.
Penalidade de Presença Incentiva o modelo a introduzir novos tópicos. Valores mais altos resultam em conteúdo mais diversificado.