Configuración del servicio

Para abrir la Configuración del servicio:
Desde el Lanzador: Barra de menú -> Traductor -> Doble clic en el nombre del servicio
Desde Configuración: Configuración -> Motores de Traducción -> Haga clic en el Nombre del Servicio
Extracción de Datos Web
Mostrar Navegador Abre una ventana del navegador que muestra la página de traducción.
Agente de Usuario Especifica la cadena de identidad del navegador. (No se recomienda cambiar salvo que sea necesario)
LLM Web
Mostrar Navegador Abre una ventana del navegador que muestra la página de traducción LLM.
Combinar el Prompt con el Texto Fuente Cuando está activado, el texto fuente se fusionará con el prompt personalizado.
Prompt El prompt base utilizado por el LLM.
API LLM
Clave API Tu clave API personal utilizada para autenticarte con el servicio LLM. Mantén esto privado y seguro.
Modelo El nombre del modelo LLM que deseas usar.
Indicaciones del Sistema Una instrucción base para el modelo de IA que establece el contexto o comportamiento para todas las traducciones.
Temperatura Controla la aleatoriedad en la salida. Valores más bajos producen resultados más enfocados y determinísticos, mientras que valores más altos producen salidas más creativas.
Máximo de Tokens El número máximo de tokens (palabras/caracteres) que el modelo puede generar en una sola respuesta. Límites más altos pueden aumentar los costos.
Top P Un método alternativo para controlar la creatividad. Funciona junto con la temperatura: valores más bajos limitan las respuestas a resultados más probables.
Penalización por Frecuencia Reduce la probabilidad de que el modelo repita las mismas frases. Valores más altos resultan en menos repeticiones.
Penalización por Presencia Incentiva al modelo a introducir nuevos temas. Valores más altos generan contenido más diverso.