Dienst-Einstellungen

Um die Dienst-Einstellungen zu öffnen:
Vom Launcher: Menüleiste -> Translator -> Doppelklick auf den Dienstnamen
Über Einstellungen: Einstellungen -> Übersetzungsengines -> Klicken Sie auf den Dienstnamen
Web Scraping
Browser anzeigen Öffnet ein Browserfenster, das die Übersetzungsseite anzeigt.
User-Agent Legt die Browser-Identifikationszeichenfolge fest. (Es wird nicht empfohlen, dies zu ändern, es sei denn, es ist notwendig)
LLM Web
Browser anzeigen Öffnet ein Browserfenster, das die LLM-Übersetzungsseite anzeigt.
Prompt mit Quelltext kombinieren Wenn aktiviert, wird der Quelltext mit dem benutzerdefinierten Prompt zusammengeführt.
Prompt Der Basis-Prompt, der vom LLM verwendet wird.
LLM API
API-Schlüssel Ihr persönlicher API-Schlüssel zur Authentifizierung beim LLM-Dienst. Bewahren Sie diesen vertraulich und sicher auf.
Modell Der Name des LLM-Modells, das Sie verwenden möchten.
System-Prompt Eine Basisanweisung für das KI-Modell, die den Kontext oder das Verhalten für alle Übersetzungen festlegt.
Temperature Steuert die Zufälligkeit der Ausgabe. Niedrigere Werte erzeugen fokussiertere und deterministischere Ergebnisse, während höhere Werte kreativere Ausgaben erzeugen.
Maximale Tokens Die maximale Anzahl von Tokens (Wörtern/Zeichen), die das Modell in einer einzelnen Antwort erzeugen kann. Höhere Limits können die Kosten erhöhen.
Top P Eine alternative Methode zur Steuerung der Kreativität. Wirkt zusammen mit der Temperature — niedrigere Werte begrenzen die Antworten auf wahrscheinlichere Ergebnisse.
Frequenzstrafe Verringert die Wahrscheinlichkeit, dass das Modell dieselben Phrasen wiederholt. Höhere Werte führen zu weniger Wiederholungen.
Präsenzstrafe Ermutigt das Modell, neue Themen einzuführen. Höhere Werte führen zu vielfältigerem Inhalt.