LLMs
VNTranslator kann in gängige LLMs entweder über APIs für erweiterte Funktionen oder über den Webbrowser für kostenlosen Zugang integriert werden.
Kostenlose LLM-Integration über Webbrowser
Keine API-Konfiguration erforderlich
Greifen Sie direkt über den integrierten Webbrowser auf LLMs zu, indem Sie sich bei jedem LLM-Dienst anmelden. Bitte beachten:
Einige LLM-Dienste können spezifische Konfigurationen oder regionalen Zugriff erfordern
Die Verwendung eines VPN kann dazu führen, dass Websites nicht geladen werden
ChatGPT Web
✅
✅
✅
Gemini Web
✅
✅
✅
Claude Web
✅
✅
✅
Mistral Web
✅
✅
✅
DeepSeek Web
✅
✅
✅
Grok Web
✅
✅
✅
LLM-Integration über API
OpenAI API
✅
✅
✅
Gemini API
✅
✅
✅
Claude API
✅
✅
✅
Mistral API
✅
✅
✅
DeepSeek API
✅
✅
✅
Grok API
✅
✅
✅
OpenRouter API
✅
✅
✅
-------------------------
-
-
-
OpenAI Conversation v1.3 (veraltet)
✅
✅
✅
OpenAI Translate v1.3 (veraltet)
❌
❌
❌
GeminiAI v1.1 (veraltet)
❌
❌
❌
Sie können den LLM-Parameter in den MT-Einstellungen festlegen. Um die MT-Einstellungen zu öffnen:
Im Launcher: Menüleiste -> Translator -> Doppelklick auf die Übersetzeroption

System-Prompt
Passen Sie die anfänglichen Anweisungen an, die dem Übersetzungssystem gegeben werden, um die Übersetzung feinzujustieren.
Stream
Aktivieren Sie Echtzeit-Streaming, um Übersetzungsergebnisse progressiv zu erhalten, anstatt auf den Abschluss der gesamten Übersetzung zu warten.
Kontexthistorie
Verbessern Sie die Übersetzungsgenauigkeit, indem Sie Kontext aus zuvor übersetztem Text verwenden.
Kontextquelle Wählen Sie die Kontextquelle:
Neue Übersetzungshistorie: Verwendet die neuesten Übersetzungen aus der aktuellen Sitzung.
Translation Memory: Verwendet gespeicherte Einträge aus dem Übersetzungsspeicher.
Maximale Kontext-Einträge Legen Sie die maximale Anzahl vorheriger Einträge fest, die als Kontext verwendet werden sollen.
Hinweis: Mehr Einträge verbrauchen mehr Tokens, was die Verarbeitungszeit und API-Kosten erhöhen kann.
Links
GeminiAI - https://aistudio.google.com
DeepSeek - https://platform.deepseek.com
GrokAI - https://console.x.ai
Modelle: https://docs.x.ai/docs/models
OpenRouter - https://openrouter.ai/
Modelle: https://openrouter.ai/models
Offline (LLMs lokal ausführen)

✅ LM Studio (Empfohlen)
Laden Sie LM Studio herunter und installieren Sie es von https://lmstudio.ai/
Laden Sie ein Modell herunter und laden Sie es in LM Studio
Starten Sie den Server in LM Studio
Geben Sie den Modellnamen in den MT-Einstellungen ein
✅ GPT4All
Laden Sie GPT4All herunter und installieren Sie es von https://www.nomic.ai/gpt4all
Inhaltsfilterung und Beschränkungen
LLM-Dienste wie ChatGPT, GeminiAI und ClaudeAI haben Inhaltsfilter, die möglicherweise blockieren:
Explizite, schädliche oder beleidigende Inhalte
Text, der gegen die Nutzungsbedingungen des KI-Anbieters verstößt
Sensitive oder eingeschränkte Materialien, einschließlich urheberrechtlich geschützter Inhalte
Was passiert mit eingeschränkten Inhalten?
Wenn Ihr Text markiert wird:
Das LLM kann die Übersetzung verweigern
Sie erhalten möglicherweise eine Fehlermeldung oder eine allgemeine Antwort statt einer Übersetzung
Tipps zur Vermeidung von Problemen
Versuchen Sie ein anderes Modell oder eine andere Version: Wenn ein Modell Ihren Text markiert, wechseln Sie zu einem anderen. Beachten Sie, dass neuere Versionen oft strengere Filter haben.
Experimentieren Sie mit Prompt-Engineering: Suchen Sie online nach effektiven Techniken des Prompt-Engineerings. Seien Sie vorsichtig und befolgen Sie die Nutzungsbedingungen des KI-Anbieters dabei.