LLM
VNTranslator può essere integrato con LLM popolari sia tramite API per funzionalità avanzate sia tramite browser web per accesso gratuito.
Integrazione gratuita con LLM tramite browser web
Nessuna configurazione API richiesta
Accedi direttamente agli LLM utilizzando il browser web integrato effettuando il login in ciascun servizio LLM. Si prega di notare:
Alcuni servizi LLM potrebbero richiedere configurazioni specifiche o accesso regionale
L'uso di una VPN può causare il mancato caricamento dei siti web
ChatGPT Web
✅
✅
✅
Gemini Web
✅
✅
✅
Claude Web
✅
✅
✅
Mistral Web
✅
✅
✅
DeepSeek Web
✅
✅
✅
Grok Web
✅
✅
✅
Integrazione LLM tramite API
OpenAI API
✅
✅
✅
Gemini API
✅
✅
✅
Claude API
✅
✅
✅
Mistral API
✅
✅
✅
DeepSeek API
✅
✅
✅
Grok API
✅
✅
✅
OpenRouter API
✅
✅
✅
-------------------------
-
-
-
OpenAI Conversation v1.3 (legacy)
✅
✅
✅
OpenAI Translate v1.3 (legacy)
❌
❌
❌
GeminiAI v1.1 (legacy)
❌
❌
❌
Puoi impostare il parametro LLM nelle Impostazioni MT. Per aprire le Impostazioni MT:
Nel Launcher: Menubar -> Translator -> Doppio clic sull'opzione translator

Prompt di Sistema
Personalizza le istruzioni iniziali fornite al sistema di traduzione per ottimizzare la traduzione.
Streaming
Abilita lo streaming in tempo reale per ricevere i risultati della traduzione progressivamente invece di aspettare il completamento dell'intera traduzione.
Cronologia del contesto
Migliora l'accuratezza della traduzione utilizzando il contesto di testi tradotti precedentemente.
Fonte del contesto Scegli la fonte del contesto:
Nuova cronologia di traduzione: Utilizza le traduzioni più recenti della sessione corrente.
Memoria di Traduzione: Utilizza voci memorizzate nella memoria di traduzione.
Numero massimo di voci di contesto Imposta il numero massimo di voci precedenti da usare come contesto.
Nota: Più voci consumano più token, il che può aumentare i tempi di elaborazione e i costi API.
Link
GeminiAI - https://aistudio.google.com
DeepSeek - https://platform.deepseek.com
GrokAI - https://console.x.ai
Modelli: https://docs.x.ai/docs/models
OpenRouter - https://openrouter.ai/
Modelli: https://openrouter.ai/models
Offline (Esegui gli LLM in locale)

✅ LM Studio (Consigliato)
Scarica e installa LM Studio da https://lmstudio.ai/
Scarica un modello e caricalo in LM Studio
Avvia il server in LM Studio
Inserisci il nome del modello nelle impostazioni MT
✅ GPT4All
Scarica e installa GPT4All da https://www.nomic.ai/gpt4all
Filtraggio e restrizioni dei contenuti
I servizi LLM come ChatGPT, GeminiAI e ClaudeAI hanno filtri sui contenuti che possono bloccare:
Contenuti espliciti, dannosi o offensivi
Testo che viola i termini di servizio del fornitore di AI
Materiale sensibile o soggetto a restrizioni, incluso contenuto protetto da copyright
Cosa succede con i contenuti soggetti a restrizioni?
Se il tuo testo viene segnalato:
L'LLM potrebbe rifiutarsi di tradurlo
Potresti ricevere un messaggio di errore o una risposta generica invece della traduzione
Consigli per evitare problemi
Prova un modello o una versione diversa: Se un modello segnala il tuo testo, passa a un altro. Nota che le versioni più recenti spesso hanno filtri più restrittivi.
Sperimenta con il prompt engineering: Cerca online tecniche efficaci di prompt engineering. Fai attenzione a rispettare i termini di servizio del fornitore di AI quando lo fai.