Zmienne
Skonfiguruj zmienne dynamiczne używane w żądaniach tłumaczeń, w tym pamięć kontekstu dla tłumaczeń AI/LLM.
Pamięć kontekstu
Uwaga: To jest ręczna konfiguracja zmiennej dla Niestandardowy MT. W wersjach VNTranslator >= v0.8.8, pamięć kontekstu jest automatycznie stosowana do wszystkich usług API AI/LLM, więc ręczna konfiguracja nie jest wymagana.
Utrzymuje historię kontekstu dla tłumaczeń AI/LLM, umożliwiając modelowi odwoływanie się do poprzedniego dialogu w celu poprawy spójności i dokładności. Dostosuj systemowy prompt i kontroluj, ile kontekstu jest zachowywane.

Konfiguracja
Importuj z pliku JSON Określa ścieżkę do pliku JSON zawierającego historię kontekstu do zaimportowania.
Źródło kontekstu Wybierz, skąd ma być pobierany kontekst:
Pamięć tłumaczeń Używa ostatnich tłumaczeń z Pamięci Tłumaczeń jako kontekstu
Nowe tłumaczenie Rozpoczyna świeżą konwersację dla każdego żądania tłumaczenia
Plik JSON Importuje historię kontekstu z określonego pliku JSON
Maksymalna liczba wpisów kontekstu Ustawia maksymalną liczbę wpisów kontekstu przechowywanych w pamięci. Starsze wpisy są usuwane, gdy osiągnięty zostanie ten limit.
Zmienne API
Użyj następującej zmiennej w swoich żądaniach API, aby dołączyć pamięć kontekstu:
$MT::ConversationMemory.Entries::ToArray()$MT::ContextMemory.Entries::ToArray()
Ta zmienna rozwija się do tablicy wpisów kontekstu, które można przekazać do API AI/LLM.
Przykład: Integracja OpenAI GPT
Początkowy prompt:
Szablon systemowy:
Szablon użytkownika:
Szablon asystenta:
Konfiguracja Niestandardowego MT
Pełny przykład konfiguracji dla OpenAI GPT z pamięcią kontekstu: