Ten dokument został przetłumaczony przez AI. W przypadku niedokładności, proszę odnieść się do wersji angielskiej
Korzystając z węzła LLM w ramach przepływu pracy, mogą Państwo zainicjować rozmowę z usługą LLM online, wykorzystując możliwości dużych modeli do wspierania realizacji szeregu procesów biznesowych.

Ponieważ rozmowy z usługami LLM są często czasochłonne, węzeł LLM może być używany wyłącznie w asynchronicznych przepływach pracy.

Najpierw proszę wybrać podłączoną usługę LLM. Jeśli żadna usługa LLM nie jest jeszcze podłączona, należy najpierw dodać jej konfigurację. Zobacz: Zarządzanie usługami LLM
Po wybraniu usługi aplikacja spróbuje pobrać listę dostępnych modeli z usługi LLM, aby mogli Państwo dokonać wyboru. Niektóre usługi LLM online mogą posiadać interfejsy API do pobierania modeli, które nie są zgodne ze standardowymi protokołami API; w takich przypadkach użytkownicy mogą również ręcznie wprowadzić ID modelu.

Mogą Państwo dostosować parametry wywołania modelu LLM według potrzeb.

Warto zwrócić uwagę na ustawienie Format odpowiedzi. Ta opcja służy do określenia formatu treści odpowiedzi dużego modelu, który może być tekstowy lub JSON. Jeśli wybiorą Państwo tryb JSON, należy pamiętać o następujących kwestiach:
setup and punchline keys". W przeciwnym razie może nie być odpowiedzi, co skutkuje błędem 400 status code (no body).Tablica wiadomości wysyłanych do modelu LLM może zawierać zestaw wiadomości historycznych. Wiadomości obsługują trzy typy:
W przypadku wiadomości użytkownika, o ile model to obsługuje, mogą Państwo dodać wiele treści w jednym zapytaniu (prompt), odpowiadających parametrowi content. Jeśli używany model obsługuje parametr content tylko w formie ciągu znaków (co dotyczy większości modeli, które nie wspierają rozmów multimodalnych), proszę podzielić wiadomość na wiele zapytań, z których każde będzie zawierać tylko jedną treść. W ten sposób węzeł wyśle treść jako ciąg znaków.

W treści wiadomości mogą Państwo używać zmiennych do odwoływania się do kontekstu przepływu pracy.

Mogą Państwo wykorzystać treść odpowiedzi węzła LLM jako zmienną w innych węzłach.
