logologo
Start
Dokumentacja
Deweloperzy
Wtyczki
API
English
简体中文
日本語
한국어
Deutsch
Français
Español
Português
Русский
Italiano
Türkçe
Українська
Tiếng Việt
Bahasa Indonesia
ไทย
Polski
Nederlands
Čeština
العربية
עברית
हिन्दी
Svenska
Start
Dokumentacja
Deweloperzy
Wtyczki
API
logologo
Przegląd

Szybki start

Konfiguracja usług LLM
Tworzenie pracownika AI
Współpraca z pracownikiem AI

Wbudowani pracownicy AI

Przegląd
Viz: Analityk danych
Orin: Ekspert modelowania danych
Dex: Ekspert porządkowania danych
Nathan: Inżynier front-end

Zaawansowane

Wybór bloku
Źródła danych
Umiejętności
Zadania
Wyszukiwanie w sieci
Kontrola uprawnień
Zarządzanie plikami

Przepływy pracy

Węzeł LLM

Czat tekstowy
Czat multimodalny
Wyjście strukturalne

Baza wiedzy AI

Przegląd
Wektorowa baza danych
Magazyn wektorowy
Baza wiedzy
RAG

Dokumentacja aplikacji

Scenariusze

Viz: Konfiguracja scenariusza CRM

Konfiguracja

Konfiguracja administratora
Przewodnik po promptach
Previous PageZarządzanie plikami
Next PageCzat multimodalny
TIP

Ten dokument został przetłumaczony przez AI. W przypadku niedokładności, proszę odnieść się do wersji angielskiej

#Czat tekstowy

This feature is provided by the plugin «Pracownicy AI»

#Wprowadzenie

Korzystając z węzła LLM w ramach przepływu pracy, mogą Państwo zainicjować rozmowę z usługą LLM online, wykorzystując możliwości dużych modeli do wspierania realizacji szeregu procesów biznesowych.

#Tworzenie węzła LLM

Ponieważ rozmowy z usługami LLM są często czasochłonne, węzeł LLM może być używany wyłącznie w asynchronicznych przepływach pracy.

#Wybór modelu

Najpierw proszę wybrać podłączoną usługę LLM. Jeśli żadna usługa LLM nie jest jeszcze podłączona, należy najpierw dodać jej konfigurację. Zobacz: Zarządzanie usługami LLM

Po wybraniu usługi aplikacja spróbuje pobrać listę dostępnych modeli z usługi LLM, aby mogli Państwo dokonać wyboru. Niektóre usługi LLM online mogą posiadać interfejsy API do pobierania modeli, które nie są zgodne ze standardowymi protokołami API; w takich przypadkach użytkownicy mogą również ręcznie wprowadzić ID modelu.

#Ustawianie parametrów wywołania

Mogą Państwo dostosować parametry wywołania modelu LLM według potrzeb.

#Format odpowiedzi

Warto zwrócić uwagę na ustawienie Format odpowiedzi. Ta opcja służy do określenia formatu treści odpowiedzi dużego modelu, który może być tekstowy lub JSON. Jeśli wybiorą Państwo tryb JSON, należy pamiętać o następujących kwestiach:

  • Odpowiedni model LLM musi obsługiwać wywołania w trybie JSON. Dodatkowo, użytkownik musi wyraźnie wskazać w Prompt, aby LLM odpowiedział w formacie JSON, na przykład: "Tell me a joke about cats, respond in JSON with setup and punchline keys". W przeciwnym razie może nie być odpowiedzi, co skutkuje błędem 400 status code (no body).
  • Odpowiedź będzie ciągiem znaków JSON. Użytkownik musi ją przetworzyć za pomocą innych węzłów przepływu pracy, aby móc wykorzystać jej ustrukturyzowaną zawartość. Mogą Państwo również skorzystać z funkcji Wyjście strukturalne.

#Wiadomości

Tablica wiadomości wysyłanych do modelu LLM może zawierać zestaw wiadomości historycznych. Wiadomości obsługują trzy typy:

  • System – Zazwyczaj używany do definiowania roli i zachowania modelu LLM w rozmowie.
  • Użytkownik – Treść wprowadzona przez użytkownika.
  • Asystent – Treść odpowiedzi modelu.

W przypadku wiadomości użytkownika, o ile model to obsługuje, mogą Państwo dodać wiele treści w jednym zapytaniu (prompt), odpowiadających parametrowi content. Jeśli używany model obsługuje parametr content tylko w formie ciągu znaków (co dotyczy większości modeli, które nie wspierają rozmów multimodalnych), proszę podzielić wiadomość na wiele zapytań, z których każde będzie zawierać tylko jedną treść. W ten sposób węzeł wyśle treść jako ciąg znaków.

W treści wiadomości mogą Państwo używać zmiennych do odwoływania się do kontekstu przepływu pracy.

#Wykorzystanie treści odpowiedzi węzła LLM

Mogą Państwo wykorzystać treść odpowiedzi węzła LLM jako zmienną w innych węzłach.