logologo
Začínáme
Manuál
Vývoj
Pluginy
API
Domů
English
简体中文
日本語
한국어
Español
Português
Deutsch
Français
Русский
Italiano
Türkçe
Українська
Tiếng Việt
Bahasa Indonesia
ไทย
Polski
Nederlands
Čeština
العربية
עברית
हिन्दी
Svenska
Začínáme
Manuál
Vývoj
Pluginy
API
Domů
logologo
Přehled
Rychlý start

Funkce

Konfigurace služby LLM
Povolení AI zaměstnanců
Spolupráce s AI zaměstnanci
Přidání kontextu – bloky
Vyhledávání na webu
Používání dovedností
Rychlé úkoly
Vestavění AI zaměstnanci
Nový AI zaměstnanec
Řízení oprávnění
Správa souborů

AI znalostní báze

Přehled
Vektorová databáze
Vektorové úložiště
Znalostní báze
RAG

Pracovní postup

LLM uzly

Textový chat
Multimodální chat
Strukturovaný výstup

Aplikační praxe

Viz: Konfigurace CRM scénáře
Průvodce prompty
Previous PageRAG
Next PageMultimodální chat
Upozornění na AI překlad

Tento dokument byl přeložen pomocí AI. Pro přesné informace se podívejte na anglickou verzi.

#Textová konverzace

AI zaměstnanecCommunity Edition+

#Úvod

Pomocí LLM uzlu v pracovním postupu můžete zahájit konverzaci s online službou LLM a využít schopnosti velkých modelů k asistenci při dokončování řady obchodních procesů.

#Vytvoření nového LLM uzlu

Protože konverzace se službou LLM obvykle trvá delší dobu, lze LLM uzel použít pouze v asynchronních pracovních postupech.

#Výběr modelu

Nejprve vyberte již připojenou službu LLM. Pokud ještě nemáte připojenou žádnou službu LLM, musíte nejprve přidat konfiguraci služby LLM. Viz: Správa služeb LLM

Po výběru služby se aplikace pokusí získat seznam dostupných modelů ze služby LLM pro výběr. Rozhraní některých online služeb LLM pro získávání modelů nemusí odpovídat standardním API protokolům, uživatelé mohou také ručně zadat ID modelu.

#Nastavení parametrů volání

Parametry volání LLM modelu můžete upravit podle potřeby.

#Response format

Za zmínku stojí nastavení Response format, které slouží k určení formátu obsahu odpovědi velkého modelu, což může být text nebo JSON. Pokud zvolíte režim JSON, je třeba vzít v úvahu:

  • Odpovídající LLM model musí podporovat volání v režimu JSON a zároveň musí uživatel v Promptu jasně instruovat LLM k odpovědi ve formátu JSON, například: "Tell me a joke about cats, respond in JSON with `setup` and `punchline` keys". V opačném případě nemusí dojít k žádné odpovědi a zobrazí se chyba 400 status code (no body).
  • Výsledek odpovědi je JSON řetězec, který musí uživatel analyzovat pomocí schopností jiných uzlů pracovního postupu, než bude moci použít jeho strukturovaný obsah. Můžete také použít funkci Strukturovaný výstup.

#Zprávy

Pole zpráv odesílaných LLM modelu, které může obsahovat sadu historických zpráv. Zprávy podporují tři typy:

  • System – Obvykle se používá k definování role a chování LLM modelu v konverzaci.
  • User – Obsah zadaný uživatelem.
  • Assistant – Obsah, kterým model odpověděl.

U uživatelských zpráv můžete, pokud to model podporuje, přidat do jednoho promptu více položek obsahu, což odpovídá parametru content. Pokud používaný model podporuje pouze parametr content ve formě řetězce (což je případ většiny modelů, které nepodporují multimodální konverzace), rozdělte prosím zprávu do více promptů, přičemž každý prompt bude obsahovat pouze jednu položku obsahu. Tímto způsobem uzel odešle obsah jako řetězec.

V obsahu zprávy můžete použít proměnné k odkazování na kontext pracovního postupu.

#Použití obsahu odpovědi LLM uzlu

Obsah odpovědi LLM uzlu můžete použít jako proměnnou v jiných uzlech.