Tento dokument byl přeložen pomocí AI. Pro přesné informace se podívejte na anglickou verzi.
Pomocí LLM uzlu v pracovním postupu můžete zahájit konverzaci s online službou LLM a využít schopnosti velkých modelů k asistenci při dokončování řady obchodních procesů.

Protože konverzace se službou LLM obvykle trvá delší dobu, lze LLM uzel použít pouze v asynchronních pracovních postupech.

Nejprve vyberte již připojenou službu LLM. Pokud ještě nemáte připojenou žádnou službu LLM, musíte nejprve přidat konfiguraci služby LLM. Viz: Správa služeb LLM
Po výběru služby se aplikace pokusí získat seznam dostupných modelů ze služby LLM pro výběr. Rozhraní některých online služeb LLM pro získávání modelů nemusí odpovídat standardním API protokolům, uživatelé mohou také ručně zadat ID modelu.

Parametry volání LLM modelu můžete upravit podle potřeby.

Za zmínku stojí nastavení Response format, které slouží k určení formátu obsahu odpovědi velkého modelu, což může být text nebo JSON. Pokud zvolíte režim JSON, je třeba vzít v úvahu:
400 status code (no body).Pole zpráv odesílaných LLM modelu, které může obsahovat sadu historických zpráv. Zprávy podporují tři typy:
U uživatelských zpráv můžete, pokud to model podporuje, přidat do jednoho promptu více položek obsahu, což odpovídá parametru content. Pokud používaný model podporuje pouze parametr content ve formě řetězce (což je případ většiny modelů, které nepodporují multimodální konverzace), rozdělte prosím zprávu do více promptů, přičemž každý prompt bude obsahovat pouze jednu položku obsahu. Tímto způsobem uzel odešle obsah jako řetězec.

V obsahu zprávy můžete použít proměnné k odkazování na kontext pracovního postupu.

Obsah odpovědi LLM uzlu můžete použít jako proměnnou v jiných uzlech.
