logologo
Start
Handbuch
Entwickler
Plugins
API
English
简体中文
日本語
한국어
Deutsch
Français
Español
Português
Русский
Italiano
Türkçe
Українська
Tiếng Việt
Bahasa Indonesia
ไทย
Polski
Nederlands
Čeština
العربية
עברית
हिन्दी
Svenska
Start
Handbuch
Entwickler
Plugins
API
logologo
Überblick

Schnellstart

LLM-Dienste konfigurieren
KI-Mitarbeiter erstellen
Mit KI-Mitarbeitern zusammenarbeiten

Integrierte KI-Mitarbeiter

Überblick
Viz: Insight-Analyst
Orin: Datenmodellierungs-Experte
Dex: Datenbereinigungs-Experte
Nathan: Frontend-Entwickler

Erweitert

Blöcke auswählen
Datenquellen
Fähigkeiten
Aufgaben
Websuche
Zugriffskontrolle
Dateiverwaltung

Workflow

LLM-Knoten

Text-Chat
Multimodaler Chat
Strukturierte Ausgabe

KI-Wissensdatenbank

Überblick
Vektordatenbank
Vektorspeicher
Wissensdatenbank
RAG

Anwendungsdokumentation

Szenarien

Viz: CRM-Szenario-Konfiguration

Konfiguration

Admin-Konfiguration
Prompt-Leitfaden
Previous PageDateiverwaltung
Next PageMultimodaler Chat
KI-Übersetzungshinweis

Diese Dokumentation wurde automatisch von KI übersetzt.

#Text-Chat

This feature is provided by the plugin «KI-Mitarbeiter»

#Einführung

Mit dem LLM-Knoten in einem Workflow können Sie eine Konversation mit einem Online-LLM-Dienst starten. So nutzen Sie die Fähigkeiten großer Modelle, um eine Reihe von Geschäftsprozessen zu unterstützen.

#LLM-Knoten erstellen

Da Konversationen mit LLM-Diensten oft zeitaufwendig sind, kann der LLM-Knoten nur in asynchronen Workflows verwendet werden.

#Modell auswählen

Wählen Sie zunächst einen verbundenen LLM-Dienst aus. Falls noch kein LLM-Dienst verbunden ist, müssen Sie zuerst eine LLM-Dienstkonfiguration hinzufügen. Siehe: LLM-Dienstverwaltung

Nachdem Sie einen Dienst ausgewählt haben, versucht die Anwendung, eine Liste der verfügbaren Modelle vom LLM-Dienst abzurufen, damit Sie diese auswählen können. Einige Online-LLM-Dienste verfügen möglicherweise über APIs zum Abrufen von Modellen, die nicht den Standard-API-Protokollen entsprechen; in solchen Fällen können Benutzer die Modell-ID auch manuell eingeben.

#Aufrufparameter festlegen

Sie können die Parameter für den Aufruf des LLM-Modells nach Bedarf anpassen.

#Response format

Besonders hervorzuheben ist die Einstellung Response format. Diese Option wird verwendet, um dem großen Modell das Format seiner Antwort vorzugeben, welche Text oder JSON sein kann. Wenn Sie den JSON-Modus wählen, beachten Sie bitte Folgendes:

  • Das entsprechende LLM-Modell muss den Aufruf im JSON-Modus unterstützen. Zusätzlich muss der Benutzer das LLM im Prompt explizit dazu auffordern, im JSON-Format zu antworten, zum Beispiel: „Tell me a joke about cats, respond in JSON with setup and punchline keys“. Andernfalls gibt es möglicherweise keine Antwort, was zu einem Fehler 400 status code (no body) führen kann.
  • Die Antwort ist ein JSON-String. Der Benutzer muss diesen mithilfe der Funktionen anderer Workflow-Knoten parsen, um dessen strukturierte Inhalte nutzen zu können. Sie können auch die Funktion Strukturierte Ausgabe verwenden.

#Nachrichten

Das Array von Nachrichten, das an das LLM-Modell gesendet wird, kann eine Reihe von Verlaufsnachrichten enthalten. Nachrichten unterstützen drei Typen:

  • System – Wird normalerweise verwendet, um die Rolle und das Verhalten des LLM-Modells in der Konversation zu definieren.
  • User – Der vom Benutzer eingegebene Inhalt.
  • Assistant – Der vom Modell beantwortete Inhalt.

Für Benutzernachrichten können Sie, sofern das Modell dies unterstützt, mehrere Inhalte in einem einzigen Prompt hinzufügen, die dem Parameter content entsprechen. Wenn das von Ihnen verwendete Modell den Parameter content nur als String unterstützt (was bei den meisten Modellen der Fall ist, die keine multimodalen Konversationen unterstützen), teilen Sie die Nachricht bitte in mehrere Prompts auf, wobei jeder Prompt nur einen Inhalt enthält. Auf diese Weise sendet der Knoten den Inhalt als String.

Im Nachrichteninhalt können Sie Variablen verwenden, um auf den Workflow-Kontext zu verweisen.

#Verwenden des Antwortinhalts des LLM-Knotens

Sie können den Antwortinhalt des LLM-Knotens als Variable in anderen Knoten verwenden.