logologo
开始
手册
开发
插件
API
首页
English
简体中文
日本語
한국어
Español
Português
Deutsch
Français
Русский
Italiano
Türkçe
Українська
Tiếng Việt
Bahasa Indonesia
ไทย
Polski
Nederlands
Čeština
العربية
עברית
हिन्दी
Svenska
开始
手册
开发
插件
API
首页
logologo
概述
快速开始

功能介绍

配置 LLM 服务
启用 AI 员工
与 AI 员工协作
添加上下文 - 区块
使用技能
快捷任务
联网搜索
新建 AI 员工
内置 AI 员工
权限控制
文件管理

AI 知识库

概述
向量数据库
向量存储
知识库
RAG

工作流

LLM节点

文本对话
多模态对话
结构化输出

应用实践

场景

Viz:CRM 场景配置

配置

管理员配置
提示词指南
Previous PageRAG
Next Page多模态对话

#文本对话

#介绍

使用工作流的 LLM 节点可以与在线 LLM 服务发起对话,利用大模型的能力来辅助完成一系列业务流程。

#新建 LLM 节点

由于与 LLM 服务对话通常比较耗时,LLM 节点只能在异步工作流中使用。

#选择模型

首先选择已接入的 LLM 服务,如果还没有接入 LLM 服务,则需要先添加 LLM 服务配置。参考:LLM 服务管理

选择服务以后,应用会尝试从 LLM 服务获取可用模型列表供选择。部分 LLM 在线服务获取模型的接口可能不符合标准 API 协议,用户也可以手动输入模型 id.

#设置调用参数

可以按需调整调用 LLM 模型的参数。

#Response format

其中值得注意的是 Response format 设置,该设置项用于提示大模型响应的内容格式,可以是文本或 JSON. 如果选择了 JSON 模式,需要注意:

  • 对应的 LLM 模型需要支持以 JSON 模式调用,同时用户需要在 Prompt 中明确提示 LLM 响应 JSON 格式,例如: "Tell me a joke about cats, respond in JSON with `setup` and `punchline` keys". 否则可能没有响应结果,报错 400 status code (no body).
  • 响应结果是一个 JSON 字符串,用户需要利用工作流其他节点的能力解析后,才能使用其中的结构化内容。也可以使用 结构化输出 功能。

#消息

发送给 LLM 模型的消息数组,可以包含一组历史消息。其中消息支持三种类型:

  • System - 通常用于定义在对话中 LLM 模型扮演的角色和行为。
  • User - 用户输入的内容。
  • Assistant - 模型响应的内容。

对于用户消息,在模型支持的前提下,可以在一个提示中添加多条内容,对应 content 参数。如果所使用的模型仅支持字符串形式的 content 参数(绝大多数不支持多模态对话的模型属于此类),请将消息拆分成多个提示,每个提示仅保留一个内容,这样节点会将内容以字符串的形式发送。

在消息内容中可以使用变量来引用工作流的上下文。

#使用 LLM 节点的响应内容

可以将 LLM 节点的响应内容作为变量在其他节点中使用。