logologo
Начало
Руководство
Разработка
Плагины
API
Главная
English
简体中文
日本語
한국어
Español
Português
Deutsch
Français
Русский
Italiano
Türkçe
Українська
Tiếng Việt
Bahasa Indonesia
ไทย
Polski
Nederlands
Čeština
العربية
עברית
हिन्दी
Svenska
Начало
Руководство
Разработка
Плагины
API
Главная
logologo
Обзор
Быстрый старт

Возможности

Настройка LLM-сервиса
Включение AI-сотрудников
Сотрудничество с AI-сотрудниками
Добавление контекста — Блоки
Поиск в интернете
Использование навыков
Быстрые задачи
Встроенные AI-сотрудники
Создание AI-сотрудников
Контроль доступа
Управление файлами

База знаний AI

Обзор
Векторная база данных
Векторное хранилище
База знаний
RAG

Рабочий процесс

Узлы LLM

Текстовый чат
Мультимодальный чат
Структурированный вывод

Практика применения

Viz: Настройка сценария CRM
Руководство по промптам
Previous PageRAG
Next PageМультимодальный чат
Уведомление об ИИ-переводе

Этот документ был переведён с помощью ИИ. Для получения точной информации обратитесь к английской версии.

#Текстовый диалог

AI-сотрудникиCommunity Edition+

#Введение

Используя LLM-узел рабочего процесса, вы можете инициировать диалог с онлайн-сервисом LLM, задействуя возможности больших моделей для помощи в выполнении ряда бизнес-процессов.

#Создание LLM-узла

Поскольку диалог с LLM-сервисом обычно занимает много времени, LLM-узел можно использовать только в асинхронных рабочих процессах.

#Выбор модели

Сначала выберите подключенный LLM-сервис. Если вы еще не подключили LLM-сервис, необходимо сначала добавить конфигурацию LLM-сервиса. См.: Управление LLM-сервисами

После выбора сервиса приложение попытается получить список доступных моделей из LLM-сервиса для выбора. Интерфейсы получения моделей некоторых онлайн-сервисов LLM могут не соответствовать стандартному протоколу API, поэтому пользователи также могут ввести ID модели вручную.

#Настройка параметров вызова

Вы можете настроить параметры вызова LLM-модели по мере необходимости.

#Response format

Среди них стоит обратить внимание на настройку Response format, которая используется для указания формату содержимого ответа большой модели: это может быть текст или JSON. Если выбран режим JSON, следует учесть:

  • Соответствующая LLM-модель должна поддерживать вызов в режиме JSON, при этом пользователю необходимо явно указать в Prompt, чтобы LLM ответила в формате JSON, например: "Tell me a joke about cats, respond in JSON with `setup` and `punchline` keys". В противном случае ответ может отсутствовать, и возникнет ошибка 400 status code (no body).
  • Результат ответа представляет собой JSON-строку. Пользователю необходимо использовать возможности других узлов рабочего процесса для ее парсинга, прежде чем можно будет использовать структурированное содержимое. Также можно воспользоваться функцией Структурированный вывод.

#Сообщения

Массив сообщений, отправляемых LLM-модели, может содержать набор исторических сообщений. Сообщения поддерживают три типа:

  • System — обычно используется для определения роли и поведения LLM-модели в диалоге.
  • User — содержимое, введенное пользователем.
  • Assistant — содержимое ответа модели.

Для пользовательских сообщений, при условии поддержки моделью, в одну подсказку можно добавить несколько элементов содержимого, что соответствует параметру content. Если используемая модель поддерживает параметр content только в виде строки (к этой категории относится большинство моделей, не поддерживающих мультимодальные диалоги), разделите сообщение на несколько подсказок, оставив в каждой только один элемент содержимого — так узел отправит содержимое в виде строки.

В содержимом сообщений можно использовать переменные для ссылки на контекст рабочего процесса.

#Использование содержимого ответа LLM-узла

Содержимое ответа LLM-узла можно использовать в качестве переменной в других узлах.