logologo
Начало
Руководство
Разработка
Плагины
API
English
简体中文
日本語
한국어
Deutsch
Français
Español
Português
Русский
Italiano
Türkçe
Українська
Tiếng Việt
Bahasa Indonesia
ไทย
Polski
Nederlands
Čeština
العربية
עברית
हिन्दी
Svenska
Начало
Руководство
Разработка
Плагины
API
logologo
Обзор

Быстрый старт

Настройка сервисов LLM
Создание AI-сотрудников
Совместная работа с AI-сотрудниками

Встроенные AI-сотрудники

Обзор
Viz: Аналитик инсайтов
Orin: Эксперт по моделированию данных
Dex: Эксперт по обработке данных
Nathan: Frontend-разработчик

Продвинутый уровень

Выбор блока
Источники данных
Навыки
Задачи
Поиск в интернете
Контроль доступа
Управление файлами

Рабочие процессы

Узел LLM

Текстовый диалог
Мультимодальный диалог
Структурированный вывод

База знаний AI

Обзор
Векторная база данных
Векторное хранилище
База знаний
RAG

Документация по применению

Сценарии

Viz: Настройка сценария CRM

Настройки

Настройки администратора
Руководство по промптам
Previous PageУправление файлами
Next PageМультимодальный диалог
Уведомление о переводе ИИ

Эта документация была автоматически переведена ИИ.

#Текстовый чат

This feature is provided by the plugin «AI сотрудники»

#Введение

Используя LLM-узел в рабочем процессе, вы можете начать диалог с онлайн-сервисом LLM, задействуя возможности больших моделей для автоматизации различных бизнес-процессов.

#Создание LLM-узла

Поскольку взаимодействие с LLM-сервисами обычно занимает много времени, LLM-узел можно использовать только в асинхронных рабочих процессах.

#Выбор модели

Сначала выберите подключенный LLM-сервис. Если вы ещё не подключили ни один LLM-сервис, вам потребуется сначала добавить его конфигурацию. Подробнее: Управление LLM-сервисами

После выбора сервиса приложение попытается получить список доступных моделей из LLM-сервиса, чтобы вы могли выбрать нужную. Некоторые онлайн-сервисы LLM могут использовать API для получения моделей, которые не соответствуют стандартным протоколам. В таких случаях вы также можете ввести ID модели вручную.

#Настройка параметров вызова

Вы можете настроить параметры для вызова LLM-модели по мере необходимости.

#Формат ответа (Response format)

Особое внимание стоит уделить настройке Формат ответа (Response format). Эта опция используется для указания большой модели, в каком формате должен быть её ответ: текст или JSON. Если вы выбрали режим JSON, учтите следующее:

  • Соответствующая LLM-модель должна поддерживать вызов в режиме JSON. Кроме того, вам необходимо явно указать LLM в промпте, чтобы она отвечала в формате JSON, например: "Tell me a joke about cats, respond in JSON with `setup` and `punchline` keys". В противном случае ответ может отсутствовать, и вы получите ошибку 400 status code (no body).
  • Ответ будет представлять собой JSON-строку. Чтобы использовать её структурированное содержимое, вам потребуется сначала разобрать её с помощью других узлов рабочего процесса. Вы также можете воспользоваться функцией Структурированный вывод.

#Сообщения

Массив сообщений, отправляемых LLM-модели, может включать набор исторических сообщений. Сообщения поддерживают три типа:

  • System (Система) — обычно используется для определения роли и поведения LLM-модели в диалоге.
  • User (Пользователь) — содержимое, введённое пользователем.
  • Assistant (Ассистент) — содержимое, сгенерированное моделью в ответ.

Для пользовательских сообщений, при условии поддержки моделью, вы можете добавить несколько фрагментов содержимого в один промпт, что соответствует параметру content. Если используемая вами модель поддерживает параметр content только в виде строки (это относится к большинству моделей, не поддерживающих мультимодальные диалоги), пожалуйста, разделите сообщение на несколько промптов, каждый из которых содержит только один фрагмент содержимого. Таким образом, узел отправит содержимое в виде строки.

В содержимом сообщений вы можете использовать переменные для ссылки на контекст рабочего процесса.

#Использование содержимого ответа LLM-узла

Вы можете использовать содержимое ответа LLM-узла в качестве переменной в других узлах.