Эта документация была автоматически переведена ИИ.
Используя LLM-узел в рабочем процессе, вы можете начать диалог с онлайн-сервисом LLM, задействуя возможности больших моделей для автоматизации различных бизнес-процессов.

Поскольку взаимодействие с LLM-сервисами обычно занимает много времени, LLM-узел можно использовать только в асинхронных рабочих процессах.

Сначала выберите подключенный LLM-сервис. Если вы ещё не подключили ни один LLM-сервис, вам потребуется сначала добавить его конфигурацию. Подробнее: Управление LLM-сервисами
После выбора сервиса приложение попытается получить список доступных моделей из LLM-сервиса, чтобы вы могли выбрать нужную. Некоторые онлайн-сервисы LLM могут использовать API для получения моделей, которые не соответствуют стандартным протоколам. В таких случаях вы также можете ввести ID модели вручную.

Вы можете настроить параметры для вызова LLM-модели по мере необходимости.

Особое внимание стоит уделить настройке Формат ответа (Response format). Эта опция используется для указания большой модели, в каком формате должен быть её ответ: текст или JSON. Если вы выбрали режим JSON, учтите следующее:
400 status code (no body).Массив сообщений, отправляемых LLM-модели, может включать набор исторических сообщений. Сообщения поддерживают три типа:
Для пользовательских сообщений, при условии поддержки моделью, вы можете добавить несколько фрагментов содержимого в один промпт, что соответствует параметру content. Если используемая вами модель поддерживает параметр content только в виде строки (это относится к большинству моделей, не поддерживающих мультимодальные диалоги), пожалуйста, разделите сообщение на несколько промптов, каждый из которых содержит только один фрагмент содержимого. Таким образом, узел отправит содержимое в виде строки.

В содержимом сообщений вы можете использовать переменные для ссылки на контекст рабочего процесса.

Вы можете использовать содержимое ответа LLM-узла в качестве переменной в других узлах.
