Этот документ был переведён с помощью ИИ. Для получения точной информации обратитесь к английской версии.
Используя LLM-узел рабочего процесса, вы можете инициировать диалог с онлайн-сервисом LLM, задействуя возможности больших моделей для помощи в выполнении ряда бизнес-процессов.

Поскольку диалог с LLM-сервисом обычно занимает много времени, LLM-узел можно использовать только в асинхронных рабочих процессах.

Сначала выберите подключенный LLM-сервис. Если вы еще не подключили LLM-сервис, необходимо сначала добавить конфигурацию LLM-сервиса. См.: Управление LLM-сервисами
После выбора сервиса приложение попытается получить список доступных моделей из LLM-сервиса для выбора. Интерфейсы получения моделей некоторых онлайн-сервисов LLM могут не соответствовать стандартному протоколу API, поэтому пользователи также могут ввести ID модели вручную.

Вы можете настроить параметры вызова LLM-модели по мере необходимости.

Среди них стоит обратить внимание на настройку Response format, которая используется для указания формату содержимого ответа большой модели: это может быть текст или JSON. Если выбран режим JSON, следует учесть:
400 status code (no body).Массив сообщений, отправляемых LLM-модели, может содержать набор исторических сообщений. Сообщения поддерживают три типа:
Для пользовательских сообщений, при условии поддержки моделью, в одну подсказку можно добавить несколько элементов содержимого, что соответствует параметру content. Если используемая модель поддерживает параметр content только в виде строки (к этой категории относится большинство моделей, не поддерживающих мультимодальные диалоги), разделите сообщение на несколько подсказок, оставив в каждой только один элемент содержимого — так узел отправит содержимое в виде строки.

В содержимом сообщений можно использовать переменные для ссылки на контекст рабочего процесса.

Содержимое ответа LLM-узла можно использовать в качестве переменной в других узлах.
