Ця документація була автоматично перекладена штучним інтелектом.
Використовуючи LLM-вузол у робочому процесі, ви можете розпочати розмову з онлайн-сервісом LLM, залучаючи можливості великих моделей для допомоги у виконанні низки бізнес-процесів.

Оскільки розмови з LLM-сервісами часто займають багато часу, LLM-вузол можна використовувати лише в асинхронних робочих процесах.

Спершу оберіть підключений LLM-сервіс. Якщо жоден LLM-сервіс ще не підключено, вам потрібно спочатку додати його конфігурацію. Дивіться: Керування LLM-сервісами
Після вибору сервісу програма спробує отримати список доступних моделей з LLM-сервісу для вашого вибору. Деякі онлайн-сервіси LLM можуть мати API для отримання моделей, які не відповідають стандартним протоколам API; у таких випадках користувачі також можуть ввести ID моделі вручну.

Ви можете налаштувати параметри для виклику LLM-моделі за потреби.

Варто звернути увагу на налаштування Response format. Цей параметр використовується для вказівки великій моделі формату її відповіді, яка може бути текстовою або JSON. Якщо ви обрали режим JSON, зверніть увагу на наступне:
Масив повідомлень, що надсилаються LLM-моделі, може містити набір історичних повідомлень. Повідомлення підтримують три типи:
Для повідомлень користувача, за умови підтримки моделлю, ви можете додати кілька частин вмісту в одному промпті, що відповідає параметру `content`. Якщо модель, яку ви використовуєте, підтримує параметр `content` лише у вигляді рядка (до цієї категорії належить більшість моделей, що не підтримують мультимодальні розмови), будь ласка, розділіть повідомлення на кілька промптів, кожен з яких містить лише одну частину вмісту. Таким чином, вузол надішле вміст як рядок.

У вмісті повідомлень ви можете використовувати змінні для посилання на контекст робочого процесу.

Ви можете використовувати вміст відповіді LLM-вузла як змінну в інших вузлах.
