このドキュメントはAIによって翻訳されました。不正確な情報については、英語版をご参照ください
ワークフローのLLMノードを使用すると、オンラインのLLMサービスと会話を開始し、大規模モデルの能力を活用して一連のビジネスプロセスを支援できます。

LLMサービスとの会話は一般的に時間がかかるため、LLMノードは非同期ワークフローでのみ使用可能です。

まず、接続済みのLLMサービスを選択します。まだLLMサービスが接続されていない場合は、先にLLMサービスの設定を追加する必要があります。参照:LLM サービス管理
サービスを選択すると、アプリケーションはLLMサービスから利用可能なモデルのリストを取得し、選択肢として表示します。一部のオンラインLLMサービスでは、モデル取得用のAPIが標準のAPIプロトコルに準拠していない場合があります。その場合、ユーザーは手動でモデルIDを入力することもできます。

必要に応じて、LLMモデルを呼び出すためのパラメーターを調整できます。

特に注目すべきは、レスポンスフォーマットの設定です。この設定項目は、大規模モデルにレスポンスの内容形式(テキストまたはJSON)を指示するために使用されます。JSONモードを選択した場合、以下の点に注意してください。
LLMモデルに送信されるメッセージの配列には、一連の履歴メッセージを含めることができます。メッセージは以下の3つのタイプをサポートしています。
ユーザーメッセージについては、モデルがサポートしている場合、`content`パラメーターに対応する複数の内容を1つのプロンプトに追加できます。使用しているモデルが`content`パラメーターを文字列形式でのみサポートしている場合(ほとんどのマルチモーダル会話をサポートしないモデルがこれに該当します)、メッセージを複数のプロンプトに分割し、各プロンプトに1つの内容のみを含めてください。これにより、ノードは内容を文字列として送信します。

メッセージの内容では、ワークフローのコンテキストを参照するために変数を使用できます。

LLMノードの応答内容を、他のノードで変数として使用できます。
