Este documento foi traduzido por IA. Para informações precisas, consulte a versão em inglês.
O uso do nó LLM do fluxo de trabalho permite iniciar diálogos com serviços de LLM online, aproveitando as capacidades dos grandes modelos para auxiliar na conclusão de uma série de processos de negócio.

Como o diálogo com serviços de LLM geralmente é demorado, o nó LLM só pode ser usado em fluxos de trabalho assíncronos.

Primeiro, selecione um serviço de LLM já conectado. Se ainda não houver um serviço de LLM conectado, você precisará adicionar uma configuração de serviço de LLM primeiro. Referência: Gerenciamento de serviço LLM
Após selecionar o serviço, o aplicativo tentará obter a lista de modelos disponíveis do serviço de LLM para escolha. Como as interfaces de obtenção de modelos de alguns serviços de LLM online podem não seguir o protocolo de API padrão, o usuário também pode inserir manualmente o ID do modelo.

Você pode ajustar os parâmetros de chamada do modelo LLM conforme necessário.

Vale notar a configuração Response format, que é usada para indicar o formato do conteúdo da resposta do grande modelo, podendo ser texto ou JSON. Se o modo JSON for selecionado, observe que:
400 status code (no body).Um array de mensagens enviadas ao modelo LLM, que pode conter um conjunto de mensagens históricas. As mensagens suportam três tipos:
Para mensagens do usuário, desde que o modelo suporte, você pode adicionar vários conteúdos em um único prompt, correspondendo ao parâmetro content. Se o modelo utilizado suportar apenas o parâmetro content em formato de string (a maioria dos modelos que não suportam diálogos multimodais pertence a esta categoria), divida a mensagem em vários prompts, mantendo apenas um conteúdo em cada prompt; assim, o nó enviará o conteúdo em formato de string.

Você pode usar variáveis no conteúdo da mensagem para referenciar o contexto do fluxo de trabalho.

O conteúdo da resposta do nó LLM pode ser usado como variável em outros nós.
