Esta documentação foi traduzida automaticamente por IA.
Usando o nó LLM em um fluxo de trabalho, você pode iniciar uma conversa com um serviço LLM online, aproveitando as capacidades de grandes modelos para auxiliar na conclusão de uma série de processos de negócios.

Como as conversas com serviços LLM são frequentemente demoradas, o nó LLM só pode ser usado em fluxos de trabalho assíncronos.

Primeiro, selecione um serviço LLM conectado. Se nenhum serviço LLM estiver conectado ainda, você precisará adicionar uma configuração de serviço LLM primeiro. Consulte: Gerenciamento de Serviço LLM
Após selecionar um serviço, o aplicativo tentará recuperar uma lista de modelos disponíveis do serviço LLM para você escolher. Alguns serviços LLM online podem ter APIs para buscar modelos que não estão em conformidade com os protocolos de API padrão; nesses casos, você também pode inserir manualmente o ID do modelo.

Você pode ajustar os parâmetros para chamar o modelo LLM conforme necessário.

É importante notar a configuração de Response format. Esta opção é usada para indicar ao modelo grande o formato de sua resposta, que pode ser texto ou JSON. Se você selecionar o modo JSON, esteja ciente do seguinte:
O array de mensagens enviadas ao modelo LLM pode incluir um conjunto de mensagens históricas. As mensagens suportam três tipos:
Para mensagens de usuário, desde que o modelo suporte, você pode adicionar várias partes de conteúdo em um único prompt, correspondendo ao parâmetro content. Se o modelo que você está usando suportar apenas o parâmetro content como uma string (o que é o caso da maioria dos modelos que não suportam conversas multimodais), divida a mensagem em vários prompts, com cada prompt contendo apenas uma parte do conteúdo. Dessa forma, o nó enviará o conteúdo como uma string.

Você pode usar variáveis no conteúdo da mensagem para referenciar o contexto do fluxo de trabalho.

Você pode usar o conteúdo da resposta do nó LLM como uma variável em outros nós.
