logologo
Começar
Manual
Desenvolvimento
Plugins
API
Início
English
简体中文
日本語
한국어
Español
Português
Deutsch
Français
Русский
Italiano
Türkçe
Українська
Tiếng Việt
Bahasa Indonesia
ไทย
Polski
Nederlands
Čeština
العربية
עברית
हिन्दी
Svenska
Começar
Manual
Desenvolvimento
Plugins
API
Início
logologo
Visão Geral
Início Rápido

Recursos

Configurar serviço de LLM
Habilitar funcionários de IA
Colaborar com funcionários de IA
Adicionar contexto - Blocos
Pesquisa na web
Usar habilidades
Tarefas de atalho
Funcionários de IA integrados
Novo funcionário de IA
Controle de permissões
Gerenciamento de arquivos

Base de conhecimento de IA

Visão Geral
Banco de dados vetorial
Armazenamento vetorial
Base de conhecimento
RAG

Fluxo de trabalho

Nós de LLM

Chat de texto
Chat multimodal
Saída estruturada

Práticas de aplicação

Viz: Configuração de cenário de CRM
Guia de engenharia de prompt
Previous PageRAG
Next PageChat multimodal
Aviso de tradução por IA

Este documento foi traduzido por IA. Para informações precisas, consulte a versão em inglês.

#Diálogo de Texto

Funcionários de IACommunity Edition+

#Introdução

O uso do nó LLM do fluxo de trabalho permite iniciar diálogos com serviços de LLM online, aproveitando as capacidades dos grandes modelos para auxiliar na conclusão de uma série de processos de negócio.

#Novo nó LLM

Como o diálogo com serviços de LLM geralmente é demorado, o nó LLM só pode ser usado em fluxos de trabalho assíncronos.

#Selecionar modelo

Primeiro, selecione um serviço de LLM já conectado. Se ainda não houver um serviço de LLM conectado, você precisará adicionar uma configuração de serviço de LLM primeiro. Referência: Gerenciamento de serviço LLM

Após selecionar o serviço, o aplicativo tentará obter a lista de modelos disponíveis do serviço de LLM para escolha. Como as interfaces de obtenção de modelos de alguns serviços de LLM online podem não seguir o protocolo de API padrão, o usuário também pode inserir manualmente o ID do modelo.

#Configurar parâmetros de chamada

Você pode ajustar os parâmetros de chamada do modelo LLM conforme necessário.

#Response format

Vale notar a configuração Response format, que é usada para indicar o formato do conteúdo da resposta do grande modelo, podendo ser texto ou JSON. Se o modo JSON for selecionado, observe que:

  • O modelo LLM correspondente deve suportar chamadas em modo JSON e, ao mesmo tempo, você deve solicitar explicitamente no Prompt que o LLM responda em formato JSON, por exemplo: "Tell me a joke about cats, respond in JSON with `setup` and `punchline` keys". Caso contrário, pode não haver resultado na resposta, gerando o erro 400 status code (no body).
  • O resultado da resposta é uma string JSON; você precisará usar as capacidades de outros nós do fluxo de trabalho para analisá-la antes de usar o conteúdo estruturado. Você também pode usar a função de Saída estruturada.

#Mensagens

Um array de mensagens enviadas ao modelo LLM, que pode conter um conjunto de mensagens históricas. As mensagens suportam três tipos:

  • System - Geralmente usado para definir o papel e o comportamento que o modelo LLM desempenha no diálogo.
  • User - Conteúdo inserido pelo usuário.
  • Assistant - Conteúdo da resposta do modelo.

Para mensagens do usuário, desde que o modelo suporte, você pode adicionar vários conteúdos em um único prompt, correspondendo ao parâmetro content. Se o modelo utilizado suportar apenas o parâmetro content em formato de string (a maioria dos modelos que não suportam diálogos multimodais pertence a esta categoria), divida a mensagem em vários prompts, mantendo apenas um conteúdo em cada prompt; assim, o nó enviará o conteúdo em formato de string.

Você pode usar variáveis no conteúdo da mensagem para referenciar o contexto do fluxo de trabalho.

#Usar o conteúdo da resposta do nó LLM

O conteúdo da resposta do nó LLM pode ser usado como variável em outros nós.