logologo
Começar
Manual
Desenvolvimento
Plugins
API
English
简体中文
日本語
한국어
Deutsch
Français
Español
Português
Русский
Italiano
Türkçe
Українська
Tiếng Việt
Bahasa Indonesia
ไทย
Polski
Nederlands
Čeština
العربية
עברית
हिन्दी
Svenska
Começar
Manual
Desenvolvimento
Plugins
API
logologo
Visão Geral

Início Rápido

Configurar Serviço LLM
Criar Colaborador de IA
Colaborar com Colaborador de IA

Colaboradores de IA Integrados

Visão Geral
Viz: Analista de Insights
Orin: Especialista em Modelagem de Dados
Dex: Especialista em Tratamento de Dados
Nathan: Engenheiro de Frontend

Avançado

Selecionar Bloco
Fontes de Dados
Habilidades
Tarefas
Pesquisa na Web
Controle de Permissões
Gerenciamento de Arquivos

Fluxo de Trabalho

Nó LLM

Chat de Texto
Chat Multimodal
Saída Estruturada

Base de Conhecimento de IA

Visão Geral
Banco de Dados Vetorial
Armazenamento Vetorial
Base de Conhecimento
RAG

Documentos da Aplicação

Cenários

Viz: Configuração de Cenário CRM

Configurações

Configurações de Administrador
Guia de Prompts
Previous PageVisão Geral
Next PageCriar Colaborador de IA
Aviso de tradução por IA

Esta documentação foi traduzida automaticamente por IA.

#Início Rápido

#Introdução

Antes de usar o AI Employee, você precisa conectar um serviço LLM online. Atualmente, o NocoBase oferece suporte aos principais serviços LLM online, como OpenAI, Gemini, Claude, DepSeek, Qwen, etc. Além dos serviços LLM online, o NocoBase também permite a conexão com modelos locais do Ollama.

#Configurar Serviço LLM

Acesse a página de configuração do plugin AI Employee, clique na aba LLM service para entrar na página de gerenciamento de serviços LLM.

20251021213122

Passe o mouse sobre o botão Add New no canto superior direito da lista de serviços LLM e selecione o serviço LLM que você deseja usar.

20251021213358

Tomando o OpenAI como exemplo, insira um title fácil de lembrar na janela pop-up, depois digite a API key obtida do OpenAI e clique em Submit para salvar. Isso conclui a configuração do serviço LLM.

O campo Base URL geralmente pode ser deixado em branco. Se você estiver usando um serviço LLM de terceiros que seja compatível com a API do OpenAI, preencha o Base URL correspondente.

20251021214549

#Teste de Disponibilidade

Na página de configuração do serviço LLM, clique no botão Test flight, insira o nome do modelo que você deseja usar e clique no botão Run para verificar se o serviço LLM e o modelo estão disponíveis.

20251021214903