logologo
Começar
Manual
Desenvolvimento
Plugins
API
Início
English
简体中文
日本語
한국어
Español
Português
Deutsch
Français
Русский
Italiano
Türkçe
Українська
Tiếng Việt
Bahasa Indonesia
ไทย
Polski
Nederlands
Čeština
العربية
עברית
हिन्दी
Svenska
Começar
Manual
Desenvolvimento
Plugins
API
Início
logologo
Visão Geral
Início Rápido

Recursos

Configurar serviço de LLM
Habilitar funcionários de IA
Colaborar com funcionários de IA
Adicionar contexto - Blocos
Pesquisa na web
Usar habilidades
Tarefas de atalho
Funcionários de IA integrados
Novo funcionário de IA
Controle de permissões
Gerenciamento de arquivos

Base de conhecimento de IA

Visão Geral
Banco de dados vetorial
Armazenamento vetorial
Base de conhecimento
RAG

Fluxo de trabalho

Nós de LLM

Chat de texto
Chat multimodal
Saída estruturada

Práticas de aplicação

Viz: Configuração de cenário de CRM
Guia de engenharia de prompt
Previous PageGerenciamento de arquivos
Next PageBanco de dados vetorial
Aviso de tradução por IA

Esta documentação foi traduzida automaticamente por IA.

#Visão Geral

#Introdução

O plugin de Base de Conhecimento de IA fornece recursos de recuperação RAG para agentes de IA.

Os recursos de recuperação RAG permitem que os agentes de IA forneçam respostas mais precisas, profissionais e relevantes para o contexto da empresa ao responderem a perguntas dos usuários.

A utilização de documentos de domínio profissional e internos da empresa, fornecidos pela base de conhecimento mantida pelo administrador, melhora a precisão e a rastreabilidade das respostas dos agentes de IA.

#O que é RAG

RAG (Retrieval Augmented Generation) significa "Geração Aumentada por Recuperação".

  • Recuperação: A pergunta do usuário é convertida em um vetor por um modelo de Embedding (por exemplo, BERT). Blocos de texto mais relevantes (Top-K) são recuperados da biblioteca de vetores por meio de recuperação densa (similaridade semântica) ou recuperação esparsa (correspondência de palavras-chave).
  • Aumento: Os resultados da recuperação são concatenados com a pergunta original para formar um prompt aumentado, que é então injetado na janela de contexto do LLM.
  • Geração: O LLM combina o prompt aumentado para gerar a resposta final, garantindo a factualidade e a rastreabilidade.

#Instalação

  1. Acesse a página de gerenciamento de plugins.
  2. Encontre o plugin AI: Knowledge base e ative-o.

20251022224818