logologo
Empezar
Manual
Desarrollo
Plugins
API
Inicio
English
简体中文
日本語
한국어
Español
Português
Deutsch
Français
Русский
Italiano
Türkçe
Українська
Tiếng Việt
Bahasa Indonesia
ไทย
Polski
Nederlands
Čeština
العربية
עברית
हिन्दी
Svenska
Empezar
Manual
Desarrollo
Plugins
API
Inicio
logologo
Visión general
Inicio rápido

Introducción de funciones

Configurar el servicio LLM
Habilitar empleados de IA
Colaborar con empleados de IA
Agregar contexto - Bloques
Búsqueda web
Uso de habilidades
Tareas rápidas
Empleados de IA incorporados
Crear nuevo empleado de IA
Control de permisos
Gestión de archivos

Base de conocimientos de IA

Visión general
Base de datos de vectores
Almacenamiento de vectores
Base de conocimientos
RAG

Flujo de trabajo

Nodos LLM

Chat de texto
Chat multimodal
Salida estructurada

Prácticas de aplicación

Viz: Configuración de escenario CRM
Guía de prompts
Previous PageGestión de archivos
Next PageBase de datos de vectores
Aviso de traducción por IA

Esta documentación ha sido traducida automáticamente por IA.

#Visión General

#Introducción

El plugin de Base de Conocimiento de IA proporciona capacidades de recuperación RAG para los agentes de IA.

Las capacidades de recuperación RAG permiten a los agentes de IA ofrecer respuestas más precisas, profesionales y relevantes para la empresa al responder a las preguntas de los usuarios.

Al utilizar documentos de dominio profesional y empresariales internos, provenientes de la base de conocimiento mantenida por el administrador, se mejora la precisión y la trazabilidad de las respuestas de los agentes de IA.

#¿Qué es RAG?

RAG (Retrieval Augmented Generation) significa "Generación Aumentada por Recuperación".

  • Recuperación: La pregunta del usuario se convierte en un vector mediante un modelo de Embedding (por ejemplo, BERT). Los fragmentos de texto más relevantes (Top-K) se recuperan de la biblioteca de vectores a través de una recuperación densa (similitud semántica) o una recuperación dispersa (coincidencia de palabras clave).
  • Aumento: Los resultados de la recuperación se concatenan con la pregunta original para formar un prompt aumentado, que luego se inyecta en la ventana de contexto del LLM.
  • Generación: El LLM combina el prompt aumentado para generar la respuesta final, asegurando su veracidad y trazabilidad.

#Instalación

  1. Vaya a la página de gestión de plugins.
  2. Busque el plugin AI: Knowledge base y actívelo.

20251022224818