logologo
Начало
Руководство
Разработка
Плагины
API
English
简体中文
日本語
한국어
Deutsch
Français
Español
Português
Русский
Italiano
Türkçe
Українська
Tiếng Việt
Bahasa Indonesia
ไทย
Polski
Nederlands
Čeština
العربية
עברית
हिन्दी
Svenska
Начало
Руководство
Разработка
Плагины
API
logologo
Обзор

Быстрый старт

Настройка сервисов LLM
Создание AI-сотрудников
Совместная работа с AI-сотрудниками

Встроенные AI-сотрудники

Обзор
Viz: Аналитик инсайтов
Orin: Эксперт по моделированию данных
Dex: Эксперт по обработке данных
Nathan: Frontend-разработчик

Продвинутый уровень

Выбор блока
Источники данных
Навыки
Задачи
Поиск в интернете
Контроль доступа
Управление файлами

Рабочие процессы

Узел LLM

Текстовый диалог
Мультимодальный диалог
Структурированный вывод

База знаний AI

Обзор
Векторная база данных
Векторное хранилище
База знаний
RAG

Документация по применению

Сценарии

Viz: Настройка сценария CRM

Настройки

Настройки администратора
Руководство по промптам
Previous PageСтруктурированный вывод
Next PageВекторная база данных
Уведомление о переводе ИИ

Эта документация была автоматически переведена ИИ.

#Обзор

#Введение

Плагин «База знаний ИИ» предоставляет ИИ-агентам возможности RAG-поиска.

Возможности RAG-поиска позволяют ИИ-агентам предоставлять более точные, профессиональные и релевантные для предприятия ответы при ответе на вопросы пользователей.

Использование документов по профессиональным областям и внутренних корпоративных документов из базы знаний, поддерживаемой администратором, повышает точность и прослеживаемость ответов ИИ-агентов.

#Что такое RAG

RAG (Retrieval Augmented Generation) расшифровывается как «Retrieval-Augmented-Generation» (генерация с дополненным поиском).

  • Поиск: Вопрос пользователя преобразуется в вектор с помощью модели эмбеддинга (например, BERT). Из векторной библиотеки извлекаются Top-K релевантных текстовых фрагментов с помощью плотного поиска (семантическое сходство) или разреженного поиска (совпадение по ключевым словам).
  • Дополнение: Результаты поиска объединяются с исходным вопросом для формирования дополненного промпта (Prompt), который затем внедряется в контекстное окно LLM.
  • Генерация: LLM использует дополненный промпт для генерации окончательного ответа, обеспечивая его фактическую точность и прослеживаемость.

#Установка

  1. Перейдите на страницу управления плагинами.
  2. Найдите плагин AI: Knowledge base и включите его.

20251022224818