logologo
Start
Przewodnik
Programowanie
Wtyczki
API
Strona główna
English
简体中文
日本語
한국어
Español
Português
Deutsch
Français
Русский
Italiano
Türkçe
Українська
Tiếng Việt
Bahasa Indonesia
ไทย
Polski
Nederlands
Čeština
العربية
עברית
हिन्दी
Svenska
Start
Przewodnik
Programowanie
Wtyczki
API
Strona główna
logologo
Przegląd
Szybki start

Funkcje

Konfiguracja usług LLM
Włączanie pracowników AI
Współpraca z pracownikami AI
Dodawanie kontekstu - bloki
Wyszukiwanie w sieci
Korzystanie z umiejętności
Szybkie zadania
Wbudowani pracownicy AI
Nowy pracownik AI
Kontrola uprawnień
Zarządzanie plikami

Baza wiedzy AI

Przegląd
Wektorowa baza danych
Magazyn wektorowy
Baza wiedzy
RAG

Przepływ pracy

Węzły LLM

Czat tekstowy
Czat multimodalny
Wyjście strukturalne

Praktyka zastosowań

Viz: Konfiguracja scenariusza CRM
Przewodnik po promptach
Previous PageZarządzanie plikami
Next PageWektorowa baza danych
TIP

Ten dokument został przetłumaczony przez AI. W przypadku niedokładności, proszę odnieść się do wersji angielskiej

#Przegląd

#Wprowadzenie

Wtyczka AI: Baza wiedzy zapewnia agentom AI możliwości wyszukiwania RAG.

Możliwości wyszukiwania RAG pozwalają agentom AI dostarczać bardziej dokładne, profesjonalne i istotne dla przedsiębiorstwa odpowiedzi, gdy odpowiadają na pytania użytkowników.

Wykorzystanie dokumentów z profesjonalnych dziedzin oraz wewnętrznych dokumentów przedsiębiorstwa, pochodzących z bazy wiedzy utrzymywanej przez administratora, poprawia dokładność i identyfikowalność odpowiedzi agentów AI.

#Czym jest RAG

RAG (Retrieval Augmented Generation) oznacza „Wyszukiwanie-Rozszerzanie-Generowanie”.

  • Wyszukiwanie: Pytanie użytkownika jest przekształcane w wektor przez model Embedding (np. BERT). Z biblioteki wektorowej pobierane są najbardziej trafne fragmenty tekstu (Top-K) za pomocą gęstego wyszukiwania (podobieństwo semantyczne) lub rzadkiego wyszukiwania (dopasowanie słów kluczowych).
  • Rozszerzanie: Wyniki wyszukiwania są łączone z oryginalnym pytaniem w celu utworzenia rozszerzonego promptu, który jest następnie wstrzykiwany do okna kontekstowego LLM.
  • Generowanie: LLM, łącząc rozszerzony prompt, generuje ostateczną odpowiedź, zapewniając jej faktograficzność i identyfikowalność.

#Instalacja

  1. Proszę przejść do strony zarządzania wtyczkami.
  2. Proszę znaleźć wtyczkę AI: Knowledge base i ją włączyć.

20251022224818