logologo
Start
Dokumentacja
Deweloperzy
Wtyczki
API
English
简体中文
日本語
한국어
Deutsch
Français
Español
Português
Русский
Italiano
Türkçe
Українська
Tiếng Việt
Bahasa Indonesia
ไทย
Polski
Nederlands
Čeština
العربية
עברית
हिन्दी
Svenska
Start
Dokumentacja
Deweloperzy
Wtyczki
API
logologo
Przegląd

Szybki start

Konfiguracja usług LLM
Tworzenie pracownika AI
Współpraca z pracownikiem AI

Wbudowani pracownicy AI

Przegląd
Viz: Analityk danych
Orin: Ekspert modelowania danych
Dex: Ekspert porządkowania danych
Nathan: Inżynier front-end

Zaawansowane

Wybór bloku
Źródła danych
Umiejętności
Zadania
Wyszukiwanie w sieci
Kontrola uprawnień
Zarządzanie plikami

Przepływy pracy

Węzeł LLM

Czat tekstowy
Czat multimodalny
Wyjście strukturalne

Baza wiedzy AI

Przegląd
Wektorowa baza danych
Magazyn wektorowy
Baza wiedzy
RAG

Dokumentacja aplikacji

Scenariusze

Viz: Konfiguracja scenariusza CRM

Konfiguracja

Konfiguracja administratora
Przewodnik po promptach
Previous PageWyjście strukturalne
Next PageWektorowa baza danych
TIP

Ten dokument został przetłumaczony przez AI. W przypadku niedokładności, proszę odnieść się do wersji angielskiej

#Przegląd

#Wprowadzenie

Wtyczka AI: Baza wiedzy zapewnia agentom AI możliwości wyszukiwania RAG.

Możliwości wyszukiwania RAG pozwalają agentom AI dostarczać bardziej dokładne, profesjonalne i istotne dla przedsiębiorstwa odpowiedzi, gdy odpowiadają na pytania użytkowników.

Wykorzystanie dokumentów z profesjonalnych dziedzin oraz wewnętrznych dokumentów przedsiębiorstwa, pochodzących z bazy wiedzy utrzymywanej przez administratora, poprawia dokładność i identyfikowalność odpowiedzi agentów AI.

#Czym jest RAG

RAG (Retrieval Augmented Generation) oznacza „Wyszukiwanie-Rozszerzanie-Generowanie”.

  • Wyszukiwanie: Pytanie użytkownika jest przekształcane w wektor przez model Embedding (np. BERT). Z biblioteki wektorowej pobierane są najbardziej trafne fragmenty tekstu (Top-K) za pomocą gęstego wyszukiwania (podobieństwo semantyczne) lub rzadkiego wyszukiwania (dopasowanie słów kluczowych).
  • Rozszerzanie: Wyniki wyszukiwania są łączone z oryginalnym pytaniem w celu utworzenia rozszerzonego promptu, który jest następnie wstrzykiwany do okna kontekstowego LLM.
  • Generowanie: LLM, łącząc rozszerzony prompt, generuje ostateczną odpowiedź, zapewniając jej faktograficzność i identyfikowalność.

#Instalacja

  1. Proszę przejść do strony zarządzania wtyczkami.
  2. Proszę znaleźć wtyczkę AI: Knowledge base i ją włączyć.

20251022224818