logologo
Kom igång
Guide
Utveckling
Plugins
API
Hem
English
简体中文
日本語
한국어
Español
Português
Deutsch
Français
Русский
Italiano
Türkçe
Українська
Tiếng Việt
Bahasa Indonesia
ไทย
Polski
Nederlands
Čeština
العربية
עברית
हिन्दी
Svenska
Kom igång
Guide
Utveckling
Plugins
API
Hem
logologo
Översikt
Snabbstart

Funktioner

Konfigurera LLM-tjänst
Aktivera AI-medarbetare
Samarbeta med AI-medarbetare
Lägg till kontext - Block
Webbsökning
Använd färdigheter
Genvägsuppgifter
Inbyggda AI-medarbetare
Skapa ny AI-medarbetare
Behörighetskontroll
Filhantering

AI-kunskapsbas

Översikt
Vektordatabas
Vektorlagring
Kunskapsbas
RAG

Arbetsflöde

LLM-noder

Textkonversation
Multimodal konversation
Strukturerad utdata

Tillämpningspraxis

Viz: CRM-scenariokonfiguration
Promptguide
Previous PageVektordatabas
Next PageKunskapsbas
AI-översättningsmeddelande

Detta dokument har översatts av AI. För korrekt information, se den engelska versionen.

#Vektorlagring

#Introduktion

I en kunskapsbas behöver ni, både när ni sparar dokument (för att vektorisera dem) och när ni söker efter dokument (för att vektorisera söktermerna), använda en Embedding model för att vektorisera den ursprungliga texten.

I AI-kunskapsbas-pluginet är en vektorlagring en koppling mellan en Embedding model och en vektordatabas.

#Hantering av vektorlagring

Gå till konfigurationssidan för AI-medarbetar-pluginet, klicka på fliken Vector store och välj Vector store för att komma till sidan för hantering av vektorlagring.

20251023003023

Klicka på knappen Add new uppe till höger för att lägga till en ny vektorlagring:

  • I inmatningsfältet Name anger ni namnet på vektorlagringen;
  • Under Vector store väljer ni en redan konfigurerad vektordatabas. Se: Vektordatabas;
  • Under LLM service väljer ni en redan konfigurerad LLM-tjänst. Se: Hantering av LLM-tjänster;
  • I inmatningsfältet Embedding model anger ni namnet på den Embedding-modell som ska användas;

Klicka på knappen Submit för att spara informationen om vektorlagringen.

20251023003121