logologo
Démarrer
Manuel
Développement
Plugins
API
English
简体中文
日本語
한국어
Deutsch
Français
Español
Português
Русский
Italiano
Türkçe
Українська
Tiếng Việt
Bahasa Indonesia
ไทย
Polski
Nederlands
Čeština
العربية
עברית
हिन्दी
Svenska
Démarrer
Manuel
Développement
Plugins
API
logologo
Aperçu

Démarrage rapide

Configurer les services LLM
Créer un employé AI
Collaborer avec les employés AI

Employés AI intégrés

Aperçu
Viz : Analyste d'insights
Orin : Expert en modélisation de données
Dex : Expert en préparation de données
Nathan : Ingénieur frontend

Avancé

Sélectionner un bloc
Sources de données
Compétences
Tâches
Recherche en ligne
Contrôle des permissions
Gestion des fichiers

Workflows

Nœud LLM

Conversation textuelle
Conversation multimodale
Sortie structurée

Base de connaissances AI

Aperçu
Base de données vectorielle
Stockage vectoriel
Base de connaissances
RAG

Documentation de l'application

Scénarios

Viz : Configuration du scénario CRM

Configuration

Configuration administrateur
Guide des prompts
Previous PageAperçu
Next PageCréer un employé AI
Avis de traduction IA

Cette documentation a été traduite automatiquement par IA.

#Démarrage rapide

#Introduction

Avant d'utiliser l'employé IA, vous devez d'abord connecter un service LLM en ligne. NocoBase prend actuellement en charge les services LLM en ligne les plus courants, tels que OpenAI, Gemini, Claude, DepSeek, Qwen, etc. En plus des services LLM en ligne, NocoBase prend également en charge la connexion aux modèles locaux Ollama.

#Configurer un service LLM

Accédez à la page de configuration du plugin Employé IA, puis cliquez sur l'onglet LLM service pour accéder à la page de gestion des services LLM.

20251021213122

Passez la souris sur le bouton Add New situé dans le coin supérieur droit de la liste des services LLM, puis sélectionnez le service LLM que vous souhaitez utiliser.

20251021213358

Prenons OpenAI comme exemple : dans la fenêtre contextuelle, saisissez un title facile à retenir, puis entrez la clé API (API key) obtenue auprès d'OpenAI. Cliquez sur Submit pour enregistrer et finaliser ainsi la configuration du service LLM.

Le champ Base URL peut généralement être laissé vide. Si vous utilisez un service LLM tiers compatible avec l'API OpenAI, veuillez renseigner l'URL de base correspondante.

20251021214549

#Test de disponibilité

Sur la page de configuration du service LLM, cliquez sur le bouton Test flight, saisissez le nom du modèle que vous souhaitez utiliser, puis cliquez sur le bouton Run pour vérifier la disponibilité du service LLM et du modèle.

20251021214903