Cette documentation a été traduite automatiquement par IA.
Avant d'utiliser l'employé IA, vous devez d'abord connecter un service LLM en ligne. NocoBase prend actuellement en charge les services LLM en ligne les plus courants, tels que OpenAI, Gemini, Claude, DepSeek, Qwen, etc. En plus des services LLM en ligne, NocoBase prend également en charge la connexion aux modèles locaux Ollama.
Accédez à la page de configuration du plugin Employé IA, puis cliquez sur l'onglet LLM service pour accéder à la page de gestion des services LLM.

Passez la souris sur le bouton Add New situé dans le coin supérieur droit de la liste des services LLM, puis sélectionnez le service LLM que vous souhaitez utiliser.

Prenons OpenAI comme exemple : dans la fenêtre contextuelle, saisissez un title facile à retenir, puis entrez la clé API (API key) obtenue auprès d'OpenAI. Cliquez sur Submit pour enregistrer et finaliser ainsi la configuration du service LLM.
Le champ Base URL peut généralement être laissé vide. Si vous utilisez un service LLM tiers compatible avec l'API OpenAI, veuillez renseigner l'URL de base correspondante.

Sur la page de configuration du service LLM, cliquez sur le bouton Test flight, saisissez le nom du modèle que vous souhaitez utiliser, puis cliquez sur le bouton Run pour vérifier la disponibilité du service LLM et du modèle.
