logologo
Démarrer
Manuel
Développement
Plugins
API
English
简体中文
日本語
한국어
Deutsch
Français
Español
Português
Русский
Italiano
Türkçe
Українська
Tiếng Việt
Bahasa Indonesia
ไทย
Polski
Nederlands
Čeština
العربية
עברית
हिन्दी
Svenska
Démarrer
Manuel
Développement
Plugins
API
logologo
Aperçu

Démarrage rapide

Configurer les services LLM
Créer un employé AI
Collaborer avec les employés AI

Employés AI intégrés

Aperçu
Viz : Analyste d'insights
Orin : Expert en modélisation de données
Dex : Expert en préparation de données
Nathan : Ingénieur frontend

Avancé

Sélectionner un bloc
Sources de données
Compétences
Tâches
Recherche en ligne
Contrôle des permissions
Gestion des fichiers

Workflows

Nœud LLM

Conversation textuelle
Conversation multimodale
Sortie structurée

Base de connaissances AI

Aperçu
Base de données vectorielle
Stockage vectoriel
Base de connaissances
RAG

Documentation de l'application

Scénarios

Viz : Configuration du scénario CRM

Configuration

Configuration administrateur
Guide des prompts
Previous PageConversation multimodale
Next PageAperçu
Avis de traduction IA

Cette documentation a été traduite automatiquement par IA.

#Sortie structurée

#Introduction

Dans certains scénarios d'application, les utilisateurs peuvent souhaiter que le modèle LLM réponde avec un contenu structuré au format JSON. Vous pouvez y parvenir en configurant la fonctionnalité de « Sortie structurée ».

#Configuration

  • JSON Schema - Vous pouvez spécifier la structure attendue de la réponse du modèle en configurant un JSON Schema.
  • Nom - Facultatif, ce champ aide le modèle à mieux comprendre l'objet représenté par le JSON Schema.
  • Description - Facultatif, ce champ aide le modèle à mieux comprendre l'objectif du JSON Schema.
  • Strict - Exige que le modèle génère une réponse strictement conforme à la structure du JSON Schema. Actuellement, seuls certains nouveaux modèles d'OpenAI prennent en charge ce paramètre. Veuillez vérifier la compatibilité de votre modèle avant de l'activer.

#Méthode de génération du contenu structuré

La manière dont un modèle génère du contenu structuré dépend du modèle utilisé et de sa configuration de Response format :

  1. Modèles dont le Response format ne prend en charge que text

    • Lors de l'appel, le nœud liera un Tool qui génère du contenu au format JSON basé sur le JSON Schema, guidant le modèle à produire une réponse structurée en appelant ce Tool.
  2. Modèles dont le Response format prend en charge le mode JSON (json_object)

    • Si le mode JSON est sélectionné lors de l'appel, vous devez explicitement indiquer au modèle dans le Prompt de retourner au format JSON et de fournir des descriptions pour les champs de la réponse.
    • Dans ce mode, le JSON Schema est uniquement utilisé pour analyser la chaîne JSON retournée par le modèle et la convertir en l'objet JSON cible.
  3. Modèles dont le Response format prend en charge le JSON Schema (json_schema)

    • Le JSON Schema est directement utilisé pour spécifier la structure de réponse cible pour le modèle.
    • Le paramètre Strict optionnel exige que le modèle suive strictement le JSON Schema lors de la génération de la réponse.
  4. Modèles locaux Ollama

    • Si un JSON Schema est configuré, le nœud le transmettra comme paramètre format au modèle lors de l'appel.

#Utilisation du résultat de la sortie structurée

Le contenu structuré de la réponse du modèle est enregistré sous forme d'objet JSON dans le champ « Structured content » du nœud et peut être utilisé par les nœuds suivants.