Cette documentation a été traduite automatiquement par IA.
En utilisant le nœud LLM d'un flux de travail, vous pouvez initier une conversation avec un service LLM en ligne, en tirant parti des capacités des grands modèles pour vous aider à accomplir une série de processus métier.

Étant donné que les conversations avec les services LLM sont souvent chronophages, le nœud LLM ne peut être utilisé que dans les flux de travail asynchrones.

Commencez par sélectionner un service LLM déjà connecté. Si aucun service LLM n'est encore connecté, vous devrez d'abord ajouter une configuration de service LLM. Consultez : Gestion des services LLM
Après avoir sélectionné un service, l'application tentera de récupérer une liste des modèles disponibles auprès du service LLM pour que vous puissiez choisir. Certains services LLM en ligne peuvent avoir des API pour récupérer des modèles qui ne sont pas conformes aux protocoles API standard ; dans de tels cas, vous pouvez également saisir manuellement l'ID du modèle.

Vous pouvez ajuster les paramètres d'appel du modèle LLM selon vos besoins.

Il convient de noter le paramètre Response format. Cette option est utilisée pour indiquer au grand modèle le format de sa réponse, qui peut être du texte ou du JSON. Si vous sélectionnez le mode JSON, veuillez noter ce qui suit :
400 status code (no body).Le tableau de messages envoyé au modèle LLM peut inclure un ensemble de messages historiques. Les messages prennent en charge trois types :
Pour les messages utilisateur, à condition que le modèle le prenne en charge, vous pouvez ajouter plusieurs éléments de contenu dans une seule invite, correspondant au paramètre content. Si le modèle que vous utilisez ne prend en charge le paramètre content que sous forme de chaîne de caractères (ce qui est le cas pour la plupart des modèles ne prenant pas en charge les conversations multimodales), veuillez diviser le message en plusieurs invites, chaque invite ne contenant qu'un seul élément de contenu. De cette façon, le nœud enverra le contenu sous forme de chaîne de caractères.

Vous pouvez utiliser des variables dans le contenu du message pour référencer le contexte du flux de travail.

Vous pouvez utiliser le contenu de la réponse du nœud LLM comme variable dans d'autres nœuds.
