Questa documentazione è stata tradotta automaticamente dall'IA.
Utilizzando il nodo LLM in un flusso di lavoro, è possibile avviare una conversazione con un servizio LLM online, sfruttando le capacità dei modelli di grandi dimensioni per assistere nel completamento di una serie di processi aziendali.

Dato che le conversazioni con i servizi LLM sono spesso dispendiose in termini di tempo, il nodo LLM può essere utilizzato solo in flussi di lavoro asincroni.

Per prima cosa, selezioni un servizio LLM già connesso. Se non ha ancora connesso un servizio LLM, dovrà prima aggiungere una configurazione del servizio LLM. Veda: Gestione del servizio LLM
Dopo aver selezionato un servizio, l'applicazione tenterà di recuperare un elenco di modelli disponibili dal servizio LLM tra cui scegliere. Alcuni servizi LLM online potrebbero avere API per il recupero dei modelli che non sono conformi ai protocolli API standard; in questi casi, l'utente può anche inserire manualmente l'ID del modello.

Può regolare i parametri per la chiamata del modello LLM secondo necessità.

È opportuno notare l'impostazione Response format. Questa opzione viene utilizzata per indicare al modello di grandi dimensioni il formato della sua risposta, che può essere testo o JSON. Se seleziona la modalità JSON, tenga presente quanto segue:
400 status code (no body).L'array di messaggi inviati al modello LLM può includere un insieme di messaggi storici. I messaggi supportano tre tipi:
Per i messaggi utente, a condizione che il modello lo supporti, è possibile aggiungere più contenuti in un singolo prompt, corrispondenti al parametro content. Se il modello che sta utilizzando supporta solo il parametro content come stringa (il che è il caso della maggior parte dei modelli che non supportano conversazioni multimodali), divida il messaggio in più prompt, con ogni prompt che contiene un solo contenuto. In questo modo, il nodo invierà il contenuto come stringa.

Nel contenuto del messaggio, può utilizzare le variabili per fare riferimento al contesto del flusso di lavoro.

Può utilizzare il contenuto della risposta del nodo LLM come variabile in altri nodi.
