Dokumen ini diterjemahkan oleh AI. Untuk informasi yang akurat, silakan merujuk ke versi bahasa Inggris.
Menggunakan node LLM dalam alur kerja dapat memulai dialog dengan layanan LLM online, memanfaatkan kemampuan model besar untuk membantu menyelesaikan serangkaian proses bisnis.

Karena berdialog dengan layanan LLM biasanya memakan waktu, node LLM hanya dapat digunakan dalam alur kerja asinkron.

Pertama, pilih layanan LLM yang telah terhubung. Jika belum ada layanan LLM yang terhubung, maka perlu menambahkan konfigurasi layanan LLM terlebih dahulu. Referensi: Manajemen Layanan LLM
Setelah memilih layanan, aplikasi akan mencoba mendapatkan daftar model yang tersedia dari layanan LLM untuk dipilih. Beberapa antarmuka layanan online LLM untuk mendapatkan model mungkin tidak sesuai dengan protokol API standar, pengguna juga dapat memasukkan ID model secara manual.

Parameter pemanggilan model LLM dapat disesuaikan sesuai kebutuhan.

Di antaranya yang perlu diperhatikan adalah pengaturan Response format, item pengaturan ini digunakan untuk menginstruksikan format konten respons model besar, dapat berupa teks atau JSON. Jika memilih mode JSON, perlu diperhatikan:
400 status code (no body).Array pesan yang dikirim ke model LLM, dapat berisi sekumpulan pesan riwayat. Di antaranya pesan mendukung tiga tipe:
Untuk pesan pengguna, dengan prasyarat model mendukungnya, beberapa konten dapat ditambahkan dalam satu prompt, sesuai dengan parameter content. Jika model yang digunakan hanya mendukung parameter content dalam bentuk string (sebagian besar model yang tidak mendukung dialog multimodal termasuk dalam kategori ini), harap bagi pesan menjadi beberapa prompt, dengan setiap prompt hanya menyisakan satu konten, sehingga node akan mengirimkan konten dalam bentuk string.

Variabel dapat digunakan dalam konten pesan untuk mereferensikan konteks alur kerja.

Konten respons dari node LLM dapat digunakan sebagai variabel di node lainnya.
