logologo
Mulai
Panduan
Pengembangan
Plugin
API
English
简体中文
日本語
한국어
Deutsch
Français
Español
Português
Русский
Italiano
Türkçe
Українська
Tiếng Việt
Bahasa Indonesia
ไทย
Polski
Nederlands
Čeština
العربية
עברית
हिन्दी
Svenska
Mulai
Panduan
Pengembangan
Plugin
API
logologo
Ikhtisar

Mulai Cepat

Konfigurasi Layanan LLM
Buat Staf AI
Kolaborasi dengan Staf AI

Staf AI Bawaan

Ikhtisar
Viz: Analis Wawasan
Orin: Spesialis Pemodelan Data
Dex: Spesialis Pengelolaan Data
Nathan: Insinyur Frontend

Lanjutan

Pilih Blok
Sumber Data
Keterampilan
Tugas
Pencarian Online
Kontrol Izin
Manajemen File

Alur Kerja

Node LLM

Dialog Teks
Dialog Multimodal
Output Terstruktur

Basis Pengetahuan AI

Ikhtisar
Database Vektor
Penyimpanan Vektor
Basis Pengetahuan
RAG

Dokumen Aplikasi

Skenario

Viz: Konfigurasi Skenario CRM

Konfigurasi

Konfigurasi Admin
Panduan Prompt
Previous PageManajemen File
Next PageDialog Multimodal
TIP

Dokumen ini diterjemahkan oleh AI. Untuk ketidakakuratan apa pun, silakan lihat versi bahasa Inggris

#Obrolan Teks

This feature is provided by the plugin «Karyawan AI»

#Pendahuluan

Dengan menggunakan node LLM di alur kerja, Anda dapat memulai percakapan dengan layanan LLM online. Ini memungkinkan Anda memanfaatkan kemampuan model bahasa besar untuk membantu menyelesaikan serangkaian proses bisnis.

#Membuat Node LLM

Karena percakapan dengan layanan LLM seringkali memakan waktu, node LLM hanya dapat digunakan dalam alur kerja asinkron.

#Memilih Model

Pertama, pilih layanan LLM yang sudah terhubung. Jika Anda belum menghubungkan layanan LLM, Anda perlu menambahkan konfigurasi layanan LLM terlebih dahulu. Lihat: Manajemen Layanan LLM

Setelah memilih layanan, aplikasi akan mencoba mengambil daftar model yang tersedia dari layanan LLM untuk Anda pilih. Beberapa layanan LLM online mungkin memiliki API untuk mengambil model yang tidak sesuai dengan protokol API standar; dalam kasus seperti itu, pengguna juga dapat memasukkan ID model secara manual.

#Mengatur Parameter Pemanggilan

Anda dapat menyesuaikan parameter untuk memanggil model LLM sesuai kebutuhan.

#Format Respons

Penting untuk diperhatikan adalah pengaturan Format Respons. Opsi ini digunakan untuk memberi tahu model bahasa besar tentang format konten responsnya, yang dapat berupa teks atau JSON. Jika Anda memilih mode JSON, perhatikan hal-hal berikut:

  • Model LLM yang bersangkutan harus mendukung pemanggilan dalam mode JSON. Selain itu, pengguna perlu secara eksplisit memberi tahu LLM dalam Prompt untuk merespons dalam format JSON, contohnya: "Tell me a joke about cats, respond in JSON with `setup` and `punchline` keys". Jika tidak, mungkin tidak ada respons, dan akan muncul kesalahan 400 status code (no body).
  • Respons akan berupa string JSON. Pengguna perlu menguraikannya menggunakan kemampuan node alur kerja lainnya sebelum dapat menggunakan konten terstruktur di dalamnya. Anda juga dapat menggunakan fitur Output Terstruktur.

#Pesan

Array pesan yang dikirim ke model LLM dapat mencakup serangkaian pesan riwayat. Pesan mendukung tiga jenis:

  • System - Biasanya digunakan untuk mendefinisikan peran dan perilaku model LLM dalam percakapan.
  • User - Konten yang dimasukkan oleh pengguna.
  • Assistant - Konten yang direspons oleh model.

Untuk pesan pengguna, dengan asumsi model mendukungnya, Anda dapat menambahkan beberapa bagian konten dalam satu prompt, yang sesuai dengan parameter content. Jika model yang Anda gunakan hanya mendukung parameter content dalam bentuk string (ini berlaku untuk sebagian besar model yang tidak mendukung percakapan multimodal), harap pisahkan pesan menjadi beberapa prompt, dengan setiap prompt hanya berisi satu bagian konten. Dengan cara ini, node akan mengirimkan konten sebagai string.

Anda dapat menggunakan variabel dalam konten pesan untuk mereferensikan konteks alur kerja.

#Menggunakan Konten Respons Node LLM

Anda dapat menggunakan konten respons dari node LLM sebagai variabel di node lain.