Bu belge AI tarafından çevrilmiştir. Herhangi bir yanlışlık için lütfen İngilizce sürümüne bakın
İş akışındaki LLM düğümünü kullanarak, çevrimiçi bir LLM hizmetiyle sohbet başlatabilir, böylece bir dizi iş sürecini tamamlamanıza yardımcı olmak için büyük dil modellerinin (LLM'lerin) yeteneklerinden faydalanabilirsiniz.

LLM hizmetleriyle yapılan sohbetler genellikle zaman alıcı olduğundan, LLM düğümü yalnızca eşzamansız iş akışlarında kullanılabilir.

Öncelikle, bağlı bir LLM hizmeti seçin. Henüz bir LLM hizmeti bağlı değilse, önce bir LLM hizmeti yapılandırması eklemeniz gerekir. Bakınız: LLM Hizmet Yönetimi
Bir hizmet seçtikten sonra, uygulama LLM hizmetinden mevcut modellerin bir listesini almayı deneyecektir. Bazı çevrimiçi LLM hizmetlerinin model alma API'leri standart API protokollerine uymayabilir; bu gibi durumlarda, kullanıcılar model kimliğini (ID) manuel olarak da girebilir.

LLM modelini çağırmak için parametreleri ihtiyacınıza göre ayarlayabilirsiniz.

Burada dikkat edilmesi gereken nokta Response format (Yanıt biçimi) ayarıdır. Bu ayar, büyük dil modelinin yanıtının içeriğinin biçimini (metin veya JSON olabilir) belirtmek için kullanılır. JSON modunu seçerseniz, şunlara dikkat etmelisiniz:
400 status code (no body) hatası oluşabilir.LLM modeline gönderilen mesaj dizisi, bir dizi geçmiş mesajı içerebilir. Mesajlar üç türü destekler:
Kullanıcı mesajları için, modelin desteklemesi koşuluyla, content parametresine karşılık gelen birden fazla içeriği tek bir istemde (prompt) ekleyebilirsiniz. Kullandığınız model yalnızca content parametresini bir dize (string) olarak destekliyorsa (çok modlu sohbetleri desteklemeyen modellerin çoğu bu kategoriye girer), lütfen mesajı birden fazla isteme bölün ve her istemde yalnızca bir içerik bulundurun. Bu şekilde, düğüm içeriği bir dize olarak gönderecektir.

Mesaj içeriğinde, iş akışı bağlamını referans almak için değişkenler kullanabilirsiniz.

LLM düğümünün yanıt içeriğini, diğer düğümlerde bir değişken olarak kullanabilirsiniz.
