logologo
Başlangıç
Kılavuz
Geliştirme
Eklentiler
API
English
简体中文
日本語
한국어
Deutsch
Français
Español
Português
Русский
Italiano
Türkçe
Українська
Tiếng Việt
Bahasa Indonesia
ไทย
Polski
Nederlands
Čeština
العربية
עברית
हिन्दी
Svenska
Başlangıç
Kılavuz
Geliştirme
Eklentiler
API
logologo
Genel Bakış

Hızlı Başlangıç

LLM Yapılandırması
AI Çalışanı Oluşturma
AI Çalışanı ile İşbirliği

Dahili AI Çalışanları

Genel Bakış
Viz: İçgörü Analisti
Orin: Veri Modelleme Uzmanı
Dex: Veri Düzenleme Uzmanı
Nathan: Ön Uç Geliştirici

Gelişmiş

Blok Seçimi
Veri Kaynakları
Yetenekler
Görevler
İnternet Araması
İzin Kontrolü
Dosya Yönetimi

İş Akışları

LLM Düğümü

Metin Sohbeti
Çok Modlu Sohbet
Yapılandırılmış Çıktı

AI Bilgi Bankası

Genel Bakış
Vektör Veritabanı
Vektör Depolama
Bilgi Bankası
RAG

Uygulama Belgeleri

Senaryolar

Viz: CRM Senaryo Yapılandırması

Yapılandırma

Yönetici Yapılandırması
Prompt Kılavuzu
Previous PageDosya Yönetimi
Next PageÇok Modlu Sohbet
TIP

Bu belge AI tarafından çevrilmiştir. Herhangi bir yanlışlık için lütfen İngilizce sürümüne bakın

#Metin Sohbeti

This feature is provided by the plugin «AI Çalışanları»

#Giriş

İş akışındaki LLM düğümünü kullanarak, çevrimiçi bir LLM hizmetiyle sohbet başlatabilir, böylece bir dizi iş sürecini tamamlamanıza yardımcı olmak için büyük dil modellerinin (LLM'lerin) yeteneklerinden faydalanabilirsiniz.

#LLM Düğümü Oluşturma

LLM hizmetleriyle yapılan sohbetler genellikle zaman alıcı olduğundan, LLM düğümü yalnızca eşzamansız iş akışlarında kullanılabilir.

#Model Seçimi

Öncelikle, bağlı bir LLM hizmeti seçin. Henüz bir LLM hizmeti bağlı değilse, önce bir LLM hizmeti yapılandırması eklemeniz gerekir. Bakınız: LLM Hizmet Yönetimi

Bir hizmet seçtikten sonra, uygulama LLM hizmetinden mevcut modellerin bir listesini almayı deneyecektir. Bazı çevrimiçi LLM hizmetlerinin model alma API'leri standart API protokollerine uymayabilir; bu gibi durumlarda, kullanıcılar model kimliğini (ID) manuel olarak da girebilir.

#Çağrı Parametrelerini Ayarlama

LLM modelini çağırmak için parametreleri ihtiyacınıza göre ayarlayabilirsiniz.

#Response format

Burada dikkat edilmesi gereken nokta Response format (Yanıt biçimi) ayarıdır. Bu ayar, büyük dil modelinin yanıtının içeriğinin biçimini (metin veya JSON olabilir) belirtmek için kullanılır. JSON modunu seçerseniz, şunlara dikkat etmelisiniz:

  • İlgili LLM modelinin JSON modunda çağrılmayı desteklemesi gerekir. Ayrıca, kullanıcının Prompt'ta LLM'ye JSON formatında yanıt vermesini açıkça belirtmesi gerekir, örneğin: "Tell me a joke about cats, respond in JSON with `setup` and `punchline` keys". Aksi takdirde, yanıt alınamayabilir ve 400 status code (no body) hatası oluşabilir.
  • Yanıt bir JSON dizesi olacaktır. Kullanıcının, yapılandırılmış içeriğini kullanabilmek için bunu diğer iş akışı düğümlerinin yeteneklerini kullanarak ayrıştırması gerekir. Ayrıca Yapılandırılmış Çıktı özelliğini de kullanabilirsiniz.

#Mesajlar

LLM modeline gönderilen mesaj dizisi, bir dizi geçmiş mesajı içerebilir. Mesajlar üç türü destekler:

  • System (Sistem) - Genellikle LLM modelinin sohbetteki rolünü ve davranışını tanımlamak için kullanılır.
  • User (Kullanıcı) - Kullanıcı tarafından girilen içerik.
  • Assistant (Asistan) - Model tarafından yanıtlanan içerik.

Kullanıcı mesajları için, modelin desteklemesi koşuluyla, content parametresine karşılık gelen birden fazla içeriği tek bir istemde (prompt) ekleyebilirsiniz. Kullandığınız model yalnızca content parametresini bir dize (string) olarak destekliyorsa (çok modlu sohbetleri desteklemeyen modellerin çoğu bu kategoriye girer), lütfen mesajı birden fazla isteme bölün ve her istemde yalnızca bir içerik bulundurun. Bu şekilde, düğüm içeriği bir dize olarak gönderecektir.

Mesaj içeriğinde, iş akışı bağlamını referans almak için değişkenler kullanabilirsiniz.

#LLM Düğümünün Yanıt İçeriğini Kullanma

LLM düğümünün yanıt içeriğini, diğer düğümlerde bir değişken olarak kullanabilirsiniz.