logologo
Başlangıç
Kılavuz
Geliştirme
Eklentiler
API
Ana Sayfa
English
简体中文
日本語
한국어
Español
Português
Deutsch
Français
Русский
Italiano
Türkçe
Українська
Tiếng Việt
Bahasa Indonesia
ไทย
Polski
Nederlands
Čeština
العربية
עברית
हिन्दी
Svenska
Başlangıç
Kılavuz
Geliştirme
Eklentiler
API
Ana Sayfa
logologo
Genel Bakış
Hızlı Başlangıç

Özellik Tanıtımı

LLM Servisini Yapılandırın
AI Çalışanını Etkinleştirin
AI Çalışanı ile İş Birliği Yapın
Bağlam Ekle - Bloklar
Web Araması
Yetenekleri Kullanın
Kısayol Görevleri
Yerleşik AI Çalışanları
Yeni AI Çalışanı
Yetki Kontrolü
Dosya Yönetimi

AI Bilgi Bankası

Genel Bakış
Vektör Veritabanı
Vektör Depolama
Bilgi Bankası
RAG

İş Akışı

LLM Düğümleri

Metin Sohbeti
Çok Modlu Sohbet
Yapılandırılmış Çıktı

Uygulama Pratikleri

Viz: CRM Senaryo Yapılandırması
Prompt Kılavuzu
Previous PageRAG
Next PageÇok Modlu Sohbet
AI Çeviri Bildirimi

Bu belge yapay zeka tarafından çevrilmiştir. Doğru bilgi için İngilizce sürüme bakın.

#Metin Sohbeti

AI ÇalışanlarıCommunity Edition+

#Giriş

İş akışının LLM düğümünü kullanarak çevrimiçi LLM servisleriyle bir sohbet başlatabilir, bir dizi iş akışını tamamlamaya yardımcı olması için büyük modellerin yeteneklerinden yararlanabilirsiniz.

#Yeni LLM Düğümü

LLM servisleriyle sohbet etmek genellikle zaman aldığından, LLM düğümü yalnızca asenkron iş akışlarında kullanılabilir.

#Model Seçimi

Öncelikle bağlı olan LLM servisini seçin; henüz bir LLM servisi bağlanmamışsa, önce bir LLM servisi yapılandırması eklemeniz gerekir. Referans: LLM Servis Yönetimi

Servisi seçtikten sonra uygulama, seçim yapabilmeniz için LLM servisinden kullanılabilir modellerin listesini almaya çalışacaktır. Bazı çevrimiçi LLM servislerinin model alma arayüzleri standart API protokollerine uymayabilir, bu durumda kullanıcılar model kimliğini manuel olarak da girebilir.

#Çağrı Parametrelerini Ayarlama

LLM modelini çağırma parametrelerini ihtiyaca göre ayarlayabilirsiniz.

#Response format

Burada dikkat edilmesi gereken Response format ayarıdır; bu ayar öğesi, büyük modelin yanıt içeriği formatını (metin veya JSON olabilir) belirtmek için kullanılır. JSON modu seçilirse şunlara dikkat edilmelidir:

  • İlgili LLM modelinin JSON modunda çağrılmayı desteklemesi gerekir, aynı zamanda kullanıcının Prompt içinde LLM'nin JSON formatında yanıt vermesini açıkça belirtmesi gerekir, örneğin: "Tell me a joke about cats, respond in JSON with `setup` and `punchline` keys". Aksi takdirde yanıt alınamayabilir ve 400 status code (no body) hatası verebilir.
  • Yanıt sonucu bir JSON dizesidir; kullanıcıların içindeki yapılandırılmış içeriği kullanabilmesi için iş akışındaki diğer düğümlerin yeteneklerini kullanarak bunu ayrıştırması gerekir. Ayrıca Yapılandırılmış Çıktı özelliği de kullanılabilir.

#Mesajlar

LLM modeline gönderilen ve bir dizi geçmiş mesajı içerebilen mesaj dizisidir. Mesajlar üç türü destekler:

  • System - Genellikle sohbette LLM modelinin üstlendiği rolü ve davranışı tanımlamak için kullanılır.
  • User - Kullanıcı tarafından girilen içerik.
  • Assistant - Model tarafından yanıtlanan içerik.

Kullanıcı mesajları için, modelin desteklemesi koşuluyla, bir istemde content parametresine karşılık gelen birden fazla içerik ekleyebilirsiniz. Kullanılan model yalnızca dize formatındaki content parametresini destekliyorsa (çok modlu sohbetleri desteklemeyen modellerin çoğu bu kategoriye girer), lütfen mesajı her istemde yalnızca bir içerik kalacak şekilde birden fazla isteme bölün; böylece düğüm içeriği dize formatında gönderecektir.

Mesaj içeriğinde iş akışı bağlamına atıfta bulunmak için değişkenler kullanabilirsiniz.

#LLM Düğümünün Yanıt İçeriğini Kullanma

LLM düğümünün yanıt içeriğini diğer düğümlerde değişken olarak kullanabilirsiniz.