เอกสารนี้แปลโดย AI หากมีข้อมูลที่ไม่ถูกต้อง โปรดดูเวอร์ชันภาษาอังกฤษ
การใช้โหนด LLM ในเวิร์กโฟลว์ช่วยให้คุณสามารถเริ่มต้นการสนทนากับบริการ LLM ออนไลน์ได้ โดยใช้ประโยชน์จากความสามารถของโมเดลขนาดใหญ่เพื่อช่วยในการดำเนินงานตามกระบวนการทางธุรกิจต่างๆ ให้สำเร็จครับ/ค่ะ

เนื่องจากการสนทนากับบริการ LLM มักใช้เวลานาน โหนด LLM จึงสามารถใช้ได้เฉพาะในเวิร์กโฟลว์แบบอะซิงโครนัสเท่านั้นครับ/ค่ะ

อันดับแรก ให้เลือกบริการ LLM ที่เชื่อมต่อไว้แล้วครับ/ค่ะ หากยังไม่ได้เชื่อมต่อบริการ LLM คุณจะต้องเพิ่มการตั้งค่าบริการ LLM ก่อนครับ/ค่ะ ดูเพิ่มเติม: การจัดการบริการ LLM
หลังจากเลือกบริการแล้ว แอปพลิเคชันจะพยายามดึงรายการโมเดลที่ใช้งานได้จากบริการ LLM เพื่อให้คุณเลือกครับ/ค่ะ บริการ LLM ออนไลน์บางแห่งอาจมี API สำหรับดึงโมเดลที่ไม่เป็นไปตามโปรโตคอล API มาตรฐาน ในกรณีเช่นนี้ ผู้ใช้สามารถป้อน Model ID ด้วยตนเองได้ครับ/ค่ะ

คุณสามารถปรับพารามิเตอร์สำหรับการเรียกใช้โมเดล LLM ได้ตามต้องการครับ/ค่ะ

สิ่งที่ควรทราบคือการตั้งค่า Response format ครับ/ค่ะ ตัวเลือกนี้ใช้เพื่อแจ้งให้โมเดลขนาดใหญ่ทราบถึงรูปแบบของผลลัพธ์ที่ต้องการ ซึ่งสามารถเป็นข้อความ (Text) หรือ JSON ก็ได้ครับ/ค่ะ หากคุณเลือกโหมด JSON โปรดทราบสิ่งต่อไปนี้ครับ/ค่ะ:
400 status code (no body) ได้ครับ/ค่ะอาร์เรย์ของข้อความที่ส่งไปยังโมเดล LLM สามารถรวมชุดข้อความประวัติได้ครับ/ค่ะ โดยข้อความรองรับสามประเภทดังนี้ครับ/ค่ะ:
สำหรับข้อความของผู้ใช้ หากโมเดลรองรับ คุณสามารถเพิ่มเนื้อหาหลายส่วนใน Prompt เดียวกันได้ ซึ่งจะตรงกับพารามิเตอร์ content ครับ/ค่ะ หากโมเดลที่คุณใช้รองรับเฉพาะพารามิเตอร์ content ในรูปแบบสตริงเท่านั้น (ซึ่งเป็นกรณีของโมเดลส่วนใหญ่ที่ไม่รองรับการสนทนาแบบหลายโมดอล) โปรดแยกข้อความเป็นหลาย Prompt โดยแต่ละ Prompt ให้มีเนื้อหาเพียงส่วนเดียวครับ/ค่ะ ด้วยวิธีนี้ โหนดจะส่งเนื้อหาเป็นสตริงครับ/ค่ะ

คุณสามารถใช้ตัวแปรในเนื้อหาข้อความเพื่ออ้างอิงบริบทของเวิร์กโฟลว์ได้ครับ/ค่ะ

คุณสามารถใช้เนื้อหาการตอบกลับของโหนด LLM เป็นตัวแปรในโหนดอื่นๆ ได้ครับ/ค่ะ
