यह दस्तावेज़ AI द्वारा अनुवादित किया गया है। किसी भी अशुद्धि के लिए, कृपया अंग्रेजी संस्करण देखें
कुछ एप्लिकेशन परिदृश्यों में, उपयोगकर्ता चाहते हैं कि LLM मॉडल JSON फ़ॉर्मेट में संरचित सामग्री के साथ प्रतिक्रिया दे। इसे "संरचित आउटपुट" को कॉन्फ़िगर करके प्राप्त किया जा सकता है।

मॉडल द्वारा संरचित सामग्री उत्पन्न करने का तरीका उपयोग किए गए मॉडल और उसकी प्रतिक्रिया फ़ॉर्मेट (Response format) कॉन्फ़िगरेशन पर निर्भर करता है:
वे मॉडल जहाँ प्रतिक्रिया फ़ॉर्मेट (Response format) केवल text का समर्थन करता है
वे मॉडल जहाँ प्रतिक्रिया फ़ॉर्मेट (Response format) JSON मोड (json_object) का समर्थन करता है
वे मॉडल जहाँ प्रतिक्रिया फ़ॉर्मेट (Response format) JSON Schema (json_schema) का समर्थन करता है
Ollama स्थानीय मॉडल
format पैरामीटर के रूप में मॉडल को पास करेगा।मॉडल की प्रतिक्रिया की संरचित सामग्री नोड के 'संरचित सामग्री (Structured content)' फ़ील्ड में एक JSON ऑब्जेक्ट के रूप में सहेजी जाती है और बाद के नोड्स द्वारा इसका उपयोग किया जा सकता है।

