curl --request POST \
--url https://api.dedaluslabs.ai/v1/chat/completions \
--header 'Authorization: Bearer <token>' \
--header 'Content-Type: application/json' \
--data '
{
"model": "openai/gpt-4o",
"messages": [
{
"content": "Hello, how are you?",
"role": "user"
}
],
"input": "Translate this paragraph into French.",
"temperature": 0,
"top_p": 0.1,
"max_tokens": 100,
"presence_penalty": -0.5,
"frequency_penalty": -0.5,
"logit_bias": {
"50256": -100
},
"stop": [
"\n",
"END"
],
"thinking": {
"budget_tokens": 2048,
"type": "enabled"
},
"top_k": 40,
"system": "You are a helpful assistant.",
"instructions": "You are a concise assistant.",
"generation_config": {
"candidateCount": 2,
"responseMimeType": "application/json"
},
"safety_settings": [
{
"category": "HARM_CATEGORY_HARASSMENT",
"threshold": "BLOCK_NONE"
}
],
"tool_config": {
"function_calling_config": {
"mode": "ANY"
}
},
"disable_automatic_function_calling": true,
"seed": 42,
"user": "user-123",
"n": 1,
"stream": false,
"stream_options": {
"include_usage": true
},
"response_format": {
"type": "text"
},
"tools": [
{
"function": {
"description": "किसी स्थान के लिए वर्तमान मौसम प्राप्त करें",
"name": "get_weather",
"parameters": {
"properties": {
"location": {
"description": "शहर का नाम",
"type": "string"
}
},
"required": [
"location"
],
"type": "object"
}
},
"type": "function"
}
],
"tool_choice": "auto",
"parallel_tool_calls": true,
"functions": [
{}
],
"function_call": "<string>",
"logprobs": true,
"top_logprobs": 5,
"max_completion_tokens": 1000,
"reasoning_effort": "medium",
"audio": {
"format": "mp3",
"voice": "alloy"
},
"modalities": [
"text"
],
"prediction": {},
"metadata": {
"session": "abc",
"user_id": "123"
},
"store": true,
"service_tier": "auto",
"prompt_cache_key": "<string>",
"safety_identifier": "<string>",
"verbosity": "low",
"web_search_options": {},
"search_parameters": {},
"deferred": true,
"mcp_servers": [
"dedalus-labs/brave-search",
"dedalus-labs/github-api"
],
"guardrails": [
{}
],
"handoff_config": {},
"model_attributes": {
"anthropic/claude-3-5-sonnet": {
"cost": 0.7,
"creativity": 0.8,
"intelligence": 0.95
},
"openai/gpt-4": {
"cost": 0.8,
"intelligence": 0.9,
"speed": 0.6
},
"openai/gpt-4o-mini": {
"cost": 0.2,
"intelligence": 0.7,
"speed": 0.9
}
},
"agent_attributes": {
"accuracy": 0.9,
"complexity": 0.8,
"efficiency": 0.7
},
"max_turns": 5,
"auto_execute_tools": true
}
'{
"choices": [
{
"finish_reason": "stop",
"index": 0,
"message": {
"content": "The next Warriors game is tomorrow at 7:30 PM.",
"role": "assistant"
}
}
],
"created": 1677652288,
"id": "chatcmpl-123",
"model": "gpt-4o-mini",
"object": "chat.completion",
"tools_executed": [
"search_events",
"get_event_details"
],
"usage": {
"completion_tokens": 12,
"prompt_tokens": 9,
"total_tokens": 21
}
}model की प्रतिक्रिया उत्पन्न करें। स्ट्रीमिंग, टूल्स और MCP सर्वर का समर्थन करता है।
curl --request POST \
--url https://api.dedaluslabs.ai/v1/chat/completions \
--header 'Authorization: Bearer <token>' \
--header 'Content-Type: application/json' \
--data '
{
"model": "openai/gpt-4o",
"messages": [
{
"content": "Hello, how are you?",
"role": "user"
}
],
"input": "Translate this paragraph into French.",
"temperature": 0,
"top_p": 0.1,
"max_tokens": 100,
"presence_penalty": -0.5,
"frequency_penalty": -0.5,
"logit_bias": {
"50256": -100
},
"stop": [
"\n",
"END"
],
"thinking": {
"budget_tokens": 2048,
"type": "enabled"
},
"top_k": 40,
"system": "You are a helpful assistant.",
"instructions": "You are a concise assistant.",
"generation_config": {
"candidateCount": 2,
"responseMimeType": "application/json"
},
"safety_settings": [
{
"category": "HARM_CATEGORY_HARASSMENT",
"threshold": "BLOCK_NONE"
}
],
"tool_config": {
"function_calling_config": {
"mode": "ANY"
}
},
"disable_automatic_function_calling": true,
"seed": 42,
"user": "user-123",
"n": 1,
"stream": false,
"stream_options": {
"include_usage": true
},
"response_format": {
"type": "text"
},
"tools": [
{
"function": {
"description": "किसी स्थान के लिए वर्तमान मौसम प्राप्त करें",
"name": "get_weather",
"parameters": {
"properties": {
"location": {
"description": "शहर का नाम",
"type": "string"
}
},
"required": [
"location"
],
"type": "object"
}
},
"type": "function"
}
],
"tool_choice": "auto",
"parallel_tool_calls": true,
"functions": [
{}
],
"function_call": "<string>",
"logprobs": true,
"top_logprobs": 5,
"max_completion_tokens": 1000,
"reasoning_effort": "medium",
"audio": {
"format": "mp3",
"voice": "alloy"
},
"modalities": [
"text"
],
"prediction": {},
"metadata": {
"session": "abc",
"user_id": "123"
},
"store": true,
"service_tier": "auto",
"prompt_cache_key": "<string>",
"safety_identifier": "<string>",
"verbosity": "low",
"web_search_options": {},
"search_parameters": {},
"deferred": true,
"mcp_servers": [
"dedalus-labs/brave-search",
"dedalus-labs/github-api"
],
"guardrails": [
{}
],
"handoff_config": {},
"model_attributes": {
"anthropic/claude-3-5-sonnet": {
"cost": 0.7,
"creativity": 0.8,
"intelligence": 0.95
},
"openai/gpt-4": {
"cost": 0.8,
"intelligence": 0.9,
"speed": 0.6
},
"openai/gpt-4o-mini": {
"cost": 0.2,
"intelligence": 0.7,
"speed": 0.9
}
},
"agent_attributes": {
"accuracy": 0.9,
"complexity": 0.8,
"efficiency": 0.7
},
"max_turns": 5,
"auto_execute_tools": true
}
'{
"choices": [
{
"finish_reason": "stop",
"index": 0,
"message": {
"content": "The next Warriors game is tomorrow at 7:30 PM.",
"role": "assistant"
}
}
],
"created": 1677652288,
"id": "chatcmpl-123",
"model": "gpt-4o-mini",
"object": "chat.completion",
"tools_executed": [
"search_events",
"get_event_details"
],
"usage": {
"completion_tokens": 12,
"prompt_tokens": 9,
"total_tokens": 21
}
}Bearer टोकन के माध्यम से API कुंजी का प्रमाणीकरण
Chat completion रिक्वेस्ट (OpenAI‑compatible)।
यह एक stateless chat completion endpoint है। stateful conversations (threads के साथ) के लिए, इसके बजाय Responses API (एप्लिकेशन प्रोग्रामिंग इंटरफ़ेस) का उपयोग करें।
model पहचानकर्ता स्ट्रिंग (जैसे, 'openai/gpt-5', 'anthropic/claude-3-5-sonnet').
"openai/gpt-4o"
वार्तालाप का इतिहास। यह या तो message ऑब्जेक्ट्स की सूची स्वीकार करता है, या एक string, जिसे एकल user message के रूप में माना जाता है।
[
{
"content": "Hello, how are you?",
"role": "user"
}
]
Responses‑शैली के input के लिए एक सुविधाजनक उपनाम (convenience alias)। जब messages छोड़ा जाता है, तो user prompt सीधे प्रदान करने के लिए उपयोग किया जाता है।
"Translate this paragraph into French."
कौन‑सा सैंपलिंग टेम्परेचर इस्तेमाल करना है, इसका मान 0 और 2 के बीच होता है। 0.8 जैसे ऊँचे मान आउटपुट को ज़्यादा यादृच्छिक (random) बनाते हैं, जबकि 0.2 जैसे कम मान आउटपुट को अधिक केंद्रित और निर्धारक (deterministic) बनाते हैं। आम तौर पर हम सलाह देते हैं कि आप या तो इसे समायोजित करें या फिर 'top_p' को, लेकिन दोनों को एक साथ नहीं।
0 <= x <= 20
temperature-आधारित sampling का एक विकल्प nucleus sampling कहलाता है, जिसमें model केवल उन tokens के परिणामों पर विचार करता है जो top_p probability mass के भीतर आते हैं। उदाहरण के लिए, 0.1 का मतलब है कि केवल वे tokens चुने जाएँगे जो कुल probability mass के शीर्ष 10% में आते हैं। आम तौर पर हम सुझाव देते हैं कि आप या तो इसे बदलें या फिर temperature को, लेकिन दोनों को एक साथ नहीं।
0 <= x <= 10.1
चैट completion में उत्पन्न किए जा सकने वाले अधिकतम टोकन की संख्या। इस मान का उपयोग API (एप्लिकेशन प्रोग्रामिंग इंटरफ़ेस) के माध्यम से बनाए गए टेक्स्ट की लागत को नियंत्रित करने के लिए किया जा सकता है। यह मान अब निष्क्रिय (deprecated) है और इसकी जगह "max_completion_tokens" का उपयोग किया जाना चाहिए, तथा यह o‑series मॉडल्स के साथ संगत नहीं है।
x >= 1100
-2.0 और 2.0 के बीच की संख्या। सकारात्मक मान अब तक उत्पन्न टेक्स्ट में उनकी उपस्थिति के आधार पर नए टोकन पर दंड लगाते हैं, जिससे मॉडल के नए विषयों पर बात करने की संभावना बढ़ जाती है।
-2 <= x <= 2-0.5
-2.0 और 2.0 के बीच की संख्या। धनात्मक मान अब तक जनरेट किए गए टेक्स्ट में किसी टोकन की मौजूदा आवृत्ति के आधार पर नए टोकन पर दंड लागू करते हैं, जिससे model के लिए वही पंक्ति / टेक्स्ट शब्दशः दोहराने की संभावना कम हो जाती है।
-2 <= x <= 2-0.5
निर्धारित tokens के completion में उत्पन्न होने की संभावना (likelihood) को संशोधित करता है। यह एक JSON object लेता है जो token id को (string के रूप में) bias मानों से map करता है, जहाँ bias मान -100 से 100 के बीच होते हैं। sampling से पहले यह bias logits में जोड़ा जाता है; -1 और 1 के बीच के मान चयन की संभावना को हल्का‑सा प्रभावित करते हैं, जबकि -100 या 100 जैसे मान किसी token को व्यावहारिक रूप से निषिद्ध (ban) या अनिवार्य (require) कर देते हैं।
दिखाएं चाइल्ड एट्रिब्यूट्स
{ "50256": -100 }
'o3' और 'o4-mini' जैसे नवीनतम reasoning models के साथ उपलब्ध/समर्थित नहीं है।
अधिकतम 4 stop sequences, जिन पर पहुँचने पर API आगे टोकन जनरेट करना बंद कर देगी; लौटाए गए टेक्स्ट में stop sequence शामिल नहीं होगा।
["\n", "END"]
फ़ील्ड्स:
दिखाएं चाइल्ड एट्रिब्यूट्स
{ "budget_tokens": 2048, "type": "enabled" }
Top-k सैंपलिंग। Anthropic: जैसा‑का‑तैसा आगे भेज दिया जाता है (pass-through)। Google: generationConfig.topK में इन्जेक्ट किया जाता है।
x >= 040
सिस्टम prompt/निर्देश। Anthropic: पास‑थ्रू (जैसा‑का‑तैसा आगे भेजा जाता है)। Google: systemInstruction में बदला जाता है। OpenAI: messages से निकाला जाता है।
"You are a helpful assistant."
Responses शैली के instructions के लिए सुविधा‑उन्मुख संक्षिप्त नाम (alias)। उपलब्ध होने पर system और system भूमिका वाले संदेशों पर प्राथमिकता रखता है।
"You are a concise assistant."
Google का generationConfig ऑब्जेक्ट। स्वचालित रूप से बनाए गए config के साथ मर्ज किया जाता है। Google‑विशिष्ट पैरामीटर (candidateCount, responseMimeType, आदि) के लिए इसका उपयोग करें।
{
"candidateCount": 2,
"responseMimeType": "application/json"
}
Google की सुरक्षा सेटिंग्स (हानि श्रेणियाँ और सीमाएँ/थ्रेशहोल्ड)।
[
{
"category": "HARM_CATEGORY_HARASSMENT",
"threshold": "BLOCK_NONE"
}
]
Google tool कॉन्फ़िगरेशन (function calling मोड, आदि)।
{
"function_calling_config": { "mode": "ANY" }
}
SDK (सॉफ्टवेयर डेवलपमेंट किट) के स्वचालित फ़ंक्शन निष्पादन को बंद करने के लिए केवल Google‑विशिष्ट फ़्लैग। true पर सेट होने पर, model फ़ंक्शन कॉल लौटाता है जिन्हें Client को मैन्युअल रूप से निष्पादित करना होता है।
true
यदि सेट किया गया है, तो सिस्टम नियतात्मक (deterministic) तरीके से सैंपल करने के लिए सर्वोत्तम प्रयास करेगा। अलग‑अलग models या API (एप्लिकेशन प्रोग्रामिंग इंटरफ़ेस) संस्करणों में, एक ही seed के लिए भी नियतात्मक व्यवहार की गारंटी नहीं है।
42
आपके end‑users के लिए एक स्थिर पहचानकर्ता। OpenAI को दुरुपयोग का पता लगाने और उसे रोकने में मदद करता है, और कैश हिट रेट बढ़ा सकता है। इस फ़ील्ड को 'safety_identifier' और 'prompt_cache_key' से बदला जा रहा है।
"user-123"
प्रत्येक इनपुट संदेश के लिए कितने chat completion विकल्प जनरेट करने हैं। लागत कम रखने के लिए 'n' को 1 ही रखें।
1 <= x <= 1281
यदि true हो, तो जैसे‑जैसे model का response डेटा जेनरेट होता है, उसे Server-Sent Events के माध्यम से Client को स्ट्रीम किया जाता है।
true
false
स्ट्रीमिंग responses के लिए विकल्प। इन्हें केवल तभी सेट करें जब 'stream' true हो ( 'include_usage' और 'include_obfuscation' को सपोर्ट करता है)।
{ "include_usage": true }
एक ऑब्जेक्ट जो यह निर्दिष्ट करता है कि मॉडल को आउटपुट किस फ़ॉर्मेट में देना चाहिए। संरचित आउटपुट के लिए {'type': 'json_schema', 'json_schema': {...}} का उपयोग करें, या लेगेसी JSON मोड के लिए {'type': 'json_object'} का उपयोग करें। वर्तमान में केवल OpenAI‑प्रिफ़िक्स वाले मॉडल ही इस फ़ील्ड को सपोर्ट करते हैं; यदि इसे Anthropic या Google के अनुरोधों में शामिल किया जाए, तो वे invalid_request_error रिटर्न करेंगे।
{ "type": "text" }
टूल्स की वह सूची जिन्हें model कॉल कर सकता है। OpenAI function tools और कस्टम टूल्स दोनों को सपोर्ट करता है; Dedalus‑प्रबंधित सर्वर‑साइड टूल्स के लिए 'mcp_servers' का उपयोग करें।
[
{
"function": {
"description": "किसी स्थान के लिए वर्तमान मौसम प्राप्त करें",
"name": "get_weather",
"parameters": {
"properties": {
"location": {
"description": "शहर का नाम",
"type": "string"
}
},
"required": ["location"],
"type": "object"
}
},
"type": "function"
}
]
यह नियंत्रित करता है कि model कौन‑सा (और क्या कोई) tool कॉल करेगा। 'none' टूल कॉलिंग को रोकता है, 'auto' में निर्णय model पर छोड़ता है, और 'required' कम से कम एक टूल को कॉल करना अनिवार्य कर देता है। किसी विशेष tool का पेलोड देने पर, वही tool अनिवार्य रूप से कॉल होगा।
"auto"
tool उपयोग के दौरान parallel function calling को सक्षम करना है या नहीं।
true
'tools' के पक्ष में अप्रचलित (deprecated)। उन पुरानी function परिभाषाओं की सूची, जिनके लिए model JSON इनपुट तैयार कर सकता है।
'tool_choice' के पक्ष में अप्रचलित (deprecated)। नियंत्रित करता है कि model कौन‑सा function कॉल करेगा (none, auto, या कोई विशेष नाम)।
आउटपुट tokens की log probabilities वापस की जाएँ या नहीं। यदि true हो, तो response content में प्रत्येक token के लिए log probabilities वापस की जाती हैं।
true
0 और 20 के बीच का एक पूर्णांक, जो निर्दिष्ट करता है कि प्रत्येक स्थान पर कितने सबसे अधिक संभावित tokens उनके log probabilities सहित वापस किए जाएँ। इसके लिए 'logprobs' का true होना आवश्यक है।
0 <= x <= 205
completion के लिए जनरेट किए जाने वाले tokens की संख्या पर एक ऊपरी सीमा, जिसमें दृश्य आउटपुट और reasoning tokens दोनों शामिल हैं।
x >= 11000
समर्थित reasoning models के लिए reasoning पर लगाए जाने वाले प्रयास को सीमित करता है। उच्च मान अधिक compute का उपयोग करते हैं, जिससे latency और token लागत के बदले reasoning गुणवत्ता बेहतर हो सकती है।
low, medium, high "medium"
ऑडियो आउटपुट के लिए पैरामीटर। जब आप ऑडियो वाला रेस्पॉन्स माँगते हैं (उदाहरण के लिए, जिन modalities में 'audio' शामिल है), तब आवश्यक।
{ "format": "mp3", "voice": "alloy" }
वे आउटपुट प्रकार जिन्हें आप चाहते हैं कि model उत्पन्न करे। अधिकांश models का डिफ़ॉल्ट ['text'] होता है; कुछ ['text', 'audio'] को सपोर्ट करते हैं।
["text"]
अनुमानित आउटपुट के लिए कॉन्फ़िगरेशन। जब आपको पहले से ही रेस्पॉन्स की सामग्री का बड़ा हिस्सा पता हो, तब यह रेस्पॉन्स समय को बेहतर बनाता है।
अधिकतम 16 key-value स्ट्रिंग पेयर्स का एक सेट, जिन्हें स्ट्रक्चर्ड मेटाडेटा के रूप में रिक्वेस्ट से जोड़ा जा सकता है।
दिखाएं चाइल्ड एट्रिब्यूट्स
{ "session": "abc", "user_id": "123" }
यह निर्धारित करता है कि इस chat completion अनुरोध के आउटपुट को OpenAI के model distillation या eval प्रोडक्ट्स के लिए स्टोर करना है या नहीं। यदि storage सक्षम है, तो 8 MB से बड़े image इनपुट ड्रॉप (हटा) कर दिए जाते हैं।
true
रिक्वेस्ट के लिए उपयोग किए जाने वाले processing tier को निर्दिष्ट करता है। 'auto' प्रोजेक्ट की डिफ़ॉल्ट सेटिंग्स उपयोग करता है, जबकि 'default' मानक मूल्य निर्धारण और परफ़ॉर्मेंस को अनिवार्य रूप से लागू करता है।
auto, default "auto"
OpenAI द्वारा समान रिक्वेस्ट के लिए रिस्पॉन्स को cache करने और cache hit rates को ऑप्टिमाइज़ करने के लिए उपयोग किया जाता है। caching के लिए यह पुराने 'user' फ़ील्ड को प्रतिस्थापित करता है।
OpenAI उपयोग नीतियों का उल्लंघन कर सकने वाले उपयोगकर्ताओं का पता लगाने में मदद के लिए उपयोग किया जाने वाला स्थिर पहचानकर्ता। भेजने से पहले अंतिम‑उपयोगकर्ता पहचानकर्ताओं को हैश करने पर विचार करें।
model की प्रतिक्रिया कितनी विस्तृत होगी, इसे नियंत्रित करता है। कम मान संक्षिप्त उत्तर देते हैं, अधिक मान अधिक विस्तृत उत्तरों की अनुमति देते हैं।
low, medium, high OpenAI के web search tool के लिए कॉन्फ़िगरेशन। अधिक जानें: https://platform.openai.com/docs/guides/tools-web-search?api-mode=chat.
web search डेटा प्राप्ति को कॉन्फ़िगर करने के लिए xAI‑विशिष्ट पैरामीटर। यदि सेट नहीं किया गया है, तो model कोई डेटा प्राप्त नहीं करेगा।
xAI-विशिष्ट पैरामीटर। यदि इसे true पर सेट किया जाए, तो यह अनुरोध एक request_id वापस करता है, जिसका उपयोग बाद में GET /v1/chat/deferred-completion/{request_id} के माध्यम से असिंक्रोनस completion प्राप्त करने के लिए किया जा सकता है।
सर्वर‑साइड पर tool निष्पादन के लिए उपलब्ध कराए जाने वाले मॉडल कॉन्टेक्स्ट प्रोटोकॉल (MCP) सर्वर पतों की सूची। प्रविष्टियाँ URL हो सकती हैं (जैसे, 'https://mcp.example.com'), स्लग हो सकती हैं (जैसे, 'dedalus-labs/brave-search'), या slug/version/url निर्दिष्ट करने वाले स्ट्रक्चर्ड ऑब्जेक्ट हो सकते हैं। MCP टूल्स सर्वर‑साइड पर निष्पादित होते हैं और इनका बिल अलग से किया जाता है।
[
"dedalus-labs/brave-search",
"dedalus-labs/github-api"
]
इनपुट/आउटपुट वैलिडेशन और सुरक्षा जाँच के लिए एजेंट पर लागू की जाने वाली गार्डरेल्स। यह फ़ील्ड भविष्य के उपयोग के लिए आरक्षित है — guardrails कॉन्फ़िगरेशन फ़ॉर्मेट अभी अंतिम रूप से तय नहीं किया गया है।
मल्टी‑मॉडल हैंडऑफ़ और एजेंट ऑर्केस्ट्रेशन के लिए कॉन्फ़िगरेशन। भविष्य में उपयोग के लिए आरक्षित — हैंडऑफ़ कॉन्फ़िगरेशन फ़ॉर्मेट अभी अंतिम रूप से निर्धारित नहीं किया गया है।
मल्टी‑मॉडल निष्पादन के दौरान रूटिंग निर्णयों में उपयोग होने वाले व्यक्तिगत मॉडलों के लिए गुण (attributes)। फ़ॉर्मेट: {'model_name': {'attribute': value}}, जहाँ value 0.0–1.0 के बीच होता है। सामान्य attributes: 'intelligence', 'speed', 'cost', 'creativity', 'accuracy'। एजेंट इनका उपयोग task की आवश्यकताओं के आधार पर सर्वोत्तम model चुनने के लिए करता है।
दिखाएं चाइल्ड एट्रिब्यूट्स
{
"anthropic/claude-3-5-sonnet": {
"cost": 0.7,
"creativity": 0.8,
"intelligence": 0.95
},
"openai/gpt-4": {
"cost": 0.8,
"intelligence": 0.9,
"speed": 0.6
},
"openai/gpt-4o-mini": {
"cost": 0.2,
"intelligence": 0.7,
"speed": 0.9
}
}
खुद एजेंट के लिए गुण, जो उसके व्यवहार और model चयन को प्रभावित करते हैं। फ़ॉर्मेट: {'attribute': value}, जहाँ value 0.0–1.0 के बीच होती है। आम attributes: 'complexity', 'accuracy', 'efficiency', 'creativity', 'friendliness'। उच्च value उस विशेष गुण के लिए अधिक मज़बूत प्राथमिकता दर्शाती है।
दिखाएं चाइल्ड एट्रिब्यूट्स
{
"accuracy": 0.9,
"complexity": 0.8,
"efficiency": 0.7
}
एजेंट के निष्पादन के लिए अधिकतम turns की संख्या, जिसके बाद प्रक्रिया समाप्त हो जाती है (डिफ़ॉल्ट: 10)। प्रत्येक turn एक model inference cycle का प्रतिनिधित्व करता है। उच्च value अधिक जटिल तर्क (reasoning) की अनुमति देती है, लेकिन लागत और latency बढ़ाती है।
1 <= x <= 1005
जब यह False हो, तो सर्वर-साइड tool निष्पादन को स्किप करें और प्रतिक्रिया में रॉ OpenAI-स्टाइल tool_calls वापस लौटाएँ।
true
false
ChatCompletionChunk इवेंट्स की JSON या Server-Sent Events (SSE) स्ट्रीम
Dedalus API के लिए चैट कम्प्लीशन प्रतिक्रिया।
Dedalus एक्सटेंशन के साथ OpenAI‑संगत चैट कम्प्लीशन प्रतिक्रिया, जो OpenAI API के साथ पूर्ण अनुकूलता बनाए रखते हुए अतिरिक्त सुविधाएँ प्रदान करती है, जैसे सर्वर‑साइड tool निष्पादन ट्रैकिंग और मॉडल कॉन्टेक्स्ट प्रोटोकॉल (MCP) त्रुटि रिपोर्टिंग।
चैट कम्प्लीशन के लिए एक अद्वितीय पहचानकर्ता।
चैट कम्प्लीशन विकल्पों (choices) की सूची। यदि n 1 से अधिक है, तो इसमें एक से अधिक आइटम हो सकते हैं।
दिखाएं चाइल्ड एट्रिब्यूट्स
Unix टाइमस्टैम्प (सेकंड में), जब चैट कम्प्लीशन बनाया गया था।
चैट कम्प्लीशन के लिए उपयोग किया गया model।
ऑब्जेक्ट का प्रकार; यह हमेशा chat.completion होता है।
"chat.completion"अनुरोध को प्रोसेस करने के लिए उपयोग किए जाने वाले प्रोसेसिंग प्रकार को निर्दिष्ट करता है।
auto है, तो अनुरोध को प्रोजेक्ट सेटिंग्स में कॉन्फ़िगर किए गए सेवा‑स्तर (service tier) के साथ प्रोसेस किया जाएगा। जब तक अलग से कॉन्फ़िगर न किया जाए, प्रोजेक्ट default का उपयोग करेगा।default है, तो अनुरोध को चुने गए model के लिए मानक मूल्य निर्धारण और प्रदर्शन (standard pricing and performance) के साथ प्रोसेस किया जाएगा।[flex](https://platform.openai.com/docs/guides/flex-processing) या [priority](https://openai.com/api-priority-processing/) है, तो अनुरोध को संबंधित सेवा‑स्तर के साथ प्रोसेस किया जाएगा।auto होता है।जब service_tier पैरामीटर सेट किया जाता है, तो response बॉडी में वास्तव में उपयोग किए गए प्रोसेसिंग मोड के आधार पर service_tier मान शामिल होगा। यह response मान, पैरामीटर में सेट किए गए मान से भिन्न हो सकता है।
auto, default, flex, scale, priority यह फ़िंगरप्रिंट उस बैकएंड कॉन्फ़िगरेशन से आशय रखता है जिसके साथ model चलता है।
इसे seed रिक्वेस्ट पैरामीटर के साथ मिलाकर इस बात को समझने के लिए उपयोग किया जा सकता है कि बैकएंड में ऐसे बदलाव कब किए गए हैं जो determinism (नियतात्मकता) को प्रभावित कर सकते हैं।
completion रिक्वेस्ट के लिए उपयोग-संबंधी सांख्यिकी।
दिखाएं चाइल्ड एट्रिब्यूट्स
server-side पर निष्पादित किए गए tool नामों की सूची (उदाहरण के लिए, मॉडल कॉन्टेक्स्ट प्रोटोकॉल (MCP) टूल्स)। यह फ़ील्ड केवल उसी स्थिति में मौजूद होती है जब टूल्स को client-side पर लौटाने के बजाय सर्वर पर ही निष्पादित किया गया हो।
अनुरोध के दौरान यदि कोई MCP सर्वर विफलताएँ हुई हों तो उनके बारे में जानकारी। इसमें किन MCP सर्वरों में विफलता हुई, उसके कारण क्या थे, और उपयोगकर्ता के लिए सुझाए गए कदमों का विवरण शामिल होता है। यह फ़ील्ड केवल तब मौजूद रहता है जब MCP सर्वर विफलताएँ हुई हों।
वाज़ दिस पेज हेल्पफुल