मुख्य सामग्री पर जाएं
POST
/
v1
/
chat
/
completions
चैट कंप्लीशन जेनरेट करें
curl --request POST \
  --url https://api.dedaluslabs.ai/v1/chat/completions \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "openai/gpt-4o",
  "messages": [
    {
      "content": "Hello, how are you?",
      "role": "user"
    }
  ],
  "input": "Translate this paragraph into French.",
  "temperature": 0,
  "top_p": 0.1,
  "max_tokens": 100,
  "presence_penalty": -0.5,
  "frequency_penalty": -0.5,
  "logit_bias": {
    "50256": -100
  },
  "stop": [
    "\n",
    "END"
  ],
  "thinking": {
    "budget_tokens": 2048,
    "type": "enabled"
  },
  "top_k": 40,
  "system": "You are a helpful assistant.",
  "instructions": "You are a concise assistant.",
  "generation_config": {
    "candidateCount": 2,
    "responseMimeType": "application/json"
  },
  "safety_settings": [
    {
      "category": "HARM_CATEGORY_HARASSMENT",
      "threshold": "BLOCK_NONE"
    }
  ],
  "tool_config": {
    "function_calling_config": {
      "mode": "ANY"
    }
  },
  "disable_automatic_function_calling": true,
  "seed": 42,
  "user": "user-123",
  "n": 1,
  "stream": false,
  "stream_options": {
    "include_usage": true
  },
  "response_format": {
    "type": "text"
  },
  "tools": [
    {
      "function": {
        "description": "किसी स्थान के लिए वर्तमान मौसम प्राप्त करें",
        "name": "get_weather",
        "parameters": {
          "properties": {
            "location": {
              "description": "शहर का नाम",
              "type": "string"
            }
          },
          "required": [
            "location"
          ],
          "type": "object"
        }
      },
      "type": "function"
    }
  ],
  "tool_choice": "auto",
  "parallel_tool_calls": true,
  "functions": [
    {}
  ],
  "function_call": "<string>",
  "logprobs": true,
  "top_logprobs": 5,
  "max_completion_tokens": 1000,
  "reasoning_effort": "medium",
  "audio": {
    "format": "mp3",
    "voice": "alloy"
  },
  "modalities": [
    "text"
  ],
  "prediction": {},
  "metadata": {
    "session": "abc",
    "user_id": "123"
  },
  "store": true,
  "service_tier": "auto",
  "prompt_cache_key": "<string>",
  "safety_identifier": "<string>",
  "verbosity": "low",
  "web_search_options": {},
  "search_parameters": {},
  "deferred": true,
  "mcp_servers": [
    "dedalus-labs/brave-search",
    "dedalus-labs/github-api"
  ],
  "guardrails": [
    {}
  ],
  "handoff_config": {},
  "model_attributes": {
    "anthropic/claude-3-5-sonnet": {
      "cost": 0.7,
      "creativity": 0.8,
      "intelligence": 0.95
    },
    "openai/gpt-4": {
      "cost": 0.8,
      "intelligence": 0.9,
      "speed": 0.6
    },
    "openai/gpt-4o-mini": {
      "cost": 0.2,
      "intelligence": 0.7,
      "speed": 0.9
    }
  },
  "agent_attributes": {
    "accuracy": 0.9,
    "complexity": 0.8,
    "efficiency": 0.7
  },
  "max_turns": 5,
  "auto_execute_tools": true
}
'
{
  "choices": [
    {
      "finish_reason": "stop",
      "index": 0,
      "message": {
        "content": "The next Warriors game is tomorrow at 7:30 PM.",
        "role": "assistant"
      }
    }
  ],
  "created": 1677652288,
  "id": "chatcmpl-123",
  "model": "gpt-4o-mini",
  "object": "chat.completion",
  "tools_executed": [
    "search_events",
    "get_event_details"
  ],
  "usage": {
    "completion_tokens": 12,
    "prompt_tokens": 9,
    "total_tokens": 21
  }
}

प्राधिकरण

Authorization
string
header
आवश्यक

Bearer टोकन के माध्यम से API कुंजी का प्रमाणीकरण

बॉडी

application/json

Chat completion रिक्वेस्ट (OpenAI‑compatible)।

यह एक stateless chat completion endpoint है। stateful conversations (threads के साथ) के लिए, इसके बजाय Responses API (एप्लिकेशन प्रोग्रामिंग इंटरफ़ेस) का उपयोग करें।

model
आवश्यक

model पहचानकर्ता स्ट्रिंग (जैसे, 'openai/gpt-5', 'anthropic/claude-3-5-sonnet').

उदाहरण:

"openai/gpt-4o"

messages
आवश्यक

वार्तालाप का इतिहास। यह या तो message ऑब्जेक्ट्स की सूची स्वीकार करता है, या एक string, जिसे एकल user message के रूप में माना जाता है।

उदाहरण:
[
  {
    "content": "Hello, how are you?",
    "role": "user"
  }
]
input

Responses‑शैली के input के लिए एक सुविधाजनक उपनाम (convenience alias)। जब messages छोड़ा जाता है, तो user prompt सीधे प्रदान करने के लिए उपयोग किया जाता है।

उदाहरण:

"Translate this paragraph into French."

temperature
number | null

कौन‑सा सैंपलिंग टेम्परेचर इस्तेमाल करना है, इसका मान 0 और 2 के बीच होता है। 0.8 जैसे ऊँचे मान आउटपुट को ज़्यादा यादृच्छिक (random) बनाते हैं, जबकि 0.2 जैसे कम मान आउटपुट को अधिक केंद्रित और निर्धारक (deterministic) बनाते हैं। आम तौर पर हम सलाह देते हैं कि आप या तो इसे समायोजित करें या फिर 'top_p' को, लेकिन दोनों को एक साथ नहीं।

आवश्यक सीमा: 0 <= x <= 2
उदाहरण:

0

top_p
number | null

temperature-आधारित sampling का एक विकल्प nucleus sampling कहलाता है, जिसमें model केवल उन tokens के परिणामों पर विचार करता है जो top_p probability mass के भीतर आते हैं। उदाहरण के लिए, 0.1 का मतलब है कि केवल वे tokens चुने जाएँगे जो कुल probability mass के शीर्ष 10% में आते हैं। आम तौर पर हम सुझाव देते हैं कि आप या तो इसे बदलें या फिर temperature को, लेकिन दोनों को एक साथ नहीं।

आवश्यक सीमा: 0 <= x <= 1
उदाहरण:

0.1

max_tokens
integer | null

चैट completion में उत्पन्न किए जा सकने वाले अधिकतम टोकन की संख्या। इस मान का उपयोग API (एप्लिकेशन प्रोग्रामिंग इंटरफ़ेस) के माध्यम से बनाए गए टेक्स्ट की लागत को नियंत्रित करने के लिए किया जा सकता है। यह मान अब निष्क्रिय (deprecated) है और इसकी जगह "max_completion_tokens" का उपयोग किया जाना चाहिए, तथा यह o‑series मॉडल्स के साथ संगत नहीं है।

आवश्यक सीमा: x >= 1
उदाहरण:

100

presence_penalty
number | null

-2.0 और 2.0 के बीच की संख्या। सकारात्मक मान अब तक उत्पन्न टेक्स्ट में उनकी उपस्थिति के आधार पर नए टोकन पर दंड लगाते हैं, जिससे मॉडल के नए विषयों पर बात करने की संभावना बढ़ जाती है।

आवश्यक सीमा: -2 <= x <= 2
उदाहरण:

-0.5

frequency_penalty
number | null

-2.0 और 2.0 के बीच की संख्या। धनात्मक मान अब तक जनरेट किए गए टेक्स्ट में किसी टोकन की मौजूदा आवृत्ति के आधार पर नए टोकन पर दंड लागू करते हैं, जिससे model के लिए वही पंक्ति / टेक्स्ट शब्दशः दोहराने की संभावना कम हो जाती है।

आवश्यक सीमा: -2 <= x <= 2
उदाहरण:

-0.5

logit_bias
Logit Bias · object

निर्धारित tokens के completion में उत्पन्न होने की संभावना (likelihood) को संशोधित करता है। यह एक JSON object लेता है जो token id को (string के रूप में) bias मानों से map करता है, जहाँ bias मान -100 से 100 के बीच होते हैं। sampling से पहले यह bias logits में जोड़ा जाता है; -1 और 1 के बीच के मान चयन की संभावना को हल्का‑सा प्रभावित करते हैं, जबकि -100 या 100 जैसे मान किसी token को व्यावहारिक रूप से निषिद्ध (ban) या अनिवार्य (require) कर देते हैं।

उदाहरण:
{ "50256": -100 }
stop
string[] | null

'o3' और 'o4-mini' जैसे नवीनतम reasoning models के साथ उपलब्ध/समर्थित नहीं है।

अधिकतम 4 stop sequences, जिन पर पहुँचने पर API आगे टोकन जनरेट करना बंद कर देगी; लौटाए गए टेक्स्ट में stop sequence शामिल नहीं होगा।

उदाहरण:
["\n", "END"]
thinking
ThinkingConfigDisabled · object

फ़ील्ड्स:

  • type (अनिवार्य): Literal['disabled']
उदाहरण:
{ "budget_tokens": 2048, "type": "enabled" }
top_k
integer | null

Top-k सैंपलिंग। Anthropic: जैसा‑का‑तैसा आगे भेज दिया जाता है (pass-through)। Google: generationConfig.topK में इन्जेक्ट किया जाता है।

आवश्यक सीमा: x >= 0
उदाहरण:

40

system

सिस्टम prompt/निर्देश। Anthropic: पास‑थ्रू (जैसा‑का‑तैसा आगे भेजा जाता है)। Google: systemInstruction में बदला जाता है। OpenAI: messages से निकाला जाता है।

उदाहरण:

"You are a helpful assistant."

instructions

Responses शैली के instructions के लिए सुविधा‑उन्मुख संक्षिप्त नाम (alias)। उपलब्ध होने पर system और system भूमिका वाले संदेशों पर प्राथमिकता रखता है।

उदाहरण:

"You are a concise assistant."

generation_config
Generation Config · object

Google का generationConfig ऑब्जेक्ट। स्वचालित रूप से बनाए गए config के साथ मर्ज किया जाता है। Google‑विशिष्ट पैरामीटर (candidateCount, responseMimeType, आदि) के लिए इसका उपयोग करें।

उदाहरण:
{
  "candidateCount": 2,
  "responseMimeType": "application/json"
}
safety_settings
Safety Settings · object[] | null

Google की सुरक्षा सेटिंग्स (हानि श्रेणियाँ और सीमाएँ/थ्रेशहोल्ड)।

उदाहरण:
[
  {
    "category": "HARM_CATEGORY_HARASSMENT",
    "threshold": "BLOCK_NONE"
  }
]
tool_config
Tool Config · object

Google tool कॉन्फ़िगरेशन (function calling मोड, आदि)।

उदाहरण:
{
  "function_calling_config": { "mode": "ANY" }
}
disable_automatic_function_calling
boolean | null

SDK (सॉफ्टवेयर डेवलपमेंट किट) के स्वचालित फ़ंक्शन निष्पादन को बंद करने के लिए केवल Google‑विशिष्ट फ़्लैग। true पर सेट होने पर, model फ़ंक्शन कॉल लौटाता है जिन्हें Client को मैन्युअल रूप से निष्पादित करना होता है।

उदाहरण:

true

seed
integer | null

यदि सेट किया गया है, तो सिस्टम नियतात्मक (deterministic) तरीके से सैंपल करने के लिए सर्वोत्तम प्रयास करेगा। अलग‑अलग models या API (एप्लिकेशन प्रोग्रामिंग इंटरफ़ेस) संस्करणों में, एक ही seed के लिए भी नियतात्मक व्यवहार की गारंटी नहीं है।

उदाहरण:

42

user
string | null

आपके end‑users के लिए एक स्थिर पहचानकर्ता। OpenAI को दुरुपयोग का पता लगाने और उसे रोकने में मदद करता है, और कैश हिट रेट बढ़ा सकता है। इस फ़ील्ड को 'safety_identifier' और 'prompt_cache_key' से बदला जा रहा है।

उदाहरण:

"user-123"

n
integer | null

प्रत्येक इनपुट संदेश के लिए कितने chat completion विकल्प जनरेट करने हैं। लागत कम रखने के लिए 'n' को 1 ही रखें।

आवश्यक सीमा: 1 <= x <= 128
उदाहरण:

1

stream
boolean
डिफ़ॉल्ट:false

यदि true हो, तो जैसे‑जैसे model का response डेटा जेनरेट होता है, उसे Server-Sent Events के माध्यम से Client को स्ट्रीम किया जाता है।

उदाहरण:

true

false

stream_options
Stream Options · object

स्ट्रीमिंग responses के लिए विकल्प। इन्हें केवल तभी सेट करें जब 'stream' true हो ( 'include_usage' और 'include_obfuscation' को सपोर्ट करता है)।

उदाहरण:
{ "include_usage": true }
response_format
Response Format · object

एक ऑब्जेक्ट जो यह निर्दिष्ट करता है कि मॉडल को आउटपुट किस फ़ॉर्मेट में देना चाहिए। संरचित आउटपुट के लिए {'type': 'json_schema', 'json_schema': {...}} का उपयोग करें, या लेगेसी JSON मोड के लिए {'type': 'json_object'} का उपयोग करें। वर्तमान में केवल OpenAI‑प्रिफ़िक्स वाले मॉडल ही इस फ़ील्ड को सपोर्ट करते हैं; यदि इसे Anthropic या Google के अनुरोधों में शामिल किया जाए, तो वे invalid_request_error रिटर्न करेंगे।

उदाहरण:
{ "type": "text" }
tools
Tools · object[] | null

टूल्स की वह सूची जिन्हें model कॉल कर सकता है। OpenAI function tools और कस्टम टूल्स दोनों को सपोर्ट करता है; Dedalus‑प्रबंधित सर्वर‑साइड टूल्स के लिए 'mcp_servers' का उपयोग करें।

उदाहरण:
[
  {
    "function": {
      "description": "किसी स्थान के लिए वर्तमान मौसम प्राप्त करें",
      "name": "get_weather",
      "parameters": {
        "properties": {
          "location": {
            "description": "शहर का नाम",
            "type": "string"
          }
        },
        "required": ["location"],
        "type": "object"
      }
    },
    "type": "function"
  }
]
tool_choice

यह नियंत्रित करता है कि model कौन‑सा (और क्या कोई) tool कॉल करेगा। 'none' टूल कॉलिंग को रोकता है, 'auto' में निर्णय model पर छोड़ता है, और 'required' कम से कम एक टूल को कॉल करना अनिवार्य कर देता है। किसी विशेष tool का पेलोड देने पर, वही tool अनिवार्य रूप से कॉल होगा।

उदाहरण:

"auto"

parallel_tool_calls
boolean | null

tool उपयोग के दौरान parallel function calling को सक्षम करना है या नहीं।

उदाहरण:

true

functions
Functions · object[] | null

'tools' के पक्ष में अप्रचलित (deprecated)। उन पुरानी function परिभाषाओं की सूची, जिनके लिए model JSON इनपुट तैयार कर सकता है।

function_call

'tool_choice' के पक्ष में अप्रचलित (deprecated)। नियंत्रित करता है कि model कौन‑सा function कॉल करेगा (none, auto, या कोई विशेष नाम)।

logprobs
boolean | null

आउटपुट tokens की log probabilities वापस की जाएँ या नहीं। यदि true हो, तो response content में प्रत्येक token के लिए log probabilities वापस की जाती हैं।

उदाहरण:

true

top_logprobs
integer | null

0 और 20 के बीच का एक पूर्णांक, जो निर्दिष्ट करता है कि प्रत्येक स्थान पर कितने सबसे अधिक संभावित tokens उनके log probabilities सहित वापस किए जाएँ। इसके लिए 'logprobs' का true होना आवश्यक है।

आवश्यक सीमा: 0 <= x <= 20
उदाहरण:

5

max_completion_tokens
integer | null

completion के लिए जनरेट किए जाने वाले tokens की संख्या पर एक ऊपरी सीमा, जिसमें दृश्य आउटपुट और reasoning tokens दोनों शामिल हैं।

आवश्यक सीमा: x >= 1
उदाहरण:

1000

reasoning_effort
enum<string> | null

समर्थित reasoning models के लिए reasoning पर लगाए जाने वाले प्रयास को सीमित करता है। उच्च मान अधिक compute का उपयोग करते हैं, जिससे latency और token लागत के बदले reasoning गुणवत्ता बेहतर हो सकती है।

उपलब्ध विकल्प:
low,
medium,
high
उदाहरण:

"medium"

audio
Audio · object

ऑडियो आउटपुट के लिए पैरामीटर। जब आप ऑडियो वाला रेस्पॉन्स माँगते हैं (उदाहरण के लिए, जिन modalities में 'audio' शामिल है), तब आवश्यक।

उदाहरण:
{ "format": "mp3", "voice": "alloy" }
modalities
string[] | null

वे आउटपुट प्रकार जिन्हें आप चाहते हैं कि model उत्पन्न करे। अधिकांश models का डिफ़ॉल्ट ['text'] होता है; कुछ ['text', 'audio'] को सपोर्ट करते हैं।

उदाहरण:
["text"]
prediction
Prediction · object

अनुमानित आउटपुट के लिए कॉन्फ़िगरेशन। जब आपको पहले से ही रेस्पॉन्स की सामग्री का बड़ा हिस्सा पता हो, तब यह रेस्पॉन्स समय को बेहतर बनाता है।

metadata
Metadata · object

अधिकतम 16 key-value स्ट्रिंग पेयर्स का एक सेट, जिन्हें स्ट्रक्चर्ड मेटाडेटा के रूप में रिक्वेस्ट से जोड़ा जा सकता है।

उदाहरण:
{ "session": "abc", "user_id": "123" }
store
boolean | null

यह निर्धारित करता है कि इस chat completion अनुरोध के आउटपुट को OpenAI के model distillation या eval प्रोडक्ट्स के लिए स्टोर करना है या नहीं। यदि storage सक्षम है, तो 8 MB से बड़े image इनपुट ड्रॉप (हटा) कर दिए जाते हैं।

उदाहरण:

true

service_tier
enum<string> | null

रिक्वेस्ट के लिए उपयोग किए जाने वाले processing tier को निर्दिष्ट करता है। 'auto' प्रोजेक्ट की डिफ़ॉल्ट सेटिंग्स उपयोग करता है, जबकि 'default' मानक मूल्य निर्धारण और परफ़ॉर्मेंस को अनिवार्य रूप से लागू करता है।

उपलब्ध विकल्प:
auto,
default
उदाहरण:

"auto"

prompt_cache_key
string | null

OpenAI द्वारा समान रिक्वेस्ट के लिए रिस्पॉन्स को cache करने और cache hit rates को ऑप्टिमाइज़ करने के लिए उपयोग किया जाता है। caching के लिए यह पुराने 'user' फ़ील्ड को प्रतिस्थापित करता है।

safety_identifier
string | null

OpenAI उपयोग नीतियों का उल्लंघन कर सकने वाले उपयोगकर्ताओं का पता लगाने में मदद के लिए उपयोग किया जाने वाला स्थिर पहचानकर्ता। भेजने से पहले अंतिम‑उपयोगकर्ता पहचानकर्ताओं को हैश करने पर विचार करें।

verbosity
enum<string> | null

model की प्रतिक्रिया कितनी विस्तृत होगी, इसे नियंत्रित करता है। कम मान संक्षिप्त उत्तर देते हैं, अधिक मान अधिक विस्तृत उत्तरों की अनुमति देते हैं।

उपलब्ध विकल्प:
low,
medium,
high
web_search_options
Web Search Options · object

OpenAI के web search tool के लिए कॉन्फ़िगरेशन। अधिक जानें: https://platform.openai.com/docs/guides/tools-web-search?api-mode=chat.

search_parameters
Search Parameters · object

web search डेटा प्राप्ति को कॉन्फ़िगर करने के लिए xAI‑विशिष्ट पैरामीटर। यदि सेट नहीं किया गया है, तो model कोई डेटा प्राप्त नहीं करेगा।

deferred
boolean | null

xAI-विशिष्ट पैरामीटर। यदि इसे true पर सेट किया जाए, तो यह अनुरोध एक request_id वापस करता है, जिसका उपयोग बाद में GET /v1/chat/deferred-completion/{request_id} के माध्यम से असिंक्रोनस completion प्राप्त करने के लिए किया जा सकता है।

mcp_servers

सर्वर‑साइड पर tool निष्पादन के लिए उपलब्ध कराए जाने वाले मॉडल कॉन्टेक्स्ट प्रोटोकॉल (MCP) सर्वर पतों की सूची। प्रविष्टियाँ URL हो सकती हैं (जैसे, 'https://mcp.example.com'), स्लग हो सकती हैं (जैसे, 'dedalus-labs/brave-search'), या slug/version/url निर्दिष्ट करने वाले स्ट्रक्चर्ड ऑब्जेक्ट हो सकते हैं। MCP टूल्स सर्वर‑साइड पर निष्पादित होते हैं और इनका बिल अलग से किया जाता है।

उदाहरण:
[
  "dedalus-labs/brave-search",
  "dedalus-labs/github-api"
]
guardrails
Guardrails · object[] | null

इनपुट/आउटपुट वैलिडेशन और सुरक्षा जाँच के लिए एजेंट पर लागू की जाने वाली गार्डरेल्स। यह फ़ील्ड भविष्य के उपयोग के लिए आरक्षित है — guardrails कॉन्फ़िगरेशन फ़ॉर्मेट अभी अंतिम रूप से तय नहीं किया गया है।

handoff_config
Handoff Config · object

मल्टी‑मॉडल हैंडऑफ़ और एजेंट ऑर्केस्ट्रेशन के लिए कॉन्फ़िगरेशन। भविष्य में उपयोग के लिए आरक्षित — हैंडऑफ़ कॉन्फ़िगरेशन फ़ॉर्मेट अभी अंतिम रूप से निर्धारित नहीं किया गया है।

model_attributes
Model Attributes · object

मल्टी‑मॉडल निष्पादन के दौरान रूटिंग निर्णयों में उपयोग होने वाले व्यक्तिगत मॉडलों के लिए गुण (attributes)। फ़ॉर्मेट: {'model_name': {'attribute': value}}, जहाँ value 0.0–1.0 के बीच होता है। सामान्य attributes: 'intelligence', 'speed', 'cost', 'creativity', 'accuracy'। एजेंट इनका उपयोग task की आवश्यकताओं के आधार पर सर्वोत्तम model चुनने के लिए करता है।

उदाहरण:
{
  "anthropic/claude-3-5-sonnet": {
    "cost": 0.7,
    "creativity": 0.8,
    "intelligence": 0.95
  },
  "openai/gpt-4": {
    "cost": 0.8,
    "intelligence": 0.9,
    "speed": 0.6
  },
  "openai/gpt-4o-mini": {
    "cost": 0.2,
    "intelligence": 0.7,
    "speed": 0.9
  }
}
agent_attributes
Agent Attributes · object

खुद एजेंट के लिए गुण, जो उसके व्यवहार और model चयन को प्रभावित करते हैं। फ़ॉर्मेट: {'attribute': value}, जहाँ value 0.0–1.0 के बीच होती है। आम attributes: 'complexity', 'accuracy', 'efficiency', 'creativity', 'friendliness'। उच्च value उस विशेष गुण के लिए अधिक मज़बूत प्राथमिकता दर्शाती है।

उदाहरण:
{
  "accuracy": 0.9,
  "complexity": 0.8,
  "efficiency": 0.7
}
max_turns
integer | null

एजेंट के निष्पादन के लिए अधिकतम turns की संख्या, जिसके बाद प्रक्रिया समाप्त हो जाती है (डिफ़ॉल्ट: 10)। प्रत्येक turn एक model inference cycle का प्रतिनिधित्व करता है। उच्च value अधिक जटिल तर्क (reasoning) की अनुमति देती है, लेकिन लागत और latency बढ़ाती है।

आवश्यक सीमा: 1 <= x <= 100
उदाहरण:

5

auto_execute_tools
boolean
डिफ़ॉल्ट:true

जब यह False हो, तो सर्वर-साइड tool निष्पादन को स्किप करें और प्रतिक्रिया में रॉ OpenAI-स्टाइल tool_calls वापस लौटाएँ।

उदाहरण:

true

false

प्रतिक्रिया

ChatCompletionChunk इवेंट्स की JSON या Server-Sent Events (SSE) स्ट्रीम

Dedalus API के लिए चैट कम्प्लीशन प्रतिक्रिया।

Dedalus एक्सटेंशन के साथ OpenAI‑संगत चैट कम्प्लीशन प्रतिक्रिया, जो OpenAI API के साथ पूर्ण अनुकूलता बनाए रखते हुए अतिरिक्त सुविधाएँ प्रदान करती है, जैसे सर्वर‑साइड tool निष्पादन ट्रैकिंग और मॉडल कॉन्टेक्स्ट प्रोटोकॉल (MCP) त्रुटि रिपोर्टिंग।

id
string
आवश्यक

चैट कम्प्लीशन के लिए एक अद्वितीय पहचानकर्ता।

choices
Choice · object[]
आवश्यक

चैट कम्प्लीशन विकल्पों (choices) की सूची। यदि n 1 से अधिक है, तो इसमें एक से अधिक आइटम हो सकते हैं।

created
integer
आवश्यक

Unix टाइमस्टैम्प (सेकंड में), जब चैट कम्प्लीशन बनाया गया था।

model
string
आवश्यक

चैट कम्प्लीशन के लिए उपयोग किया गया model।

object
string
आवश्यक

ऑब्जेक्ट का प्रकार; यह हमेशा chat.completion होता है।

Allowed value: "chat.completion"
service_tier
enum<string> | null

अनुरोध को प्रोसेस करने के लिए उपयोग किए जाने वाले प्रोसेसिंग प्रकार को निर्दिष्ट करता है।

  • यदि मान auto है, तो अनुरोध को प्रोजेक्ट सेटिंग्स में कॉन्फ़िगर किए गए सेवा‑स्तर (service tier) के साथ प्रोसेस किया जाएगा। जब तक अलग से कॉन्फ़िगर न किया जाए, प्रोजेक्ट default का उपयोग करेगा।
  • यदि मान default है, तो अनुरोध को चुने गए model के लिए मानक मूल्य निर्धारण और प्रदर्शन (standard pricing and performance) के साथ प्रोसेस किया जाएगा।
  • यदि मान [flex](https://platform.openai.com/docs/guides/flex-processing) या [priority](https://openai.com/api-priority-processing/) है, तो अनुरोध को संबंधित सेवा‑स्तर के साथ प्रोसेस किया जाएगा।
  • यदि कोई मान सेट नहीं किया गया है, तो डिफ़ॉल्ट व्यवहार auto होता है।

जब service_tier पैरामीटर सेट किया जाता है, तो response बॉडी में वास्तव में उपयोग किए गए प्रोसेसिंग मोड के आधार पर service_tier मान शामिल होगा। यह response मान, पैरामीटर में सेट किए गए मान से भिन्न हो सकता है।

उपलब्ध विकल्प:
auto,
default,
flex,
scale,
priority
system_fingerprint
string

यह फ़िंगरप्रिंट उस बैकएंड कॉन्फ़िगरेशन से आशय रखता है जिसके साथ model चलता है।

इसे seed रिक्वेस्ट पैरामीटर के साथ मिलाकर इस बात को समझने के लिए उपयोग किया जा सकता है कि बैकएंड में ऐसे बदलाव कब किए गए हैं जो determinism (नियतात्मकता) को प्रभावित कर सकते हैं।

usage
CompletionUsage · object

completion रिक्वेस्ट के लिए उपयोग-संबंधी सांख्यिकी।

tools_executed
string[] | null

server-side पर निष्पादित किए गए tool नामों की सूची (उदाहरण के लिए, मॉडल कॉन्टेक्स्ट प्रोटोकॉल (MCP) टूल्स)। यह फ़ील्ड केवल उसी स्थिति में मौजूद होती है जब टूल्स को client-side पर लौटाने के बजाय सर्वर पर ही निष्पादित किया गया हो।

mcp_server_errors
Mcp Server Errors · object

अनुरोध के दौरान यदि कोई MCP सर्वर विफलताएँ हुई हों तो उनके बारे में जानकारी। इसमें किन MCP सर्वरों में विफलता हुई, उसके कारण क्या थे, और उपयोगकर्ता के लिए सुझाए गए कदमों का विवरण शामिल होता है। यह फ़ील्ड केवल तब मौजूद रहता है जब MCP सर्वर विफलताएँ हुई हों।