- Provider-agnostic: एक ही API (एप्लिकेशन प्रोग्रामिंग इंटरफ़ेस) के साथ OpenAI, Anthropic, Google, xAI, DeepSeek और अन्य का उपयोग करें।
- टूल‑ और मॉडल कॉन्टेक्स्ट प्रोटोकॉल (MCP)-नेटिव: models को लोकल फ़ंक्शन और होस्टेड MCP सर्वरों को कॉल करने दें।
- Production-ready: स्ट्रीमिंग, संरचित आउटपुट, रूटिंग/हैंडऑफ़, और रनटाइम नीतियाँ।
## आप क्या बनाना चाहते हैं?
| लक्ष्य | विवरण |
|---|---|
| किसी model के साथ चैट करें | एक prompt भेजें और किसी भी प्रोवाइडर/model से प्रतिक्रिया प्राप्त करें। |
| किसी model को टूल्स से लैस करें | model को आपके द्वारा इम्प्लीमेंट किए गए typed Python/TS functions कॉल करने दें। |
| एजेंट आउटपुट को स्ट्रीम करें | प्रतिक्रियाएँ उसी समय प्रिंट करें जब वे जेनरेट हो रही हों (UI/CLI के लिए बढ़िया)। |
| MCP सर्वर जोड़ें | सिर्फ़ एक लाइन के कोड से होस्टेड MCP सर्वर से कनेक्ट करें। |
| विश्वसनीय JSON प्राप्त करें | model आउटपुट को स्कीमा (Pydantic/Zod) के विरुद्ध वैलिडेट करें। |
| विभिन्न models के बीच रूट करें | एक से अधिक models उपलब्ध कराएँ; एजेंट चरण के हिसाब से रूट/हैंडऑफ़ कर सकता है। |
## इंस्टॉलेशन
## अपनी API कुंजी सेट करें
dashboard से अपनी API कुंजी प्राप्त करें और उसे एक environment variable के रूप में सेट करें:
.env फ़ाइल का उपयोग करें:
## आपका पहला रिक्वेस्ट
आइए इसे चरणबद्ध तरीके से बनाते हैं।
### 1) किसी model के साथ चैट करें
### 2) एक MCP सर्वर जोड़ें
यहाँ हम एक प्रसिद्ध MCP सर्वर से कनेक्ट करते हैं और मॉडल को उसे उपयोग करने देते हैं।
### 3) एक लोकल tool जोड़ें
type hints और docstring के साथ एक function परिभाषित करें। इसे runner.run() में पास करें। SDK (सॉफ्टवेयर डेवलपमेंट किट) schema को अपने‑आप निकाल लेता है और जब model इसे उपयोग करने का निर्णय लेता है, तो उसके निष्पादन को संभालता है।
### 4) स्ट्रीम आउटपुट
## अगले चरण
- टेम्पलेट से शुरू करें: यूज़ केस — आम एजेंट पैटर्न
- व्यावहारिक रेसिपी देखें: कुकबुक — एंड-टू-एंड इम्प्लीमेंटेशन
- गहराई से जानें: टूल्स, MCP सर्वर, संरचित आउटपुट, स्ट्रीमिंग
## नवीनतम SDK प्राप्त करें
Python SDK (सॉफ्टवेयर डेवलपमेंट किट)
dedalus-labs/dedalus-sdk-python
TypeScript SDK (सॉफ्टवेयर डेवलपमेंट किट)
dedalus-labs/dedalus-sdk-typescript