- Provider-agnostic: एक ही API (एप्लिकेशन प्रोग्रामिंग इंटरफ़ेस) के साथ OpenAI, Anthropic, Google, xAI, DeepSeek और अन्य का उपयोग करें।
- टूल‑ और मॉडल कॉन्टेक्स्ट प्रोटोकॉल (MCP)-नेटिव: models को लोकल फ़ंक्शन और होस्टेड MCP सर्वरों को कॉल करने दें।
- Production-ready: स्ट्रीमिंग, संरचित आउटपुट, रूटिंग/हैंडऑफ़, और रनटाइम नीतियाँ।
आप क्या बनाना चाहते हैं?
| लक्ष्य | विवरण |
|---|---|
| किसी model के साथ चैट करें | एक prompt भेजें और किसी भी प्रोवाइडर/model से प्रतिक्रिया प्राप्त करें। |
| किसी model को टूल्स से लैस करें | model को आपके द्वारा इम्प्लीमेंट किए गए typed Python/TS functions कॉल करने दें। |
| एजेंट आउटपुट को स्ट्रीम करें | प्रतिक्रियाएँ उसी समय प्रिंट करें जब वे जेनरेट हो रही हों (UI/CLI के लिए बढ़िया)। |
| MCP सर्वर जोड़ें | सिर्फ़ एक लाइन के कोड से होस्टेड MCP सर्वर से कनेक्ट करें। |
| विश्वसनीय JSON प्राप्त करें | model आउटपुट को स्कीमा (Pydantic/Zod) के विरुद्ध वैलिडेट करें। |
| विभिन्न models के बीच रूट करें | एक से अधिक models उपलब्ध कराएँ; एजेंट चरण के हिसाब से रूट/हैंडऑफ़ कर सकता है। |
इंस्टॉलेशन
अपनी API कुंजी सेट करें
.env फ़ाइल का उपयोग करें:
आपका पहला रिक्वेस्ट
1) किसी model के साथ चैट करें
2) एक MCP सर्वर जोड़ें
3) एक लोकल tool जोड़ें
runner.run() में पास करें। SDK (सॉफ्टवेयर डेवलपमेंट किट) schema को अपने‑आप निकाल लेता है और जब model इसे उपयोग करने का निर्णय लेता है, तो उसके निष्पादन को संभालता है।
4) स्ट्रीम आउटपुट
अगले चरण
- टेम्पलेट से शुरू करें: यूज़ केस — आम एजेंट पैटर्न
- व्यावहारिक रेसिपी देखें: कुकबुक — एंड-टू-एंड इम्प्लीमेंटेशन
- गहराई से जानें: टूल्स, MCP सर्वर, संरचित आउटपुट, स्ट्रीमिंग