- 与提供商无关:通过一个统一的 应用程序编程接口 API 即可使用 OpenAI、Anthropic、Google、xAI、DeepSeek 等多种服务。
- 原生支持 tool 和 模型上下文协议 (MCP):让模型调用本地函数和托管的 MCP 服务器。
- 可直接用于生产环境:支持流式传输、结构化输出、路由/交接以及运行时策略。
你打算构建什么?
| 目标 | 说明 |
|---|---|
| 与模型对话 | 向任意提供商/模型发送一个 prompt 并获取响应。 |
| 为模型配备工具 | 让模型调用你实现的带类型 Python/TS 函数。 |
| 流式传输智能体输出 | 在生成过程中实时打印响应(非常适合 UI/CLI)。 |
| 添加 MCP 服务器 | 只需一行代码即可连接托管的 MCP 服务器。 |
| 获取可靠的 JSON | 基于模式(Pydantic/Zod)验证模型输出。 |
| 在多个模型间路由 | 提供多个模型;智能体可以按阶段进行路由/切换。 |
安装
设置 API 密钥
.env 文件:
你的第一个请求
1) 与模型对话
2) 添加一个 MCP 服务器
3) 添加本地工具
runner.run()。软件开发工具包(SDK)会自动提取该函数的 schema,并在模型决定调用该工具时负责执行。