- 与提供商无关:通过一个统一的 应用程序编程接口 API 即可使用 OpenAI、Anthropic、Google、xAI、DeepSeek 等多种服务。
- 原生支持 tool 和 模型上下文协议 (MCP):让模型调用本地函数和托管的 MCP 服务器。
- 可直接用于生产环境:支持流式传输、结构化输出、路由/交接以及运行时策略。
你想要构建什么?
与模型聊天
发送一个 prompt,并从任意提供商/模型获得响应。
为模型装备工具
让模型调用你实现的带类型标注的 Python/TS 函数。
流式输出智能体结果
在生成时实时打印响应(非常适合 UI/CLI)。
添加 MCP 服务器
用一行代码即可连接托管的 MCP 服务器。
获取可靠的 JSON
根据模式验证模型输出(Pydantic/Zod)。
跨模型路由
提供多个模型;智能体可以按阶段进行路由/切换。
安装
## 设置 API 密钥
在 控制台 中获取 API 密钥,并将其设置为环境变量:
.env 文件:
你的第一个请求
让我们一步一步来。### 1) 与模型对话
### 2) 添加一个 MCP 服务器
这里我们接入一个常用的 MCP 服务器,并让模型调用它。
### 3) 添加本地工具
使用类型注解和文档字符串定义一个函数,然后将其传递给 runner.run()。软件开发工具包(SDK)会自动提取该函数的 schema,并在模型决定调用该工具时负责执行。
### 4) 流式传输的输出