从直接调用供应商 API 迁移到 ModelRiver,通常只需要改 两行代码:base URL 和 API key。本指南涵盖最常见的迁移路径。
从 OpenAI 迁移
第一步:创建工作流
- 打开 ModelRiver 控制台
- 进入 Workflows → Create Workflow
- 输入名称(例如
my-gpt4-chat) - 选择 OpenAI 作为供应商和对应模型
- 可选配置回退供应商(例如 Anthropic Claude)
- 保存
第二步:更新代码
核心变化:
api_key改为mr_live_...base_url/baseURL指向https://api.modelriver.com/v1model改成工作流名称,而不是供应商原生模型名
迁移完成后,响应结构保持与 OpenAI 兼容。
从 Anthropic 迁移
与 OpenAI 类似,先创建工作流,但供应商选择 Anthropic。
需要注意的是:如果你改为使用 OpenAI 兼容接口,Anthropic 原本的响应读取方式也要一起调整。
例如:
- 原来:
response.content[0].text - 迁移后:
response.choices[0].message.content
如果你不想绑定 OpenAI 兼容格式,也可以改用 ModelRiver 原生 API(/v1/ai)。
从 LangChain / LlamaIndex / Vercel AI 迁移
这类迁移本质上也是:
- 修改 base URL
- 替换 API key
- 把
model改成 ModelRiver 工作流名
这意味着你可以在不改动应用上层逻辑的前提下,把供应商管理、故障转移、日志和结构化输出统一收口到 ModelRiver。
迁移后你获得的能力
| 能力 | 直接调用供应商 | ModelRiver |
|---|---|---|
| 自动故障转移 | ❌ 手动实现 | ✅ 自动 |
| 成本追踪 | ❌ 手动实现 | ✅ 内置 |
| 请求日志 | ❌ 自行搭建 | ✅ 自动 |
| 结构化输出 | ❌ 按请求配置 | ✅ 工作流级 |
| 切换供应商 | ❌ 需要改代码 | ✅ 控制台切换 |
| 限流处理 | ❌ 手动实现 | ✅ 自动化辅助 |
| Webhook 集成 | ❌ 自己实现 | ✅ 内置 |
迁移检查清单
- 在 ModelRiver 控制台创建工作流
- 生成生产 API 密钥
- 更新
base_url/baseURL - 更新
api_key/apiKey - 将
model改为工作流名称 - 在开发环境测试
- 为生产环境配置回退供应商
- 按需配置结构化输出
- 如需异步工作流,配置 webhooks
- 部署到生产环境
- 通过请求日志持续观察
下一步
- OpenAI 兼容性:最小改动接入
- 工作流:将模型、回退与 schema 统一配置
- 可观测性:迁移后持续监控性能、成本与错误率