ModelRiver 文档

ModelRiver 构建 AI 原生基础设施的权威指南。探索所有平台功能、SDK 和集成模式。

精选示例

构建实时 AI 聊天机器人

体验大多数 AI 网关不提供的端到端流式 AI。利用我们的核心 SDK 实现即时 WebSocket 交付,并使用 CLI 进行本地开发。

终端
1安装 CLI 工具
$npm install -g @modelriver/cli
2本地 Webhooks
$modelriver forward
3启动开发服务器
$npm start
正在等待传入的 Webhooks...

快速入门

分步指南,助您在几分钟内设置并连接您的首个项目。

构建具备实时流、Webhook 和结构化输出功能的生产级 AI 聊天机器人。

快速解答关于平台功能的常见问题。

平台

为复杂的多步 AI 流水线提供基于可见节点的编排。

向统一的 ModelRiver 端点发送请求,使用 OpenAI 兼容的 SDK,处理流式传输等。

构建包含异步端点、Webhook 回调和实时交付给客户端的事件驱动 AI 架构。

管理您的项目、监控用量并配置设置。

管理用于程序化访问的身份验证凭证。

为 AI 响应定义并强制执行特定的 JSON 模式(Schema)。

通过缓存频繁的 AI 响应来降低延迟和成本。

实时事件订阅,用于触发外部自动化流程。

通过全方位的日志、时间线和 Webhook 追踪,监控、调试和分析每一次 AI 请求。

适用于 React、Python、Node.js 等的框架专用库。

用于管理资源和自动化部署的基于终端的界面。

企业级 RBAC、数据加密和透明的审计日志。

针对常见挑战的诊断和解决方案。

将 ModelRiver 连接到 LLM 框架、智能体系统、后端架构、知识与记忆以及自动化工具。

解决方案

通过自动模型故障转移和冗余,构建生产级 AI 应用。

关于使用 WebSocket 实现实时 AI 流式传输的所有必备知识。

停止解析文本,开始使用经过验证的结构化输出(Structured Outputs)获取 JSON。

资源