适用于后端框架的事件驱动 AI

接收 AI 生成的 Webhooks,执行自定义业务逻辑,并回调 ModelRiver:为每个主流后端框架提供分步指南。

概述

无论使用哪种框架,每个事件驱动 AI 的实现都遵循相同的模式:

  1. 在 ModelRiver 中注册 Webhook 端点,该端点指向您的后端
  2. 验证每个传入 Webhook 的签名
  3. 处理 AI 响应:运行自定义逻辑(数据库、API、验证)
  4. 携带增强后的数据回调 callback_url

下面的指南展示了每个框架的惯用实现,包括签名验证、异步处理、错误处理和回调模式。


支持的框架

框架语言亮点指南
Next.jsTypeScriptAPI 路由、Server Actions、Edge Functions查看指南 →
Nuxt.jsTypeScriptServer 路由、Nitro 引擎、自动导入查看指南 →
DjangoPythonViews、Celery 任务、Django REST Framework查看指南 →
FastAPIPython异步处理程序 (Async handlers)、BackgroundTasks、Pydantic查看指南 →
LaravelPHP队列任务 (Queued jobs)、中间件、事件广播查看指南 →
RailsRubyActive Job、Action Controller、凭证管理查看指南 →
PhoenixElixirGenServer、Channels、Oban 后台作业查看指南 →
Spring BootJavaRestController、异步处理、WebClient查看指南 →
.NETC#Minimal APIs、托管服务 (Hosted services)、HttpClient查看指南 →

通用模式

每个框架的实现都遵循这种结构:

POST /webhooks/modelriver ModelRiver AI
mr-signature
type === "task.ai_generated"
200 ()
ai_responseeventcallback_urlcustomer_data
POST callback_url

下一步