AI 可观测性与监控

审计每一次 AI 交互。通过高性能 Request Logs 与时间线,追踪 Token 用量、供应商可靠性,并调试复杂的事件驱动工作流。

什么是 Request Logs?

Request Logs 是 ModelRiver 为每一条 AI 请求提供的完整审计轨迹。每条日志都会记录请求的完整生命周期,从最初的供应商调用尝试,到成功响应或失败结果,再到 Webhook 投递与后端回调。

为什么需要 Request Logs

Request Logs 主要承担以下职责:

  • 排查生产问题:查看精确的请求/响应载荷,定位为什么请求失败或返回异常结果。
  • 成本分析与优化:按请求追踪 Token 用量和价格,了解成本分布,优化模型选择。
  • 性能监控:监控请求延迟,识别慢供应商,并观察长期性能趋势。
  • 供应商可靠性分析:查看哪些供应商最常失败、回退触发频率如何,并据此调整策略。
  • 账单核对:将 API 用量与账单对齐,验证计费准确性。
  • 合规与审计:为监管要求或内部审计保留完整 AI 交互记录。
  • 测试与验证:把测试模式与 Playground 请求和生产流量区分开,在上线前验证工作流。

在哪里查看 Request Logs

在项目控制台侧边栏中,点击剪贴板图标进入 Request Logs。该视图会显示当前项目的全部请求,并提供强大的过滤能力,便于你聚焦特定类型的请求。


Request Log 列表视图

Request Logs 列表会给出项目内所有请求的高层概览,重要信息一眼可见。

表格字段

列名说明为什么重要
Provider实际处理请求的 AI 供应商(如 OpenAI、Anthropic)及其图标快速识别是哪家供应商处理了请求
Model具体使用的模型(如 gpt-4oclaude-3-5-sonnet观察模型使用模式与性能差异
Input tokens提示词消耗的 Token 数用于成本计算
Output tokens模型生成内容消耗的 Token 数用于成本计算与理解响应规模
Duration请求延迟(毫秒)用于性能监控与 SLA 追踪
Status成功或失败状态及视觉标识快速发现健康问题
Time相对时间(如“5 分钟前”“2 小时前”)帮助判断问题发生时间

过滤选项

过滤下拉框可帮助你区分生产流量、测试流量和控制台实验流量:

  • All requests:查看项目中的所有请求
  • Live mode:只看真实生产 API 请求
  • Test mode:只看测试模式请求
  • Playground (Production):只看控制台里对生产工作流的测试
  • Playground (Test mode):只看控制台里对测试模式工作流的测试
  • All Playground:查看全部控制台测试活动

为什么过滤很重要:把生产流量与测试流量分开,能避免测试噪音遮蔽真正的问题。

你可以用可观测性做什么

  • 快速判断一次失败是供应商问题、应用问题还是网络问题
  • 找出最贵的工作流和最慢的模型
  • 观察回退是否频繁触发,从而优化主供应商选择
  • 审查事件驱动工作流中每一步的执行顺序
  • 对账、做审计,并向团队说明 AI 基础设施的运行情况

下一步

  • 调试:学习如何深入分析单条请求
  • 时间线:查看事件驱动请求的完整过程
  • 成本分析:优化 Token 消耗与模型成本