什么是 Request Logs?
Request Logs 是 ModelRiver 为每一条 AI 请求提供的完整审计轨迹。每条日志都会记录请求的完整生命周期,从最初的供应商调用尝试,到成功响应或失败结果,再到 Webhook 投递与后端回调。
为什么需要 Request Logs
Request Logs 主要承担以下职责:
- 排查生产问题:查看精确的请求/响应载荷,定位为什么请求失败或返回异常结果。
- 成本分析与优化:按请求追踪 Token 用量和价格,了解成本分布,优化模型选择。
- 性能监控:监控请求延迟,识别慢供应商,并观察长期性能趋势。
- 供应商可靠性分析:查看哪些供应商最常失败、回退触发频率如何,并据此调整策略。
- 账单核对:将 API 用量与账单对齐,验证计费准确性。
- 合规与审计:为监管要求或内部审计保留完整 AI 交互记录。
- 测试与验证:把测试模式与 Playground 请求和生产流量区分开,在上线前验证工作流。
在哪里查看 Request Logs
在项目控制台侧边栏中,点击剪贴板图标进入 Request Logs。该视图会显示当前项目的全部请求,并提供强大的过滤能力,便于你聚焦特定类型的请求。
Request Log 列表视图
Request Logs 列表会给出项目内所有请求的高层概览,重要信息一眼可见。
表格字段
| 列名 | 说明 | 为什么重要 |
|---|---|---|
| Provider | 实际处理请求的 AI 供应商(如 OpenAI、Anthropic)及其图标 | 快速识别是哪家供应商处理了请求 |
| Model | 具体使用的模型(如 gpt-4o、claude-3-5-sonnet) | 观察模型使用模式与性能差异 |
| Input tokens | 提示词消耗的 Token 数 | 用于成本计算 |
| Output tokens | 模型生成内容消耗的 Token 数 | 用于成本计算与理解响应规模 |
| Duration | 请求延迟(毫秒) | 用于性能监控与 SLA 追踪 |
| Status | 成功或失败状态及视觉标识 | 快速发现健康问题 |
| Time | 相对时间(如“5 分钟前”“2 小时前”) | 帮助判断问题发生时间 |
过滤选项
过滤下拉框可帮助你区分生产流量、测试流量和控制台实验流量:
- All requests:查看项目中的所有请求
- Live mode:只看真实生产 API 请求
- Test mode:只看测试模式请求
- Playground (Production):只看控制台里对生产工作流的测试
- Playground (Test mode):只看控制台里对测试模式工作流的测试
- All Playground:查看全部控制台测试活动
为什么过滤很重要:把生产流量与测试流量分开,能避免测试噪音遮蔽真正的问题。
你可以用可观测性做什么
- 快速判断一次失败是供应商问题、应用问题还是网络问题
- 找出最贵的工作流和最慢的模型
- 观察回退是否频繁触发,从而优化主供应商选择
- 审查事件驱动工作流中每一步的执行顺序
- 对账、做审计,并向团队说明 AI 基础设施的运行情况