概览
向量数据库用于存储 AI 生成的表示向量 (embeddings) 以进行相似性搜索,从而实现检索增强生成 (RAG, Retrieval-Augmented Generation) 系统。通过将嵌入生成过程路由至 ModelRiver,您将获得跨所有嵌入提供商的自动故障转移机制:确保您的内容摄入与搜索检索管道永不停转。
为何要将 ModelRiver 与向量数据库搭配使用?
- 嵌入服务故障转移: 如果某家提供商的嵌入生成服务下线,即可无缝接力到下一家
- 一致的数据表示: 不论背后是哪家提供商,工作流和数据的维度均保持一致
- 精细追踪财务成本: 能将嵌入生成的花销与普通问答对话的花销分开独立监控
- 统一的可观测性面板: 无论是嵌入请求还是对话请求都在同一个仪表盘上尽收眼底
受支持的数据库平台
| 数据库 | 类别 | 亮点与优势 | 难度系数 | 指南文档 |
|---|---|---|---|---|
| Pinecone | 全托管式 | 无服务器 (Serverless)、极速查询、生产级规模 | ⭐⭐ 中等 | 查看指南 → |
| Weaviate | 开源底座 | 可自定义的打标器 (vectorisers)、混合检索 | ⭐⭐ 中等 | 查看指南 → |
| Supabase | PostgreSQL + pgvector | 全栈体系、鉴权机制、实时特性、低级数据安全过滤 (RLS) | ⭐⭐ 中等 | 查看指南 → |
结合 ModelRiver 时 RAG 系统的工作流向
用户提问 (User question) │ ▼┌─────────────────┐│ ModelRiver │──── 经由专设的 Embeddings 类别工作流生成问题向量│ (Embeddings) │└────────┬────────┘ │ ▼┌─────────────────┐│ Vector DB │──── 筛出有关联的匹配文档 (Find similar documents)│ (Pinecone, 等) │└────────┬────────┘ │ ▼┌─────────────────┐│ ModelRiver │──── 结合刚刚取得的上下文内容,经由聊天对话工作流生成终确解答│ (Chat) │└─────────────────┘无论是向量生成还是对话生成环节,都全权路由贯穿起 ModelRiver 的服务管道,因此这两条线都能获享互相独立的故障转移保护、独立开销计算及观测追踪。
Pinecone
高度针对 AI 需求调优打磨的全托管式向量数据库体系。具备开箱即用的 Serverless 伸缩部署、极其迅捷的库内检索速度和可支撑生产规模的超大号索引体系。
PYTHON
1from openai import OpenAI2from pinecone import Pinecone3 4client = OpenAI(base_url="https://api.modelriver.com/v1", api_key="mr_live_...")5pc = Pinecone(api_key="YOUR_PINECONE_KEY")Weaviate
开源架构下首屈一指的混合引擎向量搜索引擎。内置自选向量构建器并拥有包括混合查库在内覆盖多种数据格式形态的模态生态搜索支撑。
PYTHON
1from openai import OpenAI2import weaviate3 4client = OpenAI(base_url="https://api.modelriver.com/v1", api_key="mr_live_...")5wv = weaviate.connect_to_local()Supabase
号称用来替换 Firebase 的极品开源级对等品并内部原生捆绑接力了 pgvector 引擎。您不仅可以把向量数据跟普通数据库一样落表共处,而且同样无缝地接连享受各种例如门号凭据与鉴权验证(auth)、随时实拍同步变动(real-time)与行层面数据隐私保镖(Row Level Security)的大餐。
PYTHON
1from openai import OpenAI2from supabase import create_client3 4client = OpenAI(base_url="https://api.modelriver.com/v1", api_key="mr_live_...")5supabase = create_client("https://YOUR_PROJECT.supabase.co", "YOUR_KEY")