知识与记忆集成

通过 ModelRiver 生成表示向量 (embeddings) 并将其存储在您的向量数据库中。构建跨越多个嵌入提供商具备自动故障转移能力的生产级规模 RAG。

概览

向量数据库用于存储 AI 生成的表示向量 (embeddings) 以进行相似性搜索,从而实现检索增强生成 (RAG, Retrieval-Augmented Generation) 系统。通过将嵌入生成过程路由至 ModelRiver,您将获得跨所有嵌入提供商的自动故障转移机制:确保您的内容摄入与搜索检索管道永不停转。

为何要将 ModelRiver 与向量数据库搭配使用?

  • 嵌入服务故障转移: 如果某家提供商的嵌入生成服务下线,即可无缝接力到下一家
  • 一致的数据表示: 不论背后是哪家提供商,工作流和数据的维度均保持一致
  • 精细追踪财务成本: 能将嵌入生成的花销与普通问答对话的花销分开独立监控
  • 统一的可观测性面板: 无论是嵌入请求还是对话请求都在同一个仪表盘上尽收眼底

受支持的数据库平台

数据库类别亮点与优势难度系数指南文档
Pinecone全托管式无服务器 (Serverless)、极速查询、生产级规模⭐⭐ 中等查看指南 →
Weaviate开源底座可自定义的打标器 (vectorisers)、混合检索⭐⭐ 中等查看指南 →
SupabasePostgreSQL + pgvector全栈体系、鉴权机制、实时特性、低级数据安全过滤 (RLS)⭐⭐ 中等查看指南 →

结合 ModelRiver 时 RAG 系统的工作流向

(User question)
ModelRiver Embeddings
(Embeddings)
Vector DB (Find similar documents)
(Pinecone, )
ModelRiver
(Chat)

无论是向量生成还是对话生成环节,都全权路由贯穿起 ModelRiver 的服务管道,因此这两条线都能获享互相独立的故障转移保护、独立开销计算及观测追踪。


Pinecone

高度针对 AI 需求调优打磨的全托管式向量数据库体系。具备开箱即用的 Serverless 伸缩部署、极其迅捷的库内检索速度和可支撑生产规模的超大号索引体系。

PYTHON
1from openai import OpenAI
2from pinecone import Pinecone
3 
4client = OpenAI(base_url="https://api.modelriver.com/v1", api_key="mr_live_...")
5pc = Pinecone(api_key="YOUR_PINECONE_KEY")

查看完整的 Pinecone 集成指南 →


Weaviate

开源架构下首屈一指的混合引擎向量搜索引擎。内置自选向量构建器并拥有包括混合查库在内覆盖多种数据格式形态的模态生态搜索支撑。

PYTHON
1from openai import OpenAI
2import weaviate
3 
4client = OpenAI(base_url="https://api.modelriver.com/v1", api_key="mr_live_...")
5wv = weaviate.connect_to_local()

查看完整的 Weaviate 集成指南 →


Supabase

号称用来替换 Firebase 的极品开源级对等品并内部原生捆绑接力了 pgvector 引擎。您不仅可以把向量数据跟普通数据库一样落表共处,而且同样无缝地接连享受各种例如门号凭据与鉴权验证(auth)、随时实拍同步变动(real-time)与行层面数据隐私保镖(Row Level Security)的大餐。

PYTHON
1from openai import OpenAI
2from supabase import create_client
3 
4client = OpenAI(base_url="https://api.modelriver.com/v1", api_key="mr_live_...")
5supabase = create_client("https://YOUR_PROJECT.supabase.co", "YOUR_KEY")

查看完整的 Supabase 集成指南 →


探索下一步指引