Hybrid RAG MCP Server

Hybrid RAG MCP Server

A modular Retrieval-Augmented Generation (RAG) framework that provides hybrid search and knowledge retrieval capabilities via the Model Context Protocol. It enables users to integrate document-based knowledge into LLM workflows with support for dense/sparse retrieval, reranking, and observability.

Category
访问服务器

README

Hybrid RAG MCP Server

<p align="center"> <a href="./README.en.md">English</a> </p>

一个可插拔、可观测、支持 MCP 集成的模块化 RAG(Retrieval-Augmented Generation)服务框架。


项目简介

Hybrid RAG MCP Server 是一个面向工程实践的 RAG 项目,目标是将文档摄取、切分、向量化、混合检索、重排、评测和可观测能力解耦成可组合模块,方便你按需替换模型、向量库和检索策略。

项目适合以下场景:

  • 企业知识库检索
  • 文档问答与内部搜索
  • MCP 工具化知识增强
  • RAG 流程实验与评测
  • 可观测的检索系统原型开发

核心特性

  • 模块化架构:LLM、Embedding、Vector Store、Reranker、Loader、Splitter 都可替换
  • 混合检索:支持 Dense Retrieval + Sparse Retrieval + RRF Fusion
  • 可选重排:支持关闭或启用 rerank 进行二阶段精排
  • 文档摄取:支持 PDF、TXT、Markdown、DOCX 等常见文档格式
  • 可观测性:内置 ingestion/query trace、评测历史与可视化 Dashboard
  • MCP 集成:可以通过 MCP Tool 形式暴露知识检索能力
  • 交互式调试:提供 Query Playground 页面查看 dense / sparse / fusion / rerank 结果

界面预览

Query Playground

Query Playground

用于直接发起查询,查看 dense / sparse / fusion / rerank 的召回效果。

Data Browser

Data Browser

用于浏览已导入文档、chunk 内容、图片与元数据。

系统组成

项目主要由以下部分组成:

  • src/core/:查询编排、响应构建、追踪上下文等核心逻辑
  • src/ingestion/:文档摄取、切分、编码、索引与存储
  • src/libs/:模型、向量库、加载器、重排器等适配层
  • src/mcp_server/:MCP Server 与工具定义
  • src/observability/:日志、评测、Dashboard
  • scripts/:常用命令行入口
  • tests/:单元测试与集成测试

快速开始

1. 创建虚拟环境并安装依赖

python -m venv .venv
source .venv/bin/activate
pip install -e .[dev]

2. 配置模型与服务

编辑 config/settings.yaml,填入你自己的配置:

  • llm.api_key
  • embedding.api_key
  • 可选的 vision_llm.api_key
  • 如果使用 OpenAI 兼容服务,请确认 base_url 正确

也可以优先使用环境变量,例如:

export OPENAI_API_KEY="your_api_key"

建议不要把真实密钥直接写入仓库并提交到 GitHub。

3. 导入文档

./.venv/bin/python scripts/ingest.py --file path/to/your.pdf --collection default

4. 运行查询

./.venv/bin/python scripts/query.py \
  --query "纳瓦尔 财富 幸福" \
  --collection default \
  --verbose

5. 启动可视化 Dashboard

./.venv/bin/python scripts/start_dashboard.py --host 127.0.0.1 --port 8501

浏览器打开:http://127.0.0.1:8501

可使用页面包括:

  • Overview
  • Data Browser
  • Ingestion Manager
  • Ingestion Traces
  • Query Playground
  • Query Traces
  • Evaluation Panel

配置说明

关键配置位于 config/settings.yaml

  • llm:大语言模型配置
  • embedding:向量模型配置
  • vector_store:向量数据库配置
  • retrieval:Dense / Sparse / Fusion 参数
  • rerank:重排配置
  • evaluation:评测配置
  • observability:日志与 trace 配置
  • ingestion:切分、批处理等摄取参数

常见说明

  • 当前中文查询的规则分词较简单,Sparse Retrieval 对“空格分隔关键词”更友好
  • 如果你更重视中文稀疏召回,建议后续接入更好的中文分词方案
  • 默认不提交 data/logs/、虚拟环境与本地 IDE 配置

测试

运行全部测试:

./.venv/bin/python -m pytest

运行部分测试:

./.venv/bin/python -m pytest tests/unit -q

推荐服务器

Baidu Map

Baidu Map

百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。

官方
精选
JavaScript
Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。

官方
精选
本地
TypeScript
Audiense Insights MCP Server

Audiense Insights MCP Server

通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

官方
精选
本地
TypeScript
VeyraX

VeyraX

一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

官方
精选
本地
graphlit-mcp-server

graphlit-mcp-server

模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。

官方
精选
TypeScript
Kagi MCP Server

Kagi MCP Server

一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

官方
精选
Python
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选