GraphRAG MCP Server

GraphRAG MCP Server

启用查询混合系统,该系统结合了 Neo4j 图数据库和 Qdrant 向量数据库,通过模型上下文协议实现强大的语义和基于图的文档检索。

Category
访问服务器

README

GraphRAG MCP 服务器

一个模型上下文协议服务器,用于查询混合图和向量数据库系统,结合 Neo4j (图数据库) 和 Qdrant (向量数据库),实现强大的语义和基于图的文档检索。

概述

GraphRAG MCP 提供了大型语言模型与混合检索系统之间的无缝集成,该系统利用了图数据库 (Neo4j) 和向量数据库 (Qdrant) 的优势。 这实现了:

  • 通过文档嵌入进行语义搜索
  • 遵循关系的基于图的上下文扩展
  • 结合向量相似性和图关系的混合搜索
  • 通过 MCP 与 Claude 和其他 LLM 的完全集成

该项目遵循 模型上下文协议 规范,使其与任何启用 MCP 的客户端兼容。

特性

  • 语义搜索 使用句子嵌入和 Qdrant
  • 基于图的上下文扩展 使用 Neo4j
  • 混合搜索 结合两种方法
  • 用于 LLM 集成的 MCP 工具和资源
  • Neo4j 模式和 Qdrant 集合信息的完整文档

前提条件

  • Python 3.12+
  • Neo4j 运行在 localhost:7687 (默认配置)
  • Qdrant 运行在 localhost:6333 (默认配置)
  • 文档数据已在两个数据库中建立索引

安装

快速开始

  1. 克隆此存储库:

    git clone https://github.com/rileylemm/graphrag_mcp.git
    cd graphrag_mcp
    
  2. 使用 uv 安装依赖项:

    uv install
    
  3. .env 文件中配置数据库连接:

    # Neo4j 配置
    NEO4J_URI=bolt://localhost:7687
    NEO4J_USER=neo4j
    NEO4J_PASSWORD=password
    
    # Qdrant 配置
    QDRANT_HOST=localhost
    QDRANT_PORT=6333
    QDRANT_COLLECTION=document_chunks
    
  4. 运行服务器:

    uv run main.py
    

详细设置指南

有关设置底层混合数据库系统的详细指南,请参阅配套存储库:GraphRAG 混合数据库

设置 Neo4j 和 Qdrant

  1. 安装并启动 Neo4j:

    # 使用 Docker
    docker run \
      --name neo4j \
      -p 7474:7474 -p 7687:7687 \
      -e NEO4J_AUTH=neo4j/password \
      -v $HOME/neo4j/data:/data \
      -v $HOME/neo4j/logs:/logs \
      -v $HOME/neo4j/import:/import \
      -v $HOME/neo4j/plugins:/plugins \
      neo4j:latest
    
  2. 安装并启动 Qdrant:

    # 使用 Docker
    docker run -p 6333:6333 -p 6334:6334 \
      -v $HOME/qdrant/storage:/qdrant/storage \
      qdrant/qdrant
    

索引文档

要将文档索引到两个数据库中,请按照以下步骤操作:

  1. 准备您的文档
  2. 使用 sentence-transformers 创建嵌入
  3. 将文档与关系信息一起存储在 Neo4j 中
  4. 将文档块嵌入存储在 Qdrant 中

有关详细的索引脚本和过程,请参阅 GraphRAG 混合数据库 存储库。

与 MCP 客户端集成

Claude Desktop / Cursor 集成

  1. 使运行脚本可执行:

    chmod +x run_server.sh
    
  2. 将服务器添加到您的 MCP 配置文件 (~/.cursor/mcp.json 或 Claude Desktop 等效文件):

    {
      "mcpServers": {
        "GraphRAG": {
          "command": "/path/to/graphrag_mcp/run_server.sh",
          "args": []
        }
      }
    }
    
  3. 重新启动您的 MCP 客户端 (Cursor, Claude Desktop 等)

用法

MCP 工具

此服务器为 LLM 使用提供以下工具:

  1. search_documentation - 使用语义搜索查找信息

    # MCP 上下文中的示例用法
    result = search_documentation(
        query="图上下文扩展如何工作?",
        limit=5,
        category="technical"
    )
    
  2. hybrid_search - 使用语义和基于图的方法进行搜索

    # MCP 上下文中的示例用法
    result = hybrid_search(
        query="具有图关系的向量相似性",
        limit=10,
        category=None,
        expand_context=True
    )
    

MCP 资源

服务器提供以下资源:

  1. https://graphrag.db/schema/neo4j - 有关 Neo4j 图模式的信息
  2. https://graphrag.db/collection/qdrant - 有关 Qdrant 向量集合的信息

故障排除

  • 连接问题:确保 Neo4j 和 Qdrant 正在运行且可访问
  • 空结果:检查您的文档集合是否已正确索引
  • 缺少依赖项:运行 uv install 以确保已安装所有软件包
  • 数据库身份验证:验证 .env 文件中的凭据

贡献

欢迎贡献! 请随时提交 Pull Request。

许可证

MIT 许可证

版权所有 (c) 2025 Riley Lemm

特此授予任何人免费获得本软件及其相关文档文件(“软件”)副本的许可,不受限制地处理本软件,包括但不限于使用、复制、修改、合并、发布、分发、再许可和/或销售软件副本的权利,并允许向其提供本软件的人员这样做,但须符合以下条件:

上述版权声明和本许可声明应包含在所有副本或本软件的重要部分中。

本软件按“原样”提供,不提供任何形式的明示或暗示的保证,包括但不限于适销性、特定用途适用性和不侵权的保证。 在任何情况下,作者或版权所有者均不对任何索赔、损害或其他责任负责,无论是在合同、侵权或其他方面,由软件或软件的使用或其他交易引起、产生或与之相关。

归属

如果您使用此 MCP 服务器或将其用于您自己的目的,请注明 Riley Lemm 的出处并链接回此存储库 (https://github.com/rileylemm/graphrag_mcp)。

推荐服务器

Baidu Map

Baidu Map

百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。

官方
精选
JavaScript
Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。

官方
精选
本地
TypeScript
Audiense Insights MCP Server

Audiense Insights MCP Server

通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

官方
精选
本地
TypeScript
VeyraX

VeyraX

一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

官方
精选
本地
graphlit-mcp-server

graphlit-mcp-server

模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。

官方
精选
TypeScript
Kagi MCP Server

Kagi MCP Server

一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

官方
精选
Python
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选