Graphiti MCP Server 🧠

Graphiti MCP Server 🧠

gifflet

研究与数据
访问服务器

README

Graphiti MCP 服务器 🧠

Python 版本 许可证 Docker

🌟 一个强大的 AI 代理知识图谱服务器,使用 Neo4j 构建,并与模型上下文协议 (MCP) 集成。

🚀 特性

  • 🔄 使用 Neo4j 进行动态知识图谱管理
  • 🤖 与 OpenAI 模型无缝集成
  • 🔌 MCP (模型上下文协议) 支持
  • 🐳 Docker 就绪部署
  • 🎯 自定义实体提取能力
  • 🔍 高级语义搜索功能

🛠️ 安装

前提条件

  • Docker 和 Docker Compose
  • Python 3.10 或更高版本
  • OpenAI API 密钥

快速开始 🚀

  1. 克隆仓库:
git clone https://github.com/gifflet/graphiti-mcp-server.git
cd graphiti-mcp-server
  1. 设置环境变量:
cp .env.sample .env
  1. 编辑 .env 文件,配置你的信息:
# LLM 操作需要
OPENAI_API_KEY=your_openai_api_key_here
MODEL_NAME=gpt-4o
  1. 启动服务:
docker compose up

🔧 配置

Neo4j 设置 🗄️

Neo4j 的默认配置:

  • 用户名: neo4j
  • 密码: demodemo
  • URI: bolt://neo4j:7687 (在 Docker 网络中)
  • 内存设置针对开发进行了优化

Docker 环境变量 🐳

你可以直接使用环境变量运行:

OPENAI_API_KEY=your_key MODEL_NAME=gpt-4o docker compose up

🔌 集成

Cursor IDE 集成 🖥️

  1. 配置 Cursor 连接到 Graphiti:
{
  "mcpServers": {
    "Graphiti": {
      "url": "http://localhost:8000/sse"
    }
  }
}
  1. 将 Graphiti 规则添加到 Cursor 的用户规则 (参见 graphiti_cursor_rules.md)
  2. 在 Cursor 中启动一个代理会话

🏗️ 架构

该服务器由两个主要组件组成:

  • 用于图存储的 Neo4j 数据库
  • 用于 API 和 LLM 操作的 Graphiti MCP 服务器

🤝 贡献

欢迎贡献! 请随时提交 Pull Request。

📝 许可证

该项目根据 MIT 许可证授权 - 有关详细信息,请参阅 LICENSE 文件。

🙏 鸣谢

  • Neo4j 团队提供的出色的图数据库
  • OpenAI 提供的强大的 LLM 模型
  • MCP 社区提供的协议规范

推荐服务器

Crypto Price & Market Analysis MCP Server

Crypto Price & Market Analysis MCP Server

一个模型上下文协议 (MCP) 服务器,它使用 CoinCap API 提供全面的加密货币分析。该服务器通过一个易于使用的界面提供实时价格数据、市场分析和历史趋势。 (Alternative, slightly more formal and technical translation): 一个模型上下文协议 (MCP) 服务器,利用 CoinCap API 提供全面的加密货币分析服务。该服务器通过用户友好的界面,提供实时价格数据、市场分析以及历史趋势数据。

精选
TypeScript
MCP PubMed Search

MCP PubMed Search

用于搜索 PubMed 的服务器(PubMed 是一个免费的在线数据库,用户可以在其中搜索生物医学和生命科学文献)。 我是在 MCP 发布当天创建的,但当时正在度假。 我看到有人在您的数据库中发布了类似的服务器,但还是决定发布我的服务器。

精选
Python
mixpanel

mixpanel

连接到您的 Mixpanel 数据。 从 Mixpanel 分析查询事件、留存和漏斗数据。

精选
TypeScript
Sequential Thinking MCP Server

Sequential Thinking MCP Server

这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。

精选
Python
Nefino MCP Server

Nefino MCP Server

为大型语言模型提供访问德国可再生能源项目新闻和信息的能力,允许按地点、主题(太阳能、风能、氢能)和日期范围进行筛选。

官方
Python
Vectorize

Vectorize

将 MCP 服务器向量化以实现高级检索、私有深度研究、Anything-to-Markdown 文件提取和文本分块。

官方
JavaScript
Mathematica Documentation MCP server

Mathematica Documentation MCP server

一个服务器,通过 FastMCP 提供对 Mathematica 文档的访问,使用户能够从 Wolfram Mathematica 检索函数文档和列出软件包符号。

本地
Python
kb-mcp-server

kb-mcp-server

一个 MCP 服务器,旨在实现便携性、本地化、简易性和便利性,以支持对 txtai “all in one” 嵌入数据库进行基于语义/图的检索。任何 tar.gz 格式的 txtai 嵌入数据库都可以被加载。

本地
Python
Research MCP Server

Research MCP Server

这个服务器用作 MCP 服务器,与 Notion 交互以检索和创建调查数据,并与 Claude Desktop Client 集成以进行和审查调查。

本地
Python
Cryo MCP Server

Cryo MCP Server

一个API服务器,实现了模型补全协议(MCP),用于Cryo区块链数据提取,允许用户通过任何兼容MCP的客户端查询以太坊区块链数据。

本地
Python