Mem0 MCP Server
一个 MCP 服务器,它与 mem0.ai 集成,以帮助用户存储、检索和搜索编码偏好,从而实现更一致的编程实践。
README
使用 Mem0 管理编码偏好的 MCP 服务器
本示例演示了如何使用带有 mem0 的 MCP 服务器来高效管理编码偏好的结构化方法。该服务器可以与 Cursor 一起使用,并提供用于存储、检索和搜索编码偏好的基本工具。
安装
- 克隆此仓库
- 初始化
uv环境:
uv venv
- 激活虚拟环境:
source .venv/bin/activate
- 使用
uv安装依赖项:
# 从 pyproject.toml 以可编辑模式安装
uv pip install -e .
- 使用您的 mem0 API 密钥更新根目录中的
.env文件:
MEM0_API_KEY=your_api_key_here
用法
- 启动 MCP 服务器:
uv run main.py
- 在 Cursor 中,连接到 SSE 端点,请参考此 文档:
http://0.0.0.0:8080/sse
- 在 Cursor 中打开 Composer 并切换到
Agent模式。
Cursor 演示
https://github.com/user-attachments/assets/56670550-fb11-4850-9905-692d3496231c
功能
该服务器提供三个主要工具来管理代码偏好:
-
add_coding_preference: 存储代码片段、实现细节和编码模式,并提供全面的上下文,包括:- 包含依赖项的完整代码
- 语言/框架版本
- 安装说明
- 文档和注释
- 示例用法
- 最佳实践
-
get_all_coding_preferences: 检索所有存储的编码偏好,以分析模式、审查实现并确保不会遗漏任何相关信息。 -
search_coding_preferences: 通过语义搜索存储的编码偏好来查找相关的:- 代码实现
- 编程解决方案
- 最佳实践
- 安装指南
- 技术文档
为什么?
此实现允许使用可以通过 MCP 访问的持久编码偏好系统。基于 SSE 的服务器可以作为代理连接、使用并在需要时断开连接的进程运行。这种模式非常适合“云原生”用例,其中服务器和客户端可以是不同节点上的解耦进程。
服务器
默认情况下,服务器在 0.0.0.0:8080 上运行,但可以通过命令行参数进行配置,例如:
uv run main.py --host <您的主机> --port <您的端口>
服务器在 /sse 公开一个 SSE 端点,MCP 客户端可以连接到该端点以访问编码偏好管理工具。
推荐服务器
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。
mcp-server-qdrant
这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。
AIO-MCP Server
🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。
Knowledge Graph Memory Server
为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。
https://github.com/Streen9/react-mcp
react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。
any-chat-completions-mcp
将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。
Exa MCP Server
一个模型上下文协议服务器,它使像 Claude 这样的人工智能助手能够以安全和受控的方式,使用 Exa AI 搜索 API 执行实时网络搜索。
AI 图像生成服务
可以用于 Cursor 集成 MCP 服务器。
MCP Web Research Server
一个模型上下文协议服务器,使 Claude 能够通过集成 Google 搜索、提取网页内容和捕获屏幕截图来进行网络研究。