MemGPT MCP Server

MemGPT MCP Server

镜子 (jìng zi)

MCP-Mirror

研究与数据
访问服务器

README

MemGPT MCP 服务器

一个基于 TypeScript 的 MCP 服务器,实现了 LLM 的记忆系统。它提供了与不同 LLM 提供商聊天,同时保持对话历史记录的工具。

功能

工具

  • chat - 向当前 LLM 提供商发送消息

    • 接受一个 message 参数
    • 支持多个提供商 (OpenAI, Anthropic, OpenRouter, Ollama)
  • get_memory - 检索对话历史记录

    • 可选的 limit 参数,用于指定要检索的记忆数量
    • 传递 limit: null 以进行无限制的记忆检索
    • 以时间顺序返回带有时间戳的记忆
  • clear_memory - 清除对话历史记录

    • 删除所有存储的记忆
  • use_provider - 在不同的 LLM 提供商之间切换

    • 支持 OpenAI, Anthropic, OpenRouter 和 Ollama
    • 持久化提供商选择
  • use_model - 为当前提供商切换到不同的模型

    • 支持特定于提供商的模型:
      • Anthropic Claude 模型:
        • Claude 3 系列:
          • claude-3-haiku: 响应速度最快,非常适合客户支持和内容审核等任务
          • claude-3-sonnet: 平衡的性能,适合通用用途
          • claude-3-opus: 高级模型,适用于复杂的推理和高性能任务
        • Claude 3.5 系列:
          • claude-3.5-haiku: 增强的速度和成本效益
          • claude-3.5-sonnet: 卓越的性能和计算机交互能力
      • OpenAI: 'gpt-4o', 'gpt-4o-mini', 'gpt-4-turbo'
      • OpenRouter: 任何 'provider/model' 格式的模型 (例如, 'openai/gpt-4', 'anthropic/claude-2')
      • Ollama: 任何本地可用的模型 (例如, 'llama2', 'codellama')
    • 持久化模型选择

开发

安装依赖:

npm install

构建服务器:

npm run build

用于自动重新构建的开发:

npm run watch

安装

要与 Claude Desktop 一起使用,请添加服务器配置:

在 MacOS 上: ~/Library/Application Support/Claude/claude_desktop_config.json 在 Windows 上: %APPDATA%/Claude/claude_desktop_config.json

{
  "mcpServers": {
    "letta-memgpt": {
      "command": "/path/to/memgpt-server/build/index.js",
      "env": {
        "OPENAI_API_KEY": "your-openai-key",
        "ANTHROPIC_API_KEY": "your-anthropic-key",
        "OPENROUTER_API_KEY": "your-openrouter-key"
      }
    }
  }
}

环境变量

  • OPENAI_API_KEY - 你的 OpenAI API 密钥
  • ANTHROPIC_API_KEY - 你的 Anthropic API 密钥
  • OPENROUTER_API_KEY - 你的 OpenRouter API 密钥

调试

由于 MCP 服务器通过 stdio 进行通信,因此调试可能具有挑战性。 我们建议使用 MCP Inspector:

npm run inspector

Inspector 将提供一个 URL,用于访问浏览器中的调试工具。

最近更新

Claude 3 和 3.5 系列支持 (2024 年 3 月)

  • 增加了对最新 Claude 模型的支持:
    • Claude 3 系列 (Haiku, Sonnet, Opus)
    • Claude 3.5 系列 (Haiku, Sonnet)

无限制的记忆检索

  • 增加了对检索无限制对话历史记录的支持
  • 使用 { "limit": null }get_memory 工具来检索所有存储的记忆
  • 使用 { "limit": n } 来检索最近的 n 个记忆
  • 如果未指定,则默认限制为 10

推荐服务器

Crypto Price & Market Analysis MCP Server

Crypto Price & Market Analysis MCP Server

一个模型上下文协议 (MCP) 服务器,它使用 CoinCap API 提供全面的加密货币分析。该服务器通过一个易于使用的界面提供实时价格数据、市场分析和历史趋势。 (Alternative, slightly more formal and technical translation): 一个模型上下文协议 (MCP) 服务器,利用 CoinCap API 提供全面的加密货币分析服务。该服务器通过用户友好的界面,提供实时价格数据、市场分析以及历史趋势数据。

精选
TypeScript
MCP PubMed Search

MCP PubMed Search

用于搜索 PubMed 的服务器(PubMed 是一个免费的在线数据库,用户可以在其中搜索生物医学和生命科学文献)。 我是在 MCP 发布当天创建的,但当时正在度假。 我看到有人在您的数据库中发布了类似的服务器,但还是决定发布我的服务器。

精选
Python
mixpanel

mixpanel

连接到您的 Mixpanel 数据。 从 Mixpanel 分析查询事件、留存和漏斗数据。

精选
TypeScript
Sequential Thinking MCP Server

Sequential Thinking MCP Server

这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。

精选
Python
Nefino MCP Server

Nefino MCP Server

为大型语言模型提供访问德国可再生能源项目新闻和信息的能力,允许按地点、主题(太阳能、风能、氢能)和日期范围进行筛选。

官方
Python
Vectorize

Vectorize

将 MCP 服务器向量化以实现高级检索、私有深度研究、Anything-to-Markdown 文件提取和文本分块。

官方
JavaScript
Mathematica Documentation MCP server

Mathematica Documentation MCP server

一个服务器,通过 FastMCP 提供对 Mathematica 文档的访问,使用户能够从 Wolfram Mathematica 检索函数文档和列出软件包符号。

本地
Python
kb-mcp-server

kb-mcp-server

一个 MCP 服务器,旨在实现便携性、本地化、简易性和便利性,以支持对 txtai “all in one” 嵌入数据库进行基于语义/图的检索。任何 tar.gz 格式的 txtai 嵌入数据库都可以被加载。

本地
Python
Research MCP Server

Research MCP Server

这个服务器用作 MCP 服务器,与 Notion 交互以检索和创建调查数据,并与 Claude Desktop Client 集成以进行和审查调查。

本地
Python
Cryo MCP Server

Cryo MCP Server

一个API服务器,实现了模型补全协议(MCP),用于Cryo区块链数据提取,允许用户通过任何兼容MCP的客户端查询以太坊区块链数据。

本地
Python