MindManager MCP Server

MindManager MCP Server

一个模型上下文协议服务器,使大型语言模型(LLM)能够与 MindManager 思维导图进行交互,从而可以检索思维导图结构并导出为 Mermaid、Markdown 和 JSON 等格式。

Category
访问服务器

Tools

get_mindmap

Retrieves the current mind map structure from MindManager. Args: mode (str): Detail level ('full', 'content', 'text'). Defaults to 'full'. turbo_mode (bool): Enable turbo mode (text only). Defaults to False. Returns: Dict[str, Any]: Serialized mind map structure or error dictionary.

get_selection

Retrieves the currently selected topics in MindManager. Args: mode (str): Detail level ('full', 'content', 'text'). Defaults to 'full'. turbo_mode (bool): Enable turbo mode (text only). Defaults to False. Returns: Union[List[Dict[str, Any]], Dict[str, str]]: List of serialized selected topics or error dictionary.

get_library_folder

Gets the path to the MindManager library folder. Returns: Union[str, Dict[str, str]]: The library folder path or error dictionary.

get_mindmanager_version

Gets the version of the MindManager application. Returns: Union[str, Dict[str, str]]: The version of the MindManager application or error dictionary.

get_grounding_information

Extracts grounding information (central topic, selected subtopics) from the mindmap. Args: mode (str): Detail level ('full', 'content', 'text'). Defaults to 'full'. turbo_mode (bool): Enable turbo mode (text only). Defaults to False. Returns: Union[List[str], Dict[str, str]]: A list containing [top_most_topic, subtopics_string] or error dictionary.

serialize_current_mindmap_to_mermaid

Serializes the currently loaded mindmap to Mermaid format. Args: id_only (bool): If True, only include IDs without detailed attributes. Defaults to False. mode (str): Detail level ('full', 'content', 'text'). Defaults to 'full'. turbo_mode (bool): Enable turbo mode (text only). Defaults to False. Returns: Union[str, Dict[str, str]]: Mermaid formatted string or error dictionary.

serialize_current_mindmap_to_markdown

Serializes the currently loaded mindmap to Markdown format. Args: include_notes (bool): If True, include notes in the serialization. Defaults to True. mode (str): Detail level ('full', 'content', 'text'). Defaults to 'full'. turbo_mode (bool): Enable turbo mode (text only). Defaults to False. Returns: Union[str, Dict[str, str]]: Markdown formatted string or error dictionary.

serialize_current_mindmap_to_json

Serializes the currently loaded mindmap to a detailed JSON object with ID mapping. Args: ignore_rtf (bool): Whether to ignore RTF content. Defaults to True. mode (str): Detail level ('full', 'content', 'text'). Defaults to 'full'. turbo_mode (bool): Enable turbo mode (text only). Defaults to False. Returns: Union[Dict[str, Any], Dict[str, str]]: JSON serializable dictionary or error dictionary.

get_versions

Get the versions of the MindManager Automation MCP Server components. Returns: Dict[str, str]: A dictionary containing the versions of the components.

README

MindManager MCP 服务器

一个用于 mindm 库的模型上下文协议 (MCP) 服务器实现,提供了一个标准化的接口来与 Windows 和 macOS 上的 MindManager 进行交互。

PyPI version PyPI version

概述

此服务器允许您通过模型上下文协议 (MCP) 以编程方式与 MindManager 交互,MCP 是一种标准化的方式,可以为 LLM 提供上下文和工具。它利用 mindm 库来操作 MindManager 文档、主题、关系和其他思维导图元素。

示例:

MindManager MCP in Claude

特性

  • 检索思维导图结构和中心主题
  • 将思维导图导出为 Mermaid、Markdown、JSON 格式,以便在 LLM 聊天中使用
  • 获取有关 MindManager 安装和库文件夹的信息
  • 从 MindManager 获取当前选择

计划特性

  • 从序列化数据创建新的思维导图
  • 添加、修改和操作主题和子主题
  • 在主题之间添加关系
  • 向主题添加标签
  • 设置文档背景图像

要求

  • Python 3.12 或更高版本
  • mcp 包 (模型上下文协议 SDK)
  • mindm 库(包含在此项目中)
  • MindManager (支持版本: 23-) 安装在 Windows 或 macOS 上

安装 macOS

# 克隆存储库(如果您从存储库中使用它)
git clone https://github.com/robertZaufall/mindm-mcp.git
cd mindm-mcp

# 为 Python 创建一个虚拟环境
brew install uv # 如果需要
uv pip install -r pyproject.toml

# 替代方案:手动安装模块
uv add "mcp[cli]"
uv add fastmcp
uv add markdown-it-py
uv add -U --index-url=https://test.pypi.org/simple/ --extra-index-url=https://pypi.org/simple/ mindm mindm-mcp

安装 Windows

# 切换到 DOS 命令提示符
cmd

# 克隆存储库(如果您从存储库中使用它)
git clone https://github.com/robertZaufall/mindm-mcp.git
cd mindm-mcp

# 为 Python 创建一个虚拟环境
pip install uv # 如果需要
uv pip install -r pyproject.toml

# 安装 nodejs
choco install nodejs # 如果您安装了 chocolatey。如果没有,请以其他方式安装 nodejs
refreshenv
node -v
npm install -g npx

用法

MCP 检查器

# 运行带有检查器的 mcp
uv run --with mind --with fastmcp --with markdown-it-py mcp dev mindm_mcp/server.py

Claude Desktop

本地 python 文件

根据需要调整本地文件的路径。

{
  "mcpServers": {
    "mindm (MindManager)": {
      "command": "uv",
      "args": [
        "run",
        "--with",
        "mindm>=0.0.4.6",
        "--with",
        "fastmcp",
        "--with",
        "markdown-it-py",
        "/Users/master/git/mindm-mcp/mindm_mcp/server.py"
      ]
    }
  }
}

来自包存储库的模块

根据需要调整 VIRTUAL_ENV

{
    "mcpServers": {
      "mindm (MindManager)": {
        "command": "uv",
        "args": [
          "run",
          "--with",
          "mindm>=0.0.4.6",
          "--with",
          "mindm-mcp>=0.0.1.50",
          "--with",
          "fastmcp",
          "--with",
          "markdown-it-py",
          "-m",
          "mindm_mcp.server"
        ],
        "env": {
            "VIRTUAL_ENV": "/Users/master/git/mindm-mcp/.venv"
        }
      }
    }
}

提示:如果 MCP 服务器没有在 Windows 上显示锤子图标,请关闭 Claude Desktop 并杀死所有后台进程。

MCP 工具

服务器通过模型上下文协议公开以下工具:

文档交互

  • get_mindmap: 从 MindManager 检索当前思维导图结构
  • get_selection: 检索 MindManager 中当前选定的主题
  • get_library_folder: 获取 MindManager 库文件夹的路径
  • get_grounding_information: 从思维导图中提取基础信息(中心主题、选定的子主题)

序列化

  • serialize_current_mindmap_to_mermaid: 将当前加载的思维导图序列化为 Mermaid 格式
  • serialize_current_mindmap_to_markdown: 将当前加载的思维导图序列化为 Markdown 格式
  • serialize_current_mindmap_to_json: 将当前加载的思维导图序列化为带有 ID 映射的详细 JSON 对象

平台支持

  • Windows: 完全支持主题、注释、图标、图像、标签、链接、关系和 RTF 格式
  • macOS: 支持主题、注释和关系(与 Windows 相比,支持有限)

与 Claude 和其他 LLM 集成

此 MCP 服务器可以安装在 Claude Desktop 或其他 MCP 兼容的应用程序中,允许 LLM:

  1. 访问思维导图内容
  2. 操作思维导图(即将推出)
  3. 根据 LLM 生成的内容创建新的思维导图(即将推出)

故障排除

  • 确保在启动服务器之前 MindManager 正在运行
  • 对于 macOS,请确保允许 Claude Desktop 自动化 MindManager

致谢

该项目建立在 mindm 库之上,该库为 Windows 和 macOS 平台上的 MindManager 提供 Python 接口。它使用 Anthropic 开发的模型上下文协议 (MCP) SDK。

许可证

MIT 许可证 - 有关详细信息,请参见 LICENSE 文件

推荐服务器

Baidu Map

Baidu Map

百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。

官方
精选
JavaScript
Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。

官方
精选
本地
TypeScript
Audiense Insights MCP Server

Audiense Insights MCP Server

通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

官方
精选
本地
TypeScript
VeyraX

VeyraX

一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

官方
精选
本地
graphlit-mcp-server

graphlit-mcp-server

模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。

官方
精选
TypeScript
Kagi MCP Server

Kagi MCP Server

一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

官方
精选
Python
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选