MindManager MCP Server
一个模型上下文协议服务器,使大型语言模型(LLM)能够与 MindManager 思维导图进行交互,从而可以检索思维导图结构并导出为 Mermaid、Markdown 和 JSON 等格式。
Tools
get_mindmap
Retrieves the current mind map structure from MindManager. Args: mode (str): Detail level ('full', 'content', 'text'). Defaults to 'full'. turbo_mode (bool): Enable turbo mode (text only). Defaults to False. Returns: Dict[str, Any]: Serialized mind map structure or error dictionary.
get_selection
Retrieves the currently selected topics in MindManager. Args: mode (str): Detail level ('full', 'content', 'text'). Defaults to 'full'. turbo_mode (bool): Enable turbo mode (text only). Defaults to False. Returns: Union[List[Dict[str, Any]], Dict[str, str]]: List of serialized selected topics or error dictionary.
get_library_folder
Gets the path to the MindManager library folder. Returns: Union[str, Dict[str, str]]: The library folder path or error dictionary.
get_mindmanager_version
Gets the version of the MindManager application. Returns: Union[str, Dict[str, str]]: The version of the MindManager application or error dictionary.
get_grounding_information
Extracts grounding information (central topic, selected subtopics) from the mindmap. Args: mode (str): Detail level ('full', 'content', 'text'). Defaults to 'full'. turbo_mode (bool): Enable turbo mode (text only). Defaults to False. Returns: Union[List[str], Dict[str, str]]: A list containing [top_most_topic, subtopics_string] or error dictionary.
serialize_current_mindmap_to_mermaid
Serializes the currently loaded mindmap to Mermaid format. Args: id_only (bool): If True, only include IDs without detailed attributes. Defaults to False. mode (str): Detail level ('full', 'content', 'text'). Defaults to 'full'. turbo_mode (bool): Enable turbo mode (text only). Defaults to False. Returns: Union[str, Dict[str, str]]: Mermaid formatted string or error dictionary.
serialize_current_mindmap_to_markdown
Serializes the currently loaded mindmap to Markdown format. Args: include_notes (bool): If True, include notes in the serialization. Defaults to True. mode (str): Detail level ('full', 'content', 'text'). Defaults to 'full'. turbo_mode (bool): Enable turbo mode (text only). Defaults to False. Returns: Union[str, Dict[str, str]]: Markdown formatted string or error dictionary.
serialize_current_mindmap_to_json
Serializes the currently loaded mindmap to a detailed JSON object with ID mapping. Args: ignore_rtf (bool): Whether to ignore RTF content. Defaults to True. mode (str): Detail level ('full', 'content', 'text'). Defaults to 'full'. turbo_mode (bool): Enable turbo mode (text only). Defaults to False. Returns: Union[Dict[str, Any], Dict[str, str]]: JSON serializable dictionary or error dictionary.
get_versions
Get the versions of the MindManager Automation MCP Server components. Returns: Dict[str, str]: A dictionary containing the versions of the components.
README
MindManager MCP 服务器
一个用于 mindm 库的模型上下文协议 (MCP) 服务器实现,提供了一个标准化的接口来与 Windows 和 macOS 上的 MindManager 进行交互。
概述
此服务器允许您通过模型上下文协议 (MCP) 以编程方式与 MindManager 交互,MCP 是一种标准化的方式,可以为 LLM 提供上下文和工具。它利用 mindm 库来操作 MindManager 文档、主题、关系和其他思维导图元素。
示例:

特性
- 检索思维导图结构和中心主题
- 将思维导图导出为 Mermaid、Markdown、JSON 格式,以便在 LLM 聊天中使用
- 获取有关 MindManager 安装和库文件夹的信息
- 从 MindManager 获取当前选择
计划特性
- 从序列化数据创建新的思维导图
- 添加、修改和操作主题和子主题
- 在主题之间添加关系
- 向主题添加标签
- 设置文档背景图像
要求
- Python 3.12 或更高版本
mcp包 (模型上下文协议 SDK)mindm库(包含在此项目中)- MindManager (支持版本: 23-) 安装在 Windows 或 macOS 上
安装 macOS
# 克隆存储库(如果您从存储库中使用它)
git clone https://github.com/robertZaufall/mindm-mcp.git
cd mindm-mcp
# 为 Python 创建一个虚拟环境
brew install uv # 如果需要
uv pip install -r pyproject.toml
# 替代方案:手动安装模块
uv add "mcp[cli]"
uv add fastmcp
uv add markdown-it-py
uv add -U --index-url=https://test.pypi.org/simple/ --extra-index-url=https://pypi.org/simple/ mindm mindm-mcp
安装 Windows
# 切换到 DOS 命令提示符
cmd
# 克隆存储库(如果您从存储库中使用它)
git clone https://github.com/robertZaufall/mindm-mcp.git
cd mindm-mcp
# 为 Python 创建一个虚拟环境
pip install uv # 如果需要
uv pip install -r pyproject.toml
# 安装 nodejs
choco install nodejs # 如果您安装了 chocolatey。如果没有,请以其他方式安装 nodejs
refreshenv
node -v
npm install -g npx
用法
MCP 检查器
# 运行带有检查器的 mcp
uv run --with mind --with fastmcp --with markdown-it-py mcp dev mindm_mcp/server.py
Claude Desktop
本地 python 文件
根据需要调整本地文件的路径。
{
"mcpServers": {
"mindm (MindManager)": {
"command": "uv",
"args": [
"run",
"--with",
"mindm>=0.0.4.6",
"--with",
"fastmcp",
"--with",
"markdown-it-py",
"/Users/master/git/mindm-mcp/mindm_mcp/server.py"
]
}
}
}
来自包存储库的模块
根据需要调整 VIRTUAL_ENV。
{
"mcpServers": {
"mindm (MindManager)": {
"command": "uv",
"args": [
"run",
"--with",
"mindm>=0.0.4.6",
"--with",
"mindm-mcp>=0.0.1.50",
"--with",
"fastmcp",
"--with",
"markdown-it-py",
"-m",
"mindm_mcp.server"
],
"env": {
"VIRTUAL_ENV": "/Users/master/git/mindm-mcp/.venv"
}
}
}
}
提示:如果 MCP 服务器没有在 Windows 上显示锤子图标,请关闭 Claude Desktop 并杀死所有后台进程。
MCP 工具
服务器通过模型上下文协议公开以下工具:
文档交互
get_mindmap: 从 MindManager 检索当前思维导图结构get_selection: 检索 MindManager 中当前选定的主题get_library_folder: 获取 MindManager 库文件夹的路径get_grounding_information: 从思维导图中提取基础信息(中心主题、选定的子主题)
序列化
serialize_current_mindmap_to_mermaid: 将当前加载的思维导图序列化为 Mermaid 格式serialize_current_mindmap_to_markdown: 将当前加载的思维导图序列化为 Markdown 格式serialize_current_mindmap_to_json: 将当前加载的思维导图序列化为带有 ID 映射的详细 JSON 对象
平台支持
- Windows: 完全支持主题、注释、图标、图像、标签、链接、关系和 RTF 格式
- macOS: 支持主题、注释和关系(与 Windows 相比,支持有限)
与 Claude 和其他 LLM 集成
此 MCP 服务器可以安装在 Claude Desktop 或其他 MCP 兼容的应用程序中,允许 LLM:
- 访问思维导图内容
- 操作思维导图(即将推出)
- 根据 LLM 生成的内容创建新的思维导图(即将推出)
故障排除
- 确保在启动服务器之前 MindManager 正在运行
- 对于 macOS,请确保允许 Claude Desktop 自动化 MindManager
致谢
该项目建立在 mindm 库之上,该库为 Windows 和 macOS 平台上的 MindManager 提供 Python 接口。它使用 Anthropic 开发的模型上下文协议 (MCP) SDK。
许可证
MIT 许可证 - 有关详细信息,请参见 LICENSE 文件
推荐服务器
Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。
VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。