
Task Manager MCP Server
一个模型上下文协议服务器,提供全面的任务管理功能,支持项目组织、任务跟踪以及将PRD(产品需求文档)自动解析为可执行条目。
README
任务管理器 MCP 服务器
这是一个用于管理任务和项目的 模型上下文协议 (MCP) 服务器的模板实现。该服务器提供了一个全面的任务管理系统,支持项目组织、任务跟踪和 PRD 解析。
概述
本项目演示了如何构建一个 MCP 服务器,使 AI 代理能够管理任务、跟踪项目进度并将产品需求文档 (PRD) 分解为可执行的任务。它可以作为创建具有任务管理功能的自定义 MCP 服务器的实用模板。
该实现遵循 Anthropic 提出的构建 MCP 服务器的最佳实践,从而可以与任何 MCP 兼容的客户端无缝集成。
功能
该服务器提供几个基本的任务管理工具:
-
任务管理
create_task_file
: 创建新的项目任务文件add_task
: 向项目添加任务,包括描述和子任务update_task_status
: 更新任务和子任务的状态get_next_task
: 从项目中获取下一个未完成的任务
-
项目规划
parse_prd
: 自动将 PRD 转换为结构化任务expand_task
: 将任务分解为更小、更易于管理的子任务estimate_task_complexity
: 评估任务复杂性和时间要求get_task_dependencies
: 跟踪任务依赖关系
-
开发支持
generate_task_file
: 根据任务描述生成文件模板suggest_next_actions
: 获取 AI 驱动的下一步操作建议
前提条件
- Python 3.12+
- 所选 LLM 提供商(OpenAI、OpenRouter 或 Ollama)的 API 密钥
- 如果将 MCP 服务器作为容器运行,则需要 Docker(推荐)
安装
使用 uv
-
如果您还没有安装 uv,请安装它:
pip install uv
-
克隆此存储库:
git clone https://github.com/coleam00/mcp-mem0.git cd mcp-mem0
-
安装依赖项:
uv pip install -e .
-
基于
.env.example
创建一个.env
文件:cp .env.example .env
-
在
.env
文件中配置您的环境变量(请参阅配置部分)
使用 Docker (推荐)
-
构建 Docker 镜像:
docker build -t mcp/mem0 --build-arg PORT=8050 .
-
基于
.env.example
创建一个.env
文件并配置您的环境变量
配置
以下环境变量可以在您的 .env
文件中配置:
变量 | 描述 | 示例 |
---|---|---|
TRANSPORT |
传输协议 (sse 或 stdio) | sse |
HOST |
使用 SSE 传输时要绑定的主机 | 0.0.0.0 |
PORT |
使用 SSE 传输时要监听的端口 | 8050 |
LLM_PROVIDER |
LLM 提供商 (openai, openrouter, 或 ollama) | openai |
LLM_BASE_URL |
LLM API 的基本 URL | https://api.openai.com/v1 |
LLM_API_KEY |
LLM 提供商的 API 密钥 | sk-... |
LLM_CHOICE |
用于任务分析的 LLM 模型 | gpt-4 |
运行服务器
使用 Python 3
# 在 .env 中设置 TRANSPORT=sse 然后:
python3 src/main.py
服务器将在配置的主机和端口上启动(默认:http://0.0.0.0:8050)。
使用 Docker
docker build -t task-manager-mcp .
docker run --env-file .env -p 8050:8050 task-manager-mcp
使用任务管理器
创建新项目
- 为您的项目创建一个任务文件:
await mcp.create_task_file(project_name="my-project")
- 向您的项目添加任务:
await mcp.add_task(
project_name="my-project",
title="Setup Development Environment",
description="Configure the development environment with required tools",
subtasks=[
"Install dependencies",
"Configure linters",
"Set up testing framework"
]
)
- 解析 PRD 以自动创建任务:
await mcp.parse_prd(
project_name="my-project",
prd_content="# Your PRD content..."
)
管理任务
- 更新任务状态:
await mcp.update_task_status(
project_name="my-project",
task_title="Setup Development Environment",
subtask_title="Install dependencies",
status="done"
)
- 获取下一个要处理的任务:
next_task = await mcp.get_next_task(project_name="my-project")
- 将任务扩展为子任务:
await mcp.expand_task(
project_name="my-project",
task_title="Implement Authentication"
)
开发工作流程
- 为任务生成文件模板:
await mcp.generate_task_file(
project_name="my-project",
task_title="User Authentication"
)
- 获取任务复杂性估计:
complexity = await mcp.estimate_task_complexity(
project_name="my-project",
task_title="User Authentication"
)
- 获取下一步操作的建议:
suggestions = await mcp.suggest_next_actions(
project_name="my-project",
task_title="User Authentication"
)
与 MCP 客户端集成
SSE 配置
要使用 SSE 传输连接到服务器,请使用以下配置:
{
"mcpServers": {
"task-manager": {
"transport": "sse",
"url": "http://localhost:8050/sse"
}
}
}
Stdio 配置
对于 stdio 传输,请使用以下配置:
{
"mcpServers": {
"task-manager": {
"command": "python3",
"args": ["src/main.py"],
"env": {
"TRANSPORT": "stdio",
"LLM_PROVIDER": "openai",
"LLM_API_KEY": "YOUR-API-KEY",
"LLM_CHOICE": "gpt-4"
}
}
}
}
构建您自己的服务器
此模板为构建更复杂的任务管理 MCP 服务器奠定了基础。要扩展它:
- 使用
@mcp.tool()
装饰器添加新的任务管理工具 - 实现自定义任务分析和自动化功能
- 添加特定于项目的任务模板和工作流程
- 与您现有的开发工具和流程集成
推荐服务器

Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。