Task Manager MCP Server

Task Manager MCP Server

一个模型上下文协议服务器,提供全面的任务管理功能,支持项目组织、任务跟踪以及将PRD(产品需求文档)自动解析为可执行条目。

Category
访问服务器

README

任务管理器 MCP 服务器

这是一个用于管理任务和项目的 模型上下文协议 (MCP) 服务器的模板实现。该服务器提供了一个全面的任务管理系统,支持项目组织、任务跟踪和 PRD 解析。

概述

本项目演示了如何构建一个 MCP 服务器,使 AI 代理能够管理任务、跟踪项目进度并将产品需求文档 (PRD) 分解为可执行的任务。它可以作为创建具有任务管理功能的自定义 MCP 服务器的实用模板。

该实现遵循 Anthropic 提出的构建 MCP 服务器的最佳实践,从而可以与任何 MCP 兼容的客户端无缝集成。

功能

该服务器提供几个基本的任务管理工具:

  1. 任务管理

    • create_task_file: 创建新的项目任务文件
    • add_task: 向项目添加任务,包括描述和子任务
    • update_task_status: 更新任务和子任务的状态
    • get_next_task: 从项目中获取下一个未完成的任务
  2. 项目规划

    • parse_prd: 自动将 PRD 转换为结构化任务
    • expand_task: 将任务分解为更小、更易于管理的子任务
    • estimate_task_complexity: 评估任务复杂性和时间要求
    • get_task_dependencies: 跟踪任务依赖关系
  3. 开发支持

    • generate_task_file: 根据任务描述生成文件模板
    • suggest_next_actions: 获取 AI 驱动的下一步操作建议

前提条件

  • Python 3.12+
  • 所选 LLM 提供商(OpenAI、OpenRouter 或 Ollama)的 API 密钥
  • 如果将 MCP 服务器作为容器运行,则需要 Docker(推荐)

安装

使用 uv

  1. 如果您还没有安装 uv,请安装它:

    pip install uv
    
  2. 克隆此存储库:

    git clone https://github.com/coleam00/mcp-mem0.git
    cd mcp-mem0
    
  3. 安装依赖项:

    uv pip install -e .
    
  4. 基于 .env.example 创建一个 .env 文件:

    cp .env.example .env
    
  5. .env 文件中配置您的环境变量(请参阅配置部分)

使用 Docker (推荐)

  1. 构建 Docker 镜像:

    docker build -t mcp/mem0 --build-arg PORT=8050 .
    
  2. 基于 .env.example 创建一个 .env 文件并配置您的环境变量

配置

以下环境变量可以在您的 .env 文件中配置:

变量 描述 示例
TRANSPORT 传输协议 (sse 或 stdio) sse
HOST 使用 SSE 传输时要绑定的主机 0.0.0.0
PORT 使用 SSE 传输时要监听的端口 8050
LLM_PROVIDER LLM 提供商 (openai, openrouter, 或 ollama) openai
LLM_BASE_URL LLM API 的基本 URL https://api.openai.com/v1
LLM_API_KEY LLM 提供商的 API 密钥 sk-...
LLM_CHOICE 用于任务分析的 LLM 模型 gpt-4

运行服务器

使用 Python 3

# 在 .env 中设置 TRANSPORT=sse 然后:
python3 src/main.py

服务器将在配置的主机和端口上启动(默认:http://0.0.0.0:8050)。

使用 Docker

docker build -t task-manager-mcp .
docker run --env-file .env -p 8050:8050 task-manager-mcp

使用任务管理器

创建新项目

  1. 为您的项目创建一个任务文件:
await mcp.create_task_file(project_name="my-project")
  1. 向您的项目添加任务:
await mcp.add_task(
    project_name="my-project",
    title="Setup Development Environment",
    description="Configure the development environment with required tools",
    subtasks=[
        "Install dependencies",
        "Configure linters",
        "Set up testing framework"
    ]
)
  1. 解析 PRD 以自动创建任务:
await mcp.parse_prd(
    project_name="my-project",
    prd_content="# Your PRD content..."
)

管理任务

  1. 更新任务状态:
await mcp.update_task_status(
    project_name="my-project",
    task_title="Setup Development Environment",
    subtask_title="Install dependencies",
    status="done"
)
  1. 获取下一个要处理的任务:
next_task = await mcp.get_next_task(project_name="my-project")
  1. 将任务扩展为子任务:
await mcp.expand_task(
    project_name="my-project",
    task_title="Implement Authentication"
)

开发工作流程

  1. 为任务生成文件模板:
await mcp.generate_task_file(
    project_name="my-project",
    task_title="User Authentication"
)
  1. 获取任务复杂性估计:
complexity = await mcp.estimate_task_complexity(
    project_name="my-project",
    task_title="User Authentication"
)
  1. 获取下一步操作的建议:
suggestions = await mcp.suggest_next_actions(
    project_name="my-project",
    task_title="User Authentication"
)

与 MCP 客户端集成

SSE 配置

要使用 SSE 传输连接到服务器,请使用以下配置:

{
  "mcpServers": {
    "task-manager": {
      "transport": "sse",
      "url": "http://localhost:8050/sse"
    }
  }
}

Stdio 配置

对于 stdio 传输,请使用以下配置:

{
  "mcpServers": {
    "task-manager": {
      "command": "python3",
      "args": ["src/main.py"],
      "env": {
        "TRANSPORT": "stdio",
        "LLM_PROVIDER": "openai",
        "LLM_API_KEY": "YOUR-API-KEY",
        "LLM_CHOICE": "gpt-4"
      }
    }
  }
}

构建您自己的服务器

此模板为构建更复杂的任务管理 MCP 服务器奠定了基础。要扩展它:

  1. 使用 @mcp.tool() 装饰器添加新的任务管理工具
  2. 实现自定义任务分析和自动化功能
  3. 添加特定于项目的任务模板和工作流程
  4. 与您现有的开发工具和流程集成

推荐服务器

Baidu Map

Baidu Map

百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。

官方
精选
JavaScript
Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。

官方
精选
本地
TypeScript
Audiense Insights MCP Server

Audiense Insights MCP Server

通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

官方
精选
本地
TypeScript
VeyraX

VeyraX

一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

官方
精选
本地
graphlit-mcp-server

graphlit-mcp-server

模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。

官方
精选
TypeScript
Kagi MCP Server

Kagi MCP Server

一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

官方
精选
Python
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选