Claude Team MCP

Claude Team MCP

Enables collaboration between multiple AI models (GPT, Claude, Gemini) to work together on complex tasks, with intelligent task distribution and role-based expert assignment for code development, review, and optimization.

Category
访问服务器

README

Claude Team

🤖 让 Claude Code / Windsurf / Cursor 同时使用 GPT、Claude、Gemini 等多个模型协作完成任务

npm version Node.js MCP License

✨ 特性

  • 🤖 多模型协作 - 配置多个模型,各自发挥所长,协作完成任务
  • 🧠 智能任务分配 - 主模型分析任务,自动分配给最合适的模型执行
  • 🌐 支持中转 API - 自定义 Base URL,兼容各种代理服务
  • 🔧 灵活配置 - 每个模型可独立配置 API Key、URL、模型 ID
  • 📝 协作历史 - 完整记录每次协作,支持搜索和回顾

🚀 快速开始

安装

npm install -g claude-team

或直接使用 npx(无需安装):

npx claude-team

📖 Claude Code 详细配置教程

步骤 1:找到配置文件

打开配置文件 ~/.claude/config.json

# macOS/Linux
open ~/.claude/config.json

# 或手动创建
mkdir -p ~/.claude && touch ~/.claude/config.json

步骤 2:添加 MCP 配置

编辑 config.json,添加以下内容:

基础配置(双模型)

{
  "mcpServers": {
    "claude-team": {
      "command": "npx",
      "args": ["-y", "claude-team"],
      "env": {
        "CLAUDE_TEAM_MAIN_KEY": "sk-your-api-key",
        "CLAUDE_TEAM_MAIN_URL": "https://api.openai.com/v1",
        "CLAUDE_TEAM_MAIN_MODEL": "gpt-4o",
        "CLAUDE_TEAM_MAIN_PROVIDER": "openai",
        
        "CLAUDE_TEAM_MODEL1_NAME": "gpt-3.5-turbo"
      }
    }
  }
}

推荐配置(三模型协作)

{
  "mcpServers": {
    "claude-team": {
      "command": "npx",
      "args": ["-y", "claude-team"],
      "env": {
        "CLAUDE_TEAM_MAIN_KEY": "sk-your-main-key",
        "CLAUDE_TEAM_MAIN_URL": "https://api.openai.com/v1",
        "CLAUDE_TEAM_MAIN_MODEL": "gpt-4o",
        "CLAUDE_TEAM_MAIN_PROVIDER": "openai",
        
        "CLAUDE_TEAM_MODEL1_KEY": "sk-your-model1-key",
        "CLAUDE_TEAM_MODEL1_URL": "https://api.anthropic.com/v1",
        "CLAUDE_TEAM_MODEL1_NAME": "claude-3-sonnet",
        "CLAUDE_TEAM_MODEL1_PROVIDER": "anthropic",
        
        "CLAUDE_TEAM_MODEL2_KEY": "sk-your-model2-key",
        "CLAUDE_TEAM_MODEL2_URL": "https://generativelanguage.googleapis.com/v1",
        "CLAUDE_TEAM_MODEL2_NAME": "gemini-pro",
        "CLAUDE_TEAM_MODEL2_PROVIDER": "gemini"
      }
    }
  }
}

中转 API 配置(同一服务多模型)

{
  "mcpServers": {
    "claude-team": {
      "command": "npx",
      "args": ["-y", "claude-team"],
      "env": {
        "CLAUDE_TEAM_MAIN_KEY": "your-proxy-key",
        "CLAUDE_TEAM_MAIN_URL": "https://your-proxy.com/v1",
        "CLAUDE_TEAM_MAIN_MODEL": "gpt-4o",
        "CLAUDE_TEAM_MAIN_PROVIDER": "openai",
        
        "CLAUDE_TEAM_MODEL1_NAME": "gpt-3.5-turbo",
        "CLAUDE_TEAM_MODEL2_NAME": "claude-3-haiku",
        "CLAUDE_TEAM_MODEL2_PROVIDER": "anthropic"
      }
    }
  }
}

💡 PROVIDER 可选值: openai | anthropic | gemini
💡 如果 MODEL1/2/3 没有单独配置,会自动继承 MAIN 的配置

步骤 3:重启 Claude Code

配置完成后,重启 Claude Code 使配置生效。

步骤 4:开始使用

在 Claude Code 中直接对话:

> 帮我用团队协作完成一个用户登录功能
> 让团队帮我优化这段代码的性能

🔧 Windsurf / Cursor 配置

配置文件位置:

  • Windsurf: ~/.codeium/windsurf/mcp_config.json
  • Cursor: ~/.cursor/mcp.json

配置格式与 Claude Code 相同。


⚙️ 配置说明

环境变量 必需 说明
CLAUDE_TEAM_MAIN_KEY 主模型 API Key
CLAUDE_TEAM_MAIN_URL 主模型 API 地址
CLAUDE_TEAM_MAIN_MODEL 主模型 ID(默认 gpt-4o)
CLAUDE_TEAM_MODEL{N}_KEY 模型N API Key(默认用 MAIN 的)
CLAUDE_TEAM_MODEL{N}_URL 模型N API 地址(默认用 MAIN 的)
CLAUDE_TEAM_MODEL{N}_NAME 模型N ID

N = 1, 2, 3... 最多支持 10 个工作模型

模型角色

模型 用途
MAIN 主模型:分析任务、分配工作、也参与执行
MODEL1/2/3... 工作模型:各自执行擅长的任务

🎬 工作原理

用户: "优化这个 SQL 查询的性能"

Tech Lead 分析 →
├── 创建: SQL 优化专家 (powerful)
├── 创建: 索引分析专家 (balanced)  
└── 工作流: sequential
用户: "写一个带暗黑模式的设置页面"

Tech Lead 分析 →
├── 创建: UI 组件专家 (balanced)
├── 创建: 主题系统专家 (fast)
├── 创建: 状态管理专家 (balanced)
└── 工作流: parallel → review

🛠️ MCP 工具

工具 描述
team_work 🚀 团队协作完成任务(自动创建专家)
ask_expert 💬 咨询专家(frontend/backend/qa)
code_review 🔍 代码审查
fix_bug 🐛 Bug 修复
history_list 📋 查看协作历史
history_get 📄 获取历史详情
history_search 🔎 搜索历史记录
history_context 📚 获取最近上下文

⚙️ 高级配置 (可选)

多模型配置

如果你有多个 API Key,系统会自动优化分配:

# 设置多个 Key,获得最佳体验
export GEMINI_API_KEY="xxx"      # → fast 任务
export OPENAI_API_KEY="sk-xxx"   # → balanced 任务  
export ANTHROPIC_API_KEY="xxx"   # → powerful 任务

自定义配置文件

需要更精细的控制?创建高级配置:

claude-team init --advanced

这会在 ~/.claude-team/config.yaml 创建配置文件,你可以自定义:

  • 模型选择和参数
  • 专家角色定义
  • 协作流程设置

模型能力级别

级别 用途 示例场景
fast 简单、快速任务 格式化、简单查询、文档生成
balanced 常规开发任务 组件开发、API 实现、单元测试
powerful 复杂推理任务 架构设计、性能优化、安全审计

📦 更新日志

v0.3.0

  • 🔄 任务中断/恢复 - 长任务中断后可从历史恢复继续执行
  • 💬 专家多轮对话 - 支持与特定专家进行多轮对话
  • 📊 Token 计数 - 统计 token 使用量和估算 API 成本
  • 📋 专家模板 - 6 个内置模板 + 自定义模板管理
  • 🔔 Webhook 通知 - 任务完成后发送通知
  • 指数退避 - 智能重试和 429 速率限制处理
  • 🔧 配置热重载 - 支持不重启更新配置
  • validate 命令 - claude-team validate 检查配置
  • 🧪 单元测试 - 86 个测试用例全覆盖

v0.2.2

  • 🌊 流式输出 - 所有适配器支持流式输出(OpenAI/Claude/Gemini)

v0.2.1

  • 📊 使用统计 - 新增 usage_stats 工具,查看各模型调用次数、成功率、平均耗时

v0.2.0

  • 🎯 模型策略 - 支持自定义任务分配规则(前端任务用 A 模型等)
  • 💾 结果缓存 - 相似任务结果缓存,减少重复 API 调用
  • 🔄 自动切换 - 模型调用失败时自动切换备用模型
  • 📊 任务类型自动检测(frontend/backend/database/api/testing 等)

v0.1.3

  • 🔄 显示每个专家执行任务的实时进度
  • 🤖 显示每个专家使用的具体模型名称
  • ⏱️ 显示任务总耗时

v0.1.2

  • 📊 添加执行过程进度反馈

v0.1.1

  • 📖 添加详细的 Claude Code 配置教程
  • 📝 更新 README 文档

v0.1.0

  • 🎉 首次发布
  • 🤖 多模型协作支持
  • 🌐 中转 API 支持

🤝 Contributing

欢迎提交 Issue 和 Pull Request!

📄 License

MIT

推荐服务器

Baidu Map

Baidu Map

百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。

官方
精选
JavaScript
Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。

官方
精选
本地
TypeScript
Audiense Insights MCP Server

Audiense Insights MCP Server

通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

官方
精选
本地
TypeScript
VeyraX

VeyraX

一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

官方
精选
本地
graphlit-mcp-server

graphlit-mcp-server

模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。

官方
精选
TypeScript
Kagi MCP Server

Kagi MCP Server

一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

官方
精选
Python
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选