Claude Team MCP
Enables collaboration between multiple AI models (GPT, Claude, Gemini) to work together on complex tasks, with intelligent task distribution and role-based expert assignment for code development, review, and optimization.
README
Claude Team
🤖 让 Claude Code / Windsurf / Cursor 同时使用 GPT、Claude、Gemini 等多个模型协作完成任务
✨ 特性
- 🤖 多模型协作 - 配置多个模型,各自发挥所长,协作完成任务
- 🧠 智能任务分配 - 主模型分析任务,自动分配给最合适的模型执行
- 🌐 支持中转 API - 自定义 Base URL,兼容各种代理服务
- 🔧 灵活配置 - 每个模型可独立配置 API Key、URL、模型 ID
- 📝 协作历史 - 完整记录每次协作,支持搜索和回顾
🚀 快速开始
安装
npm install -g claude-team
或直接使用 npx(无需安装):
npx claude-team
📖 Claude Code 详细配置教程
步骤 1:找到配置文件
打开配置文件 ~/.claude/config.json:
# macOS/Linux
open ~/.claude/config.json
# 或手动创建
mkdir -p ~/.claude && touch ~/.claude/config.json
步骤 2:添加 MCP 配置
编辑 config.json,添加以下内容:
基础配置(双模型)
{
"mcpServers": {
"claude-team": {
"command": "npx",
"args": ["-y", "claude-team"],
"env": {
"CLAUDE_TEAM_MAIN_KEY": "sk-your-api-key",
"CLAUDE_TEAM_MAIN_URL": "https://api.openai.com/v1",
"CLAUDE_TEAM_MAIN_MODEL": "gpt-4o",
"CLAUDE_TEAM_MAIN_PROVIDER": "openai",
"CLAUDE_TEAM_MODEL1_NAME": "gpt-3.5-turbo"
}
}
}
}
推荐配置(三模型协作)
{
"mcpServers": {
"claude-team": {
"command": "npx",
"args": ["-y", "claude-team"],
"env": {
"CLAUDE_TEAM_MAIN_KEY": "sk-your-main-key",
"CLAUDE_TEAM_MAIN_URL": "https://api.openai.com/v1",
"CLAUDE_TEAM_MAIN_MODEL": "gpt-4o",
"CLAUDE_TEAM_MAIN_PROVIDER": "openai",
"CLAUDE_TEAM_MODEL1_KEY": "sk-your-model1-key",
"CLAUDE_TEAM_MODEL1_URL": "https://api.anthropic.com/v1",
"CLAUDE_TEAM_MODEL1_NAME": "claude-3-sonnet",
"CLAUDE_TEAM_MODEL1_PROVIDER": "anthropic",
"CLAUDE_TEAM_MODEL2_KEY": "sk-your-model2-key",
"CLAUDE_TEAM_MODEL2_URL": "https://generativelanguage.googleapis.com/v1",
"CLAUDE_TEAM_MODEL2_NAME": "gemini-pro",
"CLAUDE_TEAM_MODEL2_PROVIDER": "gemini"
}
}
}
}
中转 API 配置(同一服务多模型)
{
"mcpServers": {
"claude-team": {
"command": "npx",
"args": ["-y", "claude-team"],
"env": {
"CLAUDE_TEAM_MAIN_KEY": "your-proxy-key",
"CLAUDE_TEAM_MAIN_URL": "https://your-proxy.com/v1",
"CLAUDE_TEAM_MAIN_MODEL": "gpt-4o",
"CLAUDE_TEAM_MAIN_PROVIDER": "openai",
"CLAUDE_TEAM_MODEL1_NAME": "gpt-3.5-turbo",
"CLAUDE_TEAM_MODEL2_NAME": "claude-3-haiku",
"CLAUDE_TEAM_MODEL2_PROVIDER": "anthropic"
}
}
}
}
💡 PROVIDER 可选值:
openai|anthropic|gemini
💡 如果 MODEL1/2/3 没有单独配置,会自动继承 MAIN 的配置
步骤 3:重启 Claude Code
配置完成后,重启 Claude Code 使配置生效。
步骤 4:开始使用
在 Claude Code 中直接对话:
> 帮我用团队协作完成一个用户登录功能
> 让团队帮我优化这段代码的性能
🔧 Windsurf / Cursor 配置
配置文件位置:
- Windsurf:
~/.codeium/windsurf/mcp_config.json - Cursor:
~/.cursor/mcp.json
配置格式与 Claude Code 相同。
⚙️ 配置说明
| 环境变量 | 必需 | 说明 |
|---|---|---|
CLAUDE_TEAM_MAIN_KEY |
✅ | 主模型 API Key |
CLAUDE_TEAM_MAIN_URL |
❌ | 主模型 API 地址 |
CLAUDE_TEAM_MAIN_MODEL |
❌ | 主模型 ID(默认 gpt-4o) |
CLAUDE_TEAM_MODEL{N}_KEY |
❌ | 模型N API Key(默认用 MAIN 的) |
CLAUDE_TEAM_MODEL{N}_URL |
❌ | 模型N API 地址(默认用 MAIN 的) |
CLAUDE_TEAM_MODEL{N}_NAME |
❌ | 模型N ID |
N = 1, 2, 3... 最多支持 10 个工作模型
模型角色
| 模型 | 用途 |
|---|---|
| MAIN | 主模型:分析任务、分配工作、也参与执行 |
| MODEL1/2/3... | 工作模型:各自执行擅长的任务 |
🎬 工作原理
用户: "优化这个 SQL 查询的性能"
Tech Lead 分析 →
├── 创建: SQL 优化专家 (powerful)
├── 创建: 索引分析专家 (balanced)
└── 工作流: sequential
用户: "写一个带暗黑模式的设置页面"
Tech Lead 分析 →
├── 创建: UI 组件专家 (balanced)
├── 创建: 主题系统专家 (fast)
├── 创建: 状态管理专家 (balanced)
└── 工作流: parallel → review
🛠️ MCP 工具
| 工具 | 描述 |
|---|---|
team_work |
🚀 团队协作完成任务(自动创建专家) |
ask_expert |
💬 咨询专家(frontend/backend/qa) |
code_review |
🔍 代码审查 |
fix_bug |
🐛 Bug 修复 |
history_list |
📋 查看协作历史 |
history_get |
📄 获取历史详情 |
history_search |
🔎 搜索历史记录 |
history_context |
📚 获取最近上下文 |
⚙️ 高级配置 (可选)
多模型配置
如果你有多个 API Key,系统会自动优化分配:
# 设置多个 Key,获得最佳体验
export GEMINI_API_KEY="xxx" # → fast 任务
export OPENAI_API_KEY="sk-xxx" # → balanced 任务
export ANTHROPIC_API_KEY="xxx" # → powerful 任务
自定义配置文件
需要更精细的控制?创建高级配置:
claude-team init --advanced
这会在 ~/.claude-team/config.yaml 创建配置文件,你可以自定义:
- 模型选择和参数
- 专家角色定义
- 协作流程设置
模型能力级别
| 级别 | 用途 | 示例场景 |
|---|---|---|
fast |
简单、快速任务 | 格式化、简单查询、文档生成 |
balanced |
常规开发任务 | 组件开发、API 实现、单元测试 |
powerful |
复杂推理任务 | 架构设计、性能优化、安全审计 |
📦 更新日志
v0.3.0
- 🔄 任务中断/恢复 - 长任务中断后可从历史恢复继续执行
- 💬 专家多轮对话 - 支持与特定专家进行多轮对话
- 📊 Token 计数 - 统计 token 使用量和估算 API 成本
- 📋 专家模板 - 6 个内置模板 + 自定义模板管理
- 🔔 Webhook 通知 - 任务完成后发送通知
- ⚡ 指数退避 - 智能重试和 429 速率限制处理
- 🔧 配置热重载 - 支持不重启更新配置
- ✅ validate 命令 -
claude-team validate检查配置 - 🧪 单元测试 - 86 个测试用例全覆盖
v0.2.2
- 🌊 流式输出 - 所有适配器支持流式输出(OpenAI/Claude/Gemini)
v0.2.1
- 📊 使用统计 - 新增
usage_stats工具,查看各模型调用次数、成功率、平均耗时
v0.2.0
- 🎯 模型策略 - 支持自定义任务分配规则(前端任务用 A 模型等)
- 💾 结果缓存 - 相似任务结果缓存,减少重复 API 调用
- 🔄 自动切换 - 模型调用失败时自动切换备用模型
- 📊 任务类型自动检测(frontend/backend/database/api/testing 等)
v0.1.3
- 🔄 显示每个专家执行任务的实时进度
- 🤖 显示每个专家使用的具体模型名称
- ⏱️ 显示任务总耗时
v0.1.2
- 📊 添加执行过程进度反馈
v0.1.1
- 📖 添加详细的 Claude Code 配置教程
- 📝 更新 README 文档
v0.1.0
- 🎉 首次发布
- 🤖 多模型协作支持
- 🌐 中转 API 支持
🤝 Contributing
欢迎提交 Issue 和 Pull Request!
📄 License
MIT
推荐服务器
Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。
VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。