
Yellhorn MCP
一个 MCP 服务器,它将 Gemini 2.5 Pro 连接到 Claude Code,使用户能够根据他们的代码库生成详细的实施计划,并接收关于代码更改的反馈。 (Alternatively, a slightly more formal translation:) 一个 MCP 服务器,将 Gemini 2.5 Pro 与 Claude Code 相连接,使用户能够基于其代码库生成详尽的实施方案,并获取关于代码变更的反馈。
Tools
generate_work_plan
Generate a detailed work plan for implementing a task based on the current codebase. Creates a GitHub issue with customizable title and detailed description, labeled with 'yellhorn-mcp'.Note: You should generally just pass the full user task request task verbatim to detailed_description.
review_work_plan
Review a pull request against the original work plan issue and provide feedback.
README
Yellhorn MCP
一个模型上下文协议 (MCP) 服务器,它将 Gemini 2.5 Pro 的能力暴露给 Claude Code,用于软件开发任务。
功能
- 生成工作计划: 基于您的代码库创建包含详细实施计划的 GitHub issue,标题和详细描述可自定义
- 隔离的开发环境: 自动创建 Git worktree 和链接的分支,以实现简化的、隔离的开发工作流程
- 审查代码差异: 根据原始工作计划,结合完整的代码库上下文评估 pull request,并提供详细的反馈
- 无缝 GitHub 集成: 自动创建带有标签的 issue,并在 GitHub UI 中正确链接分支,将审查意见作为 PR 评论发布,并引用原始 issue,以及处理异步处理
- 上下文控制: 使用
.yellhornignore
文件从 AI 上下文中排除特定的文件和目录,类似于.gitignore
- MCP 资源: 将工作计划作为标准 MCP 资源公开,以便轻松列出和检索
安装
# 从 PyPI 安装
pip install yellhorn-mcp
# 从源代码安装
git clone https://github.com/msnidal/yellhorn-mcp.git
cd yellhorn-mcp
pip install -e .
配置
服务器需要以下环境变量:
GEMINI_API_KEY
: 您的 Gemini API 密钥 (必需)REPO_PATH
: 您的仓库路径 (默认为当前目录)YELLHORN_MCP_MODEL
: 要使用的 Gemini 模型 (默认为 "gemini-2.5-pro-exp-03-25")
服务器还需要安装并验证 GitHub CLI (gh
)。
用法
运行服务器
# 作为独立服务器
yellhorn-mcp --repo-path /path/to/repo --host 127.0.0.1 --port 8000
# 使用 MCP CLI
mcp dev yellhorn_mcp.server
# 作为 Claude Desktop 的永久 MCP 服务器安装
mcp install yellhorn_mcp.server
# 在安装期间设置环境变量
mcp install yellhorn_mcp.server -v GEMINI_API_KEY=your_key_here -v REPO_PATH=/path/to/repo
与 Claude Code 集成
在使用 Claude Code 时,您可以通过以下方式使用 Yellhorn MCP 工具:
-
启动一个项目任务:
Please generate a workplan with title "[Your Title]" and detailed description "[Your detailed requirements]"
-
导航到创建的 worktree 目录:
cd [worktree_path] # 路径在响应中返回
-
如果需要,查看工作计划:
# 在 worktree 目录中 Please get the current workplan for this worktree
-
进行更改,创建 PR,并请求审查:
# 首先使用您喜欢的方法创建 PR (Git CLI, GitHub CLI, 或 web UI) git add . git commit -m "Implement feature" git push origin HEAD gh pr create --title "[PR Title]" --body "[PR Description]" # 然后,在 worktree 目录中,要求 Claude 审查它 Please trigger a review for PR "[PR URL]" against the original workplan
工具
generate_workplan
根据标题和详细描述创建一个包含详细工作计划的 GitHub issue。 还会创建一个带有链接分支的 Git worktree,用于隔离开发。
输入:
title
: GitHub issue 的标题 (将用作 issue 标题和 header)detailed_description
: 工作计划的详细描述
输出:
- 包含以下内容的 JSON 字符串:
issue_url
: 创建的 GitHub issue 的 URLworktree_path
: 创建的 Git worktree 目录的路径
get_workplan
检索与当前 Git worktree 关联的工作计划内容 (GitHub issue 正文)。
注意: 必须从 'generate_workplan' 创建的 worktree 中运行。
输入:
- 无需参数
输出:
- 工作计划 issue 的内容,以字符串形式
review_workplan
针对其原始工作计划 issue,为当前 Git worktree 关联的 Pull Request 触发异步代码审查。
注意: 必须从 'generate_workplan' 创建的 worktree 中运行。
输入:
pr_url
: 要审查的 GitHub Pull Request 的 URL
输出:
- 审查任务已启动的确认消息
资源访问
Yellhorn MCP 还实现了标准的 MCP 资源 API,以提供对工作计划的访问:
list-resources
: 列出所有工作计划 (带有 yellhorn-mcp 标签的 GitHub issue)get-resource
: 按 issue 编号检索特定工作计划的内容
这些可以通过标准的 MCP CLI 命令访问:
# 列出所有工作计划
mcp list-resources yellhorn-mcp
# 按 issue 编号获取特定工作计划
mcp get-resource yellhorn-mcp 123
开发
# 安装开发依赖
pip install -e ".[dev]"
# 运行测试
pytest
CI/CD
该项目使用 GitHub Actions 进行持续集成和部署:
-
测试: 在 pull request 和推送到 main 分支时自动运行
- 使用 flake8 进行 Linting
- 使用 black 进行格式检查
- 使用 pytest 进行测试
-
发布: 当推送版本标签时自动发布到 PyPI
- 标签必须与 pyproject.toml 中的版本匹配 (例如,v0.2.1)
- 需要一个存储为 GitHub 仓库 secret 的 PyPI API 令牌 (PYPI_API_TOKEN)
要发布新版本:
- 更新 pyproject.toml 中的版本
- 提交更改:
git commit -am "Bump version to X.Y.Z"
- 标记提交:
git tag vX.Y.Z
- 推送更改和标签:
git push && git push --tags
有关更详细的说明,请参阅 Usage Guide。
许可证
MIT
推荐服务器

Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。