GitHub Stars MCP Server
一个由 Cloudflare 驱动的 MCP (模型上下文协议) 服务器,它允许你使用自然语言搜索和查询你在 GitHub 上标星的仓库。
ccbikai
README
GitHub Stars MCP 服务器
一个由 Cloudflare 驱动的 MCP (模型上下文协议) 服务器,允许你使用自然语言搜索和查询你 GitHub 上标星的仓库。
English | 简体中文
概述
本项目通过以下步骤创建一个可搜索的 GitHub 标星仓库数据库:
- 使用 GitHub API 获取你所有标星的仓库
- 从每个仓库中提取并处理 README 文件
- 将处理后的数据上传到 Cloudflare R2 存储
- 使用 Cloudflare AutoRAG 创建嵌入,以实现高效搜索
- 暴露一个 MCP 服务器,允许通过自然语言查询这些仓库
特性
- 自动获取和处理 GitHub 标星仓库
- 通过 GitHub Actions 安排每周更新
- 存储仓库元数据和 README 内容
- 通过 Cloudflare AutoRAG 提供语义搜索功能
- 暴露一个与 AI 代理集成的 MCP 兼容 API
设置
前提条件
- Node.js (推荐 v22)
- PNPM 包管理器
- 具有
repo
作用域的 GitHub 个人访问令牌 - Cloudflare 账户
配置
-
克隆此仓库
-
设置 Cloudflare R2:
- 创建一个 R2 存储桶
- 配置 R2 访问凭证
-
为 CI/CD 工作流配置 GitHub Secrets:
GH_TOKEN
: 用于获取标星仓库的 GitHub 令牌R2_ACCOUNT_ID
: Cloudflare 账户 IDR2_ACCESS_KEY_ID
: R2 访问密钥R2_SECRET_ACCESS_KEY
: R2 密钥R2_BUCKET
: R2 存储桶名称
-
配置 Cloudflare AutoRAG:
- 在 Cloudflare 中创建一个 AutoRAG 实例
- 在你的 Cloudflare Worker 中设置
AUTO_RAG_NAME
环境变量
本地开发
要在本地开发:
# 安装依赖
pnpm install
# 在本地获取你的 GitHub Stars
pnpm dev:stars
# 在本地运行 MCP 服务器
pnpm dev:mcp
部署
部署到 Cloudflare Workers:
pnpm deploy
GitHub Action 将自动执行以下操作:
- 每周运行以更新你的标星仓库
- 将处理后的文件上传到 R2
- 重建 AutoRAG 索引
使用
部署后,你可以使用任何 MCP 兼容的客户端与 MCP 服务器交互:
SSE: https://your-worker-url.workers.dev
API 参考
MCP 工具: search_github_stars
搜索你的 GitHub 标星仓库。
参数:
query
(string): 用于搜索仓库的自然语言查询
响应:
- 包含匹配的仓库和相关 README 内容的 JSON 结果
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
MCP Package Docs Server
促进大型语言模型高效访问和获取 Go、Python 和 NPM 包的结构化文档,通过多语言支持和性能优化来增强软件开发。
Claude Code MCP
一个实现了 Claude Code 作为模型上下文协议(Model Context Protocol, MCP)服务器的方案,它可以通过标准化的 MCP 接口来使用 Claude 的软件工程能力(代码生成、编辑、审查和文件操作)。
@kazuph/mcp-taskmanager
用于任务管理的模型上下文协议服务器。它允许 Claude Desktop(或任何 MCP 客户端)在基于队列的系统中管理和执行任务。
mermaid-mcp-server
一个模型上下文协议 (MCP) 服务器,用于将 Mermaid 图表转换为 PNG 图像。
Jira-Context-MCP
MCP 服务器向 AI 编码助手(如 Cursor)提供 Jira 工单信息。

Linear MCP Server
一个模型上下文协议(Model Context Protocol)服务器,它与 Linear 的问题跟踪系统集成,允许大型语言模型(LLM)通过自然语言交互来创建、更新、搜索和评论 Linear 问题。

Sequential Thinking MCP Server
这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。
Curri MCP Server
通过管理文本笔记、提供笔记创建工具以及使用结构化提示生成摘要,从而实现与 Curri API 的交互。