MCP Server for Spinnaker
一个模型上下文协议(Model Context Protocol)服务器实现,它允许人工智能模型通过一个标准化的接口来交互和管理 Spinnaker 的部署、流水线和应用程序。
README
用于 Spinnaker 的 MCP 服务器
此软件包为 Spinnaker 集成提供了一个模型上下文协议 (MCP) 服务器实现。它允许 AI 模型通过标准化的 MCP 接口与 Spinnaker 部署、管道和应用程序进行交互。
AI 集成
此 MCP 服务器是 Anthropic 的新型 AI 模型 Claude 如何使用模型上下文协议直接集成和增强软件部署流程的一个强大示例。通过遵循 MCP 标准,Claude 可以访问关于 Spinnaker 应用程序、管道和部署的丰富上下文信息,并使用定义良好的工具主动管理它们。
让我们深入了解这种集成为 AI 驱动的 CI/CD 带来的令人兴奋的可能性:
-
智能部署决策:通过访问关于应用程序和管道状态的全面上下文,像 Claude 这样的 AI 模型可以分析这些信息,从而就何时以及如何部署做出智能决策。例如,Claude 可以查看测试覆盖率、代码变更率和历史成功率等因素,以确定部署的最佳时间和目标环境。
-
主动问题检测和自主修复:AI 模型可以持续监控 CI/CD 流程,在潜在问题导致问题之前发现它们。想象一下,Claude 检测到新版本的依赖项存在已知漏洞,并自动创建一个拉取请求来更新它,或者注意到部署花费的时间比平时更长,并主动启动额外的资源以防止超时。
-
持续流程优化:通过每次部署,AI 模型都可以学习和适应,从而不断优化 CI/CD 流程。Claude 可以分析构建和部署日志以识别瓶颈,然后尝试不同的配置以提高速度和可靠性。随着时间的推移,整个部署过程变得更加高效和稳健。
-
自动根本原因分析和恢复:当确实出现问题时,AI 可以快速诊断问题,甚至尝试自主修复它。Claude 可以关联系统中不同部分的错误,识别最可能的根本原因,然后采取纠正措施,例如回滚到以前的版本或应用已知的补丁。
而这些仅仅是一些例子!随着模型上下文协议的演进和更多集成的构建,我们可以期望 AI 在 DevOps 领域扮演越来越复杂的角色。在整个 CI/CD 管道中,AI 可以提供智能的见解和建议,充当产品工程师的虚拟助手。
通过授权 AI 在 CI/CD 流程中与人类协同工作,像这个 Spinnaker 服务器这样的 MCP 集成展示了 AI 如何成为开发者生产力基础设施中积极主动的智能伙伴。这是朝着更高效、可靠和自主的软件交付迈出的重要一步。
安装
npm install @airjesus17/mcp-server-spinnaker
或者
yarn add @airjesus17/mcp-server-spinnaker
用法
import { SpinnakerMCPServer } from '@airjesus17/mcp-server-spinnaker';
// 初始化服务器
const server = new SpinnakerMCPServer(
'https://your-gate-url',
['app1', 'app2'], // 要监控的应用程序列表
['prod', 'staging'] // 要监控的环境列表
);
// 启动服务器
const port = 3000;
server.listen(port, () => {
console.log(`Spinnaker MCP Server 正在端口 ${port} 上运行`);
});
可用工具
服务器提供了以下工具供 AI 模型与 Spinnaker 交互:
get-applications
检索受监控的 Spinnaker 应用程序及其当前状态的列表。
// 示例响应
{
"success": true,
"data": [
{
"name": "myapp",
"description": "我的应用程序",
"pipelines": [
{
"id": "pipeline-1",
"name": "部署到生产环境",
"status": "SUCCEEDED"
}
]
}
]
}
get-pipelines
检索特定应用程序的所有管道。
// 参数
{
"application": "myapp"
}
// 示例响应
{
"success": true,
"data": [
{
"id": "pipeline-1",
"name": "部署到生产环境",
"status": "SUCCEEDED",
"stages": [...]
}
]
}
trigger-pipeline
触发特定应用程序的管道执行。
// 参数
{
"application": "myapp",
"pipelineId": "pipeline-1",
"parameters": {
"version": "1.2.3",
"environment": "production"
}
}
// 示例响应
{
"success": true,
"data": {
"ref": "01HFGH2J...",
"status": "RUNNING"
}
}
上下文更新
服务器自动维护关于您的 Spinnaker 部署的上下文。上下文包括:
- 应用程序列表及其当前状态
- 每个应用程序的管道状态
- 跨受监控环境的当前部署
- 最近的管道执行
默认情况下,上下文每 30 秒刷新一次。
环境变量
可以使用以下环境变量配置服务器:
GATE_URL: 您的 Spinnaker Gate 服务的 URLMCP_PORT: 运行 MCP 服务器的端口(默认值:3000)REFRESH_INTERVAL: 上下文刷新间隔(以秒为单位)(默认值:30)
类型
该软件包导出 TypeScript 类型,用于使用服务器:
import type {
SpinnakerApplication,
SpinnakerPipeline,
SpinnakerDeployment,
SpinnakerExecution
} from '@airjesus17/mcp-server-spinnaker';
开发
要为开发做出贡献:
- 克隆存储库
- 安装依赖项:
yarn install - 构建项目:
yarn build - 运行测试:
yarn test
许可证
MIT 许可证 - 有关详细信息,请参阅 LICENSE。
推荐服务器
Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。
VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。