k8s-interactive-mcp
一个 MCP 服务器,可以使用给定的 kubeconfig 路径运行 Kubernetes 命令,并提供命令的解释。 (Or, a slightly more formal translation:) 一个 MCP 服务器,它能够使用指定的 kubeconfig 路径执行 Kubernetes 命令,并提供对这些命令的解释。
Tools
run_kubectl_command
Run a kubectl command against the cluster pointed to by the current kubeconfig
README
k8s-interactive-mcp
一个 MCP 服务器,可以使用给定的 kubeconfig 路径运行 Kubernetes 命令,并提供命令的解释。
<a href="https://glama.ai/mcp/servers/gwvs0s78be"><img width="380" height="200" src="https://glama.ai/mcp/servers/gwvs0s78be/badge" alt="k8s-interactive-mcp MCP 服务器" /></a>
结果
<img src="./demo.png" alt="k8s-interactive 演示" />
特性
- 通过 MCP 工具运行 kubectl 命令
- 灵活的命令行管道
- 自动 kubectl 安装检查
- 支持自定义 kubeconfig 路径
- 错误处理和有用的消息
用法
- 安装依赖:
npm install
构建服务器:
npm run build
用于自动重新构建的开发:
npm run watch
安装
要与 Claude Desktop 一起使用,请添加服务器配置:
在 MacOS 上:~/Library/Application Support/Claude/claude_desktop_config.json
在 Windows 上:%APPDATA%/Claude/claude_desktop_config.json
{
"mcpServers": {
"k8s-interactive": {
"command": "/path/to/k8s-interactive/build/index.js"
}
}
}
调试
由于 MCP 服务器通过 stdio 进行通信,因此调试可能具有挑战性。 我们建议使用 MCP Inspector,它作为一个包脚本提供:
npm run inspector
Inspector 将提供一个 URL 以在您的浏览器中访问调试工具。
推荐服务器
Brev
在云端运行、构建、训练和部署机器学习模型。
metoro-mcp-server
使用LLM查询和交互由Metoro监控的Kubernetes环境。查看APM、指标、追踪和性能分析信息。
MCP2Lambda
通过 MCP 协议,人工智能模型能够与 AWS Lambda 函数交互,从而在安全的环境中访问私有资源、实时数据和自定义计算。
Ollama MCP Server
一个桥梁,能够将 Ollama 的本地 LLM 功能无缝集成到 MCP 驱动的应用程序中,允许用户在本地管理和运行 AI 模型,并提供完整的 API 覆盖。
MCP Code Executor
允许大型语言模型 (LLM) 在指定的 Conda 环境中执行 Python 代码,从而能够访问必要的库和依赖项,以实现高效的代码执行。
docker-mcp
一个强大的模型上下文协议(MCP)服务器,用于 Docker 操作,通过 Claude AI 实现无缝的容器和 Compose 堆栈管理。
MCP Server Modal
一个 MCP 服务器,允许用户直接从 Claude 将 Python 脚本部署到 Modal,并提供已部署应用程序的链接,以便与他人分享。
MCP Server Starter
一个生产就绪的模板,用于使用 TypeScript 创建模型上下文协议服务器,提供高效的测试、开发和部署工具。
kubernetes-mcp-server
一个强大且灵活的 Kubernetes MCP 服务器实现,支持 OpenShift。
MCP-IDB
模型上下文协议 (MCP) 与 Facebook 的 iOS 开发桥 (idb) 集成,通过自然语言实现自动化的 iOS 设备管理和测试执行。