
k8s-interactive-mcp
一个 MCP 服务器,可以使用给定的 kubeconfig 路径运行 Kubernetes 命令,并提供命令的解释。 (Or, a slightly more formal translation:) 一个 MCP 服务器,能够使用指定的 kubeconfig 路径执行 Kubernetes 命令,并提供对这些命令的解释。
Tools
run_kubectl_command
Run a kubectl command against the cluster pointed to by the current kubeconfig
README
k8s-interactive-mcp
一个 MCP 服务器,可以使用给定的 kubeconfig 路径运行 Kubernetes 命令,并提供命令的解释。
<a href="https://glama.ai/mcp/servers/gwvs0s78be"><img width="380" height="200" src="https://glama.ai/mcp/servers/gwvs0s78be/badge" alt="k8s-interactive-mcp MCP 服务器" /></a>
结果
<img src="./demo.png" alt="k8s-interactive 演示" />
特性
- 通过 MCP 工具运行 kubectl 命令
- 灵活的命令行管道
- 自动 kubectl 安装检查
- 支持自定义 kubeconfig 路径
- 错误处理和有用的消息
用法
- 安装依赖:
npm install
构建服务器:
npm run build
用于自动重新构建的开发:
npm run watch
安装
要与 Claude Desktop 一起使用,请添加服务器配置:
在 MacOS 上:~/Library/Application Support/Claude/claude_desktop_config.json
在 Windows 上:%APPDATA%/Claude/claude_desktop_config.json
{
"mcpServers": {
"k8s-interactive": {
"command": "/path/to/k8s-interactive/build/index.js"
}
}
}
调试
由于 MCP 服务器通过 stdio 进行通信,因此调试可能具有挑战性。 我们建议使用 MCP Inspector,它作为一个包脚本提供:
npm run inspector
Inspector 将提供一个 URL 以在您的浏览器中访问调试工具。
推荐服务器

Brev
在云端运行、构建、训练和部署机器学习模型。
metoro-mcp-server
使用LLM查询和交互由Metoro监控的Kubernetes环境。查看APM、指标、追踪和性能分析信息。
MCP2Lambda
通过 MCP 协议,人工智能模型能够与 AWS Lambda 函数交互,从而在安全的环境中访问私有资源、实时数据和自定义计算。
mcp-k8s-go
这个项目旨在成为一个连接到 Kubernetes 的 MCP 服务器,同时也是一个用于为 Kubernetes 中任何自定义资源构建更多服务器的库。

Sandbox MCP Server
为代码执行提供隔离的 Docker 环境,使用户能够创建和管理容器、执行多语言代码、保存和重现开发环境,从而确保安全性和隔离性。
Room MCP
一个命令行工具,可以使用 Room 协议启用 MCP,允许代理创建点对点虚拟房间并进行交互,以实现目标导向的协作。
MCP 3D Printer Server
通过 MCP 服务器实现与 3D 打印机管理系统的交互,支持 STL 文件操作、切片以及对 OctoPrint、Klipper、Duet 等打印机的控制。
MCP Server Template
一个用于在 TypeScript 中创建模型上下文协议 (MCP) 服务器的模板,提供诸如基于容器的依赖注入、基于服务的架构以及与 LLM CLI 的集成等功能,以便通过自然语言获得架构设计反馈。
Ollama MCP Server
一个桥梁,能够将 Ollama 的本地 LLM 功能无缝集成到 MCP 驱动的应用程序中,允许用户在本地管理和运行 AI 模型,并提供完整的 API 覆盖。
MCP Code Executor
允许大型语言模型 (LLM) 在指定的 Conda 环境中执行 Python 代码,从而能够访问必要的库和依赖项,以实现高效的代码执行。