MCP Kubernetes Server

MCP Kubernetes Server

一个服务器,它使大型语言模型(LLM)能够通过自然语言命令来管理 Kubernetes 集群,通过封装 kubectl 操作,为常见的 Kubernetes 任务提供一个简化的界面。

Category
访问服务器

README

MCP Kubernetes 服务器

smithery badge

这是一个用于 Kubernetes 的 MCP (模型上下文协议) 服务器,它通过与 LLM 的交互来提供对 Kubernetes 集群的控制。

概述

此客户端允许您通过 MCP 工具执行常见的 Kubernetes 操作。它封装了 kubectl 命令,以提供一个简单的界面来管理 Kubernetes 资源。模型上下文协议 (MCP) 实现了语言模型和 Kubernetes 操作之间的无缝交互。

什么是 MCP?

模型上下文协议 (MCP) 是一个框架,使语言模型能够以结构化的方式与外部工具和服务进行交互。它提供:

  • 一种标准化的方式来向语言模型公开功能
  • 操作的上下文管理
  • 工具发现和文档
  • 模型和工具之间类型安全的交互

使用示例

  • 为我在 production 命名空间中创建一个名为 nginx-app,镜像为 nginx:latest,具有 3 个副本的新部署。
  • 将 production 命名空间中的 nginx-app 部署更新到 1.19 版本。
  • 将 production 命名空间中的 nginx-app 部署扩展到 5 个副本。
  • 获取 production 命名空间中的 Pod。
  • 获取集群中的所有命名空间。
  • 获取集群中的所有节点。
  • 获取集群中的所有服务。
  • 获取集群中的所有部署。
  • 获取集群中的所有 Job。
  • 获取集群中的所有 CronJob。
  • 获取集群中的所有 StatefulSet。
  • 获取集群中的所有 DaemonSet。
  • 当前上下文是什么。
  • 列出所有上下文。
  • 切换到上下文 <context-name>。
  • 获取 production 命名空间中 Pod <pod-name> 的日志。
  • 获取 production 命名空间中的事件。
  • 在 production 命名空间中使用 key1=value1 注释 Pod <pod-name>。
  • 从 production 命名空间中的 Pod <pod-name> 中删除注释 key1。
  • 将标签 key1=value1 添加到 production 命名空间中的 Pod <pod-name>。
  • 从 production 命名空间中的 Pod <pod-name> 中删除标签 key1。
  • 在 production 命名空间中将部署 nginx-app 暴露在 80 端口上。
  • 将 production 命名空间中名称为 <resource-name> 的 pod,deployment,service 端口转发到本地端口 8080。
  • 删除 production 命名空间中名称为 <resource-name> 的 pod, deployment, service, job, cronjob, statefulset, daemonset。

即将推出的功能

  • 创建集群角色。
  • 删除集群角色。
  • 创建集群角色绑定。
  • 删除集群角色绑定。
  • 创建命名空间。
  • 删除命名空间。
  • 创建服务帐户。
  • 删除服务帐户。
  • 创建角色。
  • 删除角色。
  • 创建角色绑定。
  • 删除角色绑定。

LLM 集成

此 MCP 客户端旨在与大型语言模型 (LLM) 无缝协作。这些函数使用 @mcp.tool() 进行装饰,从而可以通过模型上下文协议框架供 LLM 访问。

LLM 提示示例

LLM 可以使用自然语言与您的 Kubernetes 集群进行交互。以下是一些示例提示:

  • "在 production 命名空间中创建一个具有 3 个副本的新 nginx 部署"
  • "将 nginx-app 部署扩展到 5 个副本"
  • "将 nginx-app 的镜像更新到 1.19 版本"

LLM 将解释这些自然语言请求,并使用正确的参数调用适当的 MCP 函数。

LLM 集成的优势

  1. 自然语言界面:使用对话式语言管理 Kubernetes 资源
  2. 降低命令复杂度:无需记住确切的 kubectl 语法
  3. 防止错误:LLM 可以验证输入并提供有用的错误消息
  4. 上下文感知:LLM 可以在多个操作中保持上下文
  5. 结构化交互:MCP 确保 LLM 和工具之间类型安全且有据可查的交互

要求

  • 通过 kubectl 配置的 Kubernetes 集群访问权限
  • Python 3.x
  • 已安装并配置的 MCP 框架

安全注意事项

将此客户端与 LLM 一起使用时,请确保:

  • 为您的 Kubernetes 集群设置了适当的访问控制
  • MCP 服务器在安全环境中运行
  • API 访问已正确进行身份验证和授权

与 Claude Desktop 一起使用

{
    "mcpServers": {
        "Kubernetes": {
            "command": "uv",
            "args": [
                "--directory",
                "~/mcp/mcp-k8s-server",
                "run",
                "kubernetes.py"
            ]
        }
    }
}

贡献

我们欢迎对 MCP Kubernetes 服务器的贡献!如果您想贡献:

  1. Fork 存储库
  2. 为您的功能创建一个新分支 (git checkout -b feature/amazing-feature)
  3. 进行更改
  4. 根据需要编写或更新测试
  5. 提交您的更改 (git commit -m 'Add some amazing feature')
  6. 推送到您的分支 (git push origin feature/amazing-feature)
  7. 打开一个 Pull Request

对于重大更改,请先打开一个 issue,讨论您想要更改的内容。

通过 Smithery 安装

要通过 Smithery 为 Claude Desktop 自动安装 Kubernetes Server:

npx -y @smithery/cli install @abhijeetka/mcp-k8s-server --client claude

推荐服务器

Baidu Map

Baidu Map

百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。

官方
精选
JavaScript
Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。

官方
精选
本地
TypeScript
Audiense Insights MCP Server

Audiense Insights MCP Server

通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

官方
精选
本地
TypeScript
VeyraX

VeyraX

一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

官方
精选
本地
graphlit-mcp-server

graphlit-mcp-server

模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。

官方
精选
TypeScript
Kagi MCP Server

Kagi MCP Server

一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

官方
精选
Python
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选