ZenML MCP Server

ZenML MCP Server

一个实现了模型上下文协议的服务器,它使大型语言模型(LLM)能够与 ZenML 平台交互,从而访问管道数据、堆栈信息,并能够触发新的管道运行。

远程shell执行
数据库交互
AI内容生成
访问服务器

README

用于 ZenML 的 MCP 服务器

本项目实现了一个 模型上下文协议 (MCP) 服务器,用于与 ZenML API 交互。

ZenML MCP 服务器

什么是 MCP?

模型上下文协议 (MCP) 是一个开放协议,它标准化了应用程序如何为大型语言模型 (LLM) 提供上下文。它就像一个“用于 AI 应用程序的 USB-C 端口”——提供了一种标准化的方式来将 AI 模型连接到不同的数据源和工具。

MCP 遵循客户端-服务器架构,其中:

  • MCP 主机:像 Claude Desktop 或 IDE 这样的程序,希望通过 MCP 访问数据
  • MCP 客户端:与服务器保持 1:1 连接的协议客户端
  • MCP 服务器:轻量级程序,通过标准化协议公开特定功能
  • 本地数据源:您的计算机的文件、数据库和服务,MCP 服务器可以安全地访问
  • 远程服务:可通过互联网访问的外部系统,MCP 服务器可以连接到

什么是 ZenML?

ZenML 是一个开源平台,用于构建和管理 ML 和 AI 管道。它提供了一个统一的界面来管理数据、模型和实验。

有关更多信息,请参阅 ZenML 网站我们的文档

功能

该服务器提供 MCP 工具来访问 ZenML 服务器的核心读取功能,从而提供了一种获取以下实时信息的方式:

  • 用户
  • 堆栈
  • 管道
  • 管道运行
  • 管道步骤
  • 服务
  • 堆栈组件
  • 风味
  • 管道运行模板
  • 计划
  • 工件(关于数据工件的元数据,而不是数据本身)
  • 服务连接器
  • 步骤代码
  • 步骤日志(如果该步骤在基于云的堆栈上运行)

它还允许您触发新的管道运行(如果存在运行模板)。

注意:这是一个 beta/实验性版本。我们仍在探索人们将如何使用此集成,因此我们欢迎您的反馈和建议!请加入我们的 Slack 社区 分享您的经验并帮助我们改进。

如何使用

前提条件

您需要有权访问 ZenML Cloud 服务器。如果您没有,您可以在 ZenML Cloud 注册免费试用。

您还需要在本地安装 uv。有关更多信息,请参阅 uv 文档。我们建议通过他们的安装脚本或通过 brew(如果使用 Mac)进行安装。

您还需要在本地克隆此存储库:

git clone https://github.com/zenml-io/mcp-zenml.git

您的 MCP 配置文件

MCP 配置文件是一个 JSON 文件,它告诉 MCP 客户端如何连接到您的 MCP 服务器。不同的 MCP 客户端将以不同的方式使用或指定此文件。两个常用的 MCP 客户端是 Claude DesktopCursor,我们在下面提供了安装说明。

您需要按以下格式指定您的 ZenML MCP 服务器:

{
    "mcpServers": {
        "zenml": {
            "command": "/usr/local/bin/uv",
            "args": ["run", "path/to/zenml_server.py"],
            "env": {
                "LOGLEVEL": "INFO",
                "NO_COLOR": "1",
                "PYTHONUNBUFFERED": "1",
                "PYTHONIOENCODING": "UTF-8",
                "ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
                "ZENML_STORE_API_KEY": "your-api-key-here"
            }
        }
    }
}

您需要替换四个虚拟值:

  • 本地安装的 uv 的路径(上面列出的路径是如果您通过 brew 在 Mac 上安装它的位置)
  • zenml_server.py 文件的路径(这是连接到 MCP 服务器时将运行的文件)。此文件位于此存储库的根目录中。您需要指定此文件的确切完整路径。
  • ZenML 服务器 URL(这是您的 ZenML 服务器的 URL。您可以在 ZenML Cloud UI 中找到它)。它看起来像 https://d534d987a-zenml.cloudinfra.zenml.io
  • ZenML 服务器 API 密钥(这是您的 ZenML 服务器的 API 密钥。您可以在 ZenML Cloud UI 中找到它,或者 阅读这些文档 了解如何创建一个。对于 ZenML MCP 服务器,我们建议使用服务帐户。)

您可以自由更改运行 MCP 服务器 Python 文件的方式,但使用 uv 可能是最简单的选择,因为它会为您处理环境和依赖项安装。

安装以与 Claude Desktop 一起使用

您需要安装 Claude Desktop

安装并打开 Claude Desktop 后,您需要打开“设置”菜单并单击“开发者”选项卡。将有一个“编辑配置”按钮,它将打开一个文件资源管理器,显示您的配置文件的位置。

您应该将上面(正确填写的)配置文件的内容粘贴到文件资源管理器中显示的 JSON 文件中。然后只需重新启动 Claude Desktop,它将使用新配置。您应该能够在开发者设置菜单中看到 ZenML 服务器。与 Claude 聊天,它将使用您刚刚授予它的所有新工具。

可选:改进 ZenML 工具输出显示

为了获得更好的 ZenML 工具结果体验,您可以配置 Claude 以更易读的格式显示 JSON 响应。在 Claude Desktop 中,转到设置 → 个人资料,并在“Claude 在响应中应考虑哪些个人偏好?”部分中,添加如下内容(或使用这些确切的词!):

当使用 zenml 工具返回 JSON 字符串并且您被问到一个问题时,您可能需要考虑使用 markdown 表格来总结结果或使它们更容易查看!

这将鼓励 Claude 将 ZenML 工具输出格式化为 markdown 表格,从而使信息更易于阅读和理解。

安装以与 Cursor 一起使用

您需要安装 Cursor

Cursor 的工作方式与 Claude Desktop 略有不同,因为它是在每个存储库的基础上指定配置文件的。这意味着如果您想在多个存储库中使用 ZenML MCP 服务器,您需要在每个存储库中指定配置文件。

要为单个存储库设置它,您需要:

  • 在存储库的根目录中创建一个 .cursor 文件夹
  • 在其中创建一个包含上述内容的 mcp.json 文件
  • 进入您的 Cursor 设置并单击 ZenML 服务器以“启用”它。

根据我们的经验,有时它会显示一个红色错误指示器,即使它正在工作。您可以通过在 Cursor 聊天窗口中聊天来尝试它。它会告诉您是否能够访问 ZenML 工具。

推荐服务器

e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选
AIO-MCP Server

AIO-MCP Server

🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。

精选
本地
Knowledge Graph Memory Server

Knowledge Graph Memory Server

为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。

精选
本地
Hyperbrowser

Hyperbrowser

欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:

精选
本地
https://github.com/Streen9/react-mcp

https://github.com/Streen9/react-mcp

react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。

精选
本地
any-chat-completions-mcp

any-chat-completions-mcp

将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。

精选
Exa MCP Server

Exa MCP Server

一个模型上下文协议服务器,它使像 Claude 这样的人工智能助手能够以安全和受控的方式,使用 Exa AI 搜索 API 执行实时网络搜索。

精选
AI 图像生成服务

AI 图像生成服务

可以用于 Cursor 集成 MCP 服务器。

精选