
SeaTunnel MCP Server
一个模型上下文协议服务器,它可以通过 LLM 接口与 Apache SeaTunnel 进行交互,允许用户通过自然语言管理作业、监控系统信息和配置连接。
README
SeaTunnel MCP 服务器
一个模型上下文协议 (MCP) 服务器,用于通过 LLM 接口(如 Claude)与 SeaTunnel 交互。
操作视频
为了帮助您更好地理解 SeaTunnel MCP 的功能和用法,我们提供了一个视频演示。请参考以下链接或直接查看项目文档目录中的视频文件。
https://www.youtube.com/watch?v=JaLA8EkZD7Q
提示: 如果视频无法直接播放,请确保您的设备支持 MP4 格式,并尝试使用现代浏览器或视频播放器打开它。
功能特性
- 作业管理(提交、停止、监控)
- 系统监控和信息检索
- 与 SeaTunnel 服务的 REST API 交互
- 内置日志记录和监控工具
- 动态连接配置
- 全面的作业信息和统计
安装
# 克隆仓库
git clone <repository_url>
cd seatunnel-mcp
# 创建虚拟环境并安装
python -m venv .venv
source .venv/bin/activate # 在 Windows 上: .venv\Scripts\activate
pip install -e .
环境要求
- Python ≥ 3.9
- 运行中的 SeaTunnel 实例
- Node.js (用于使用 MCP Inspector 进行测试)
使用方法
环境变量
SEATUNNEL_API_URL=http://localhost:8090 # 默认 SeaTunnel REST API URL
SEATUNNEL_API_KEY=your_api_key # 可选:默认 SeaTunnel API 密钥
动态连接配置
该服务器提供了在运行时查看和更新连接设置的工具:
get-connection-settings
: 查看当前连接 URL 和 API 密钥状态update-connection-settings
: 更新 URL 和/或 API 密钥以连接到不同的 SeaTunnel 实例
通过 MCP 的示例用法:
// 获取当前设置
{
"name": "get-connection-settings"
}
// 更新连接设置
{
"name": "update-connection-settings",
"arguments": {
"url": "http://new-host:8090",
"api_key": "new-api-key"
}
}
作业管理
该服务器提供了提交和管理 SeaTunnel 作业的工具:
submit-job
: 提交具有作业配置的新作业stop-job
: 停止正在运行的作业get-job-info
: 获取有关特定作业的详细信息get-running-jobs
: 列出所有当前正在运行的作业get-finished-jobs
: 按状态(FINISHED、CANCELED、FAILED 等)列出所有已完成的作业
运行服务器
python -m src.seatunnel_mcp
与 Claude Desktop 一起使用
要将其与 Claude Desktop 一起使用,请将以下内容添加到您的 claude_desktop_config.json
中:
{
"mcpServers": {
"seatunnel": {
"command": "python",
"args": ["-m", "src.seatunnel_mcp"],
"cwd": "Project root directory"
}
}
}
使用 MCP Inspector 进行测试
npx @modelcontextprotocol/inspector python -m src.seatunnel_mcp
可用工具
连接管理
get-connection-settings
: 查看当前 SeaTunnel 连接 URL 和 API 密钥状态update-connection-settings
: 更新 URL 和/或 API 密钥以连接到不同的实例
作业管理
submit-job
: 提交具有 HOCON 格式配置的新作业stop-job
: 停止具有可选保存点的正在运行的作业get-job-info
: 获取有关特定作业的详细信息get-running-jobs
: 列出所有当前正在运行的作业get-running-job
: 获取有关特定正在运行的作业的详细信息get-finished-jobs
: 按状态列出所有已完成的作业
系统监控
get-overview
: 获取 SeaTunnel 集群的概览get-system-monitoring-information
: 获取详细的系统监控信息
贡献
- Fork 仓库
- 创建特性分支
- 提交更改
- 创建 Pull Request
许可证
Apache License
推荐服务器

Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。