StarRocks MCP Server
作为 AI 助手和 StarRocks 数据库之间的桥梁,允许直接执行 SQL 语句和探索数据库,而无需复杂的设置或配置。
README
Starrocks 官方 MCP 服务器
StarRocks MCP 服务器充当 AI 助手和 StarRocks 数据库之间的桥梁,允许直接执行 SQL 和探索数据库,而无需复杂的设置或配置。
配置
MCP 服务器配置
{
"mcpServers": {
"mcp-server-starrocks": {
"command": "uv",
"args": [
"run",
"--with",
"mcp-server-starrocks",
"mcp-server-starrocks"
],
"env": {
"STARROCKS_HOST": "default localhost",
"STARROCKS_PORT": "default 9030",
"STARROCKS_USER": "default root",
"STARROCKS_PASSWORD": "default empty"
}
}
}
}
如果 mcp-server-starrocks 没有作为 python 包安装(在开发环境中),可以使用本地目录运行
{
"mcpServers": {
"mcp-server-starrocks": {
"command": "uv",
"args": [
"--directory",
"path/to/mcp-server-starrocks",
"run",
"mcp-server-starrocks"
],
"env": {
"STARROCKS_HOST": "default localhost",
"STARROCKS_PORT": "default 9030",
"STARROCKS_USER": "default root",
"STARROCKS_PASSWORD": "default empty"
}
}
}
}
组件
工具
-
read_query
- 执行 SELECT 查询或返回 ResultSet 的命令
-
write_query
- 执行 DDL/DML 或其他没有 ResultSet 的 StarRocks 命令
资源
直接资源
starrocks:///databases
- 列出 StarRocks 中的所有数据库
资源模板
-
starrocks:///{db}/{table}/schema
- 使用 SHOW CREATE TABLE 获取表的 schema
-
starrocks:///{db}/tables
- 列出特定数据库中的所有表
-
proc:///{+path}
- StarRocks 暴露的系统内部信息,类似于 linux /proc
- 常见的路径包括:
/frontends
- 显示 FE 节点的信息/backends
- 如果此 SR 不是云原生部署,则显示 BE 节点的信息/compute_nodes
- 如果此 SR 是云原生部署,则显示 CN 节点的信息/dbs
- 显示数据库的信息/dbs/<DB_ID>
- 按数据库 ID 显示数据库的信息/dbs/<DB_ID>/<TABLE_ID>
- 按数据库 ID 显示表的信息/dbs/<DB_ID>/<TABLE_ID>/partitions
- 按数据库 ID 和表 ID 显示分区的信息/transactions
- 显示事务的信息/transactions/<DB_ID>
- 按数据库 ID 显示事务的信息/transactions/<DB_ID>/running
- 按数据库 ID 显示正在运行的事务的信息/transactions/<DB_ID>/finished
- 按数据库 ID 显示已完成的事务的信息/jobs
- 显示 job 的信息/statistic
- 显示每个数据库的统计信息/tasks
- 显示所有通用任务的总数和失败的任务/cluster_balance
- 显示负载均衡信息/routine_loads
- 显示 Routine Load 的信息/colocation_group
- 显示 Colocate Join 组的信息/catalog
- 显示 catalog 的信息
提示词
无
推荐服务器

VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。
AIO-MCP Server
🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。
Knowledge Graph Memory Server
为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。
Hyperbrowser
欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:
https://github.com/Streen9/react-mcp
react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。

any-chat-completions-mcp
将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。
Exa MCP Server
一个模型上下文协议服务器,它使像 Claude 这样的人工智能助手能够以安全和受控的方式,使用 Exa AI 搜索 API 执行实时网络搜索。