
Tinybird MCP server官方
一个 MCP 服务器,用于从任何 MCP 客户端与 Tinybird Workspace 交互。
README
Tinybird MCP 服务器
一个 MCP 服务器,用于从任何 MCP 客户端与 Tinybird 工作区交互。
<a href="https://glama.ai/mcp/servers/53l5ojnx30"><img width="380" height="200" src="https://glama.ai/mcp/servers/53l5ojnx30/badge" alt="Tinybird server MCP server" /></a>
特性
- 使用 Tinybird Query API 查询 Tinybird 数据源
- 通过 HTTP 请求获取现有 Tinybird API 端点的结果
- 推送数据文件
它支持 SSE 和 STDIO 两种模式。
使用示例
设置
安装
使用 MCP 包管理器
Smithery
要通过 Smithery 为 Claude Desktop 自动安装 Tinybird MCP:
npx @smithery/cli install @tinybirdco/mcp-tinybird --client claude
mcp-get
您可以使用 mcp-get 安装 Tinybird MCP 服务器:
npx @michaellatman/mcp-get@latest install mcp-tinybird
前提条件
MCP 仍然非常新且不断发展,我们建议遵循 MCP 文档 来启动并运行 MCP 基础知识。
您需要:
配置
1. 配置 Claude Desktop
根据您的操作系统创建以下文件:
在 MacOS 上:~/Library/Application Support/Claude/claude_desktop_config.json
在 Windows 上:%APPDATA%/Claude/claude_desktop_config.json
将此模板粘贴到文件中,并将 <TINYBIRD_API_URL>
和 <TINYBIRD_ADMIN_TOKEN>
替换为您的 Tinybird API URL 和 Admin Token:
{
"mcpServers": {
"mcp-tinybird": {
"command": "uvx",
"args": [
"mcp-tinybird",
"stdio"
],
"env": {
"TB_API_URL": "<TINYBIRD_API_URL>",
"TB_ADMIN_TOKEN": "<TINYBIRD_ADMIN_TOKEN>"
}
}
}
}
2. 重启 Claude Desktop
SSE 模式
或者,您可以通过运行以下命令在 SSE 模式下运行 MCP 服务器:
uvx mcp-tinybird sse
此模式对于与支持 SSE 的 MCP 客户端(如 Web 应用程序)集成非常有用。
提示词
服务器提供一个提示词:
- tinybird-default: 假设您已在 Tinybird 中加载了一些数据,并且需要帮助来探索它。
- 需要一个 "topic" 参数,该参数定义您要探索的数据的主题,例如 "Bluesky data" 或 "retail sales"。
您可以配置其他提示词工作流程:
- 在您的工作区中创建一个具有此架构的提示词数据源,并附加您的提示词。 MCP 在初始化时加载
prompts
,因此您可以根据需要对其进行配置:
SCHEMA >
`name` String `json:$.name`,
`description` String `json:$.description`,
`timestamp` DateTime `json:$.timestamp`,
`arguments` Array(String) `json:$.arguments[:]`,
`prompt` String `json:$.prompt`
工具
服务器实现了几个与 Tinybird 工作区交互的工具:
list-data-sources
: 列出 Tinybird 工作区中的所有数据源list-pipes
: 列出 Tinybird 工作区中的所有 Pipe 端点get-data-source
: 获取数据源的信息,给定其名称,包括 schema。get-pipe
: 获取 Pipe 端点的信息,给定其名称,包括其节点和 SQL 转换,以了解它提供的见解。request-pipe-data
: 通过 HTTP 请求从 Pipe 端点请求数据。 Pipe 端点可以具有参数来过滤分析数据。run-select-query
: 允许对数据源运行 select 查询以提取见解。append-insight
: 向 memo 资源添加新的业务见解llms-tinybird-docs
: 包含整个 Tinybird 产品文档,因此您可以使用它来获取有关 Tinybird 是什么、它做什么、API 参考等的信息。save-event
: 这允许将事件发送到 Tinybird 数据源。 使用它将用户生成的提示词保存到提示词数据源。 MCP 服务器在初始化时从提示词数据源馈送,因此用户可以指示 LLM 要遵循的工作流程。analyze-pipe
: 使用 Tinybird analyze API 在 Pipe 端点查询上运行 ClickHouse explain,并检查是否正在使用索引、排序键和分区键,并提出优化建议push-datafile
: 从本地数据文件在 Tinybird 工作区中创建远程数据源或 Pipe。 使用 Filesystem MCP 保存由此 MCP 服务器生成的文件。
开发
配置
如果您在本地工作,请将两个环境变量添加到存储库根目录中的 .env
文件中:
TB_API_URL=
TB_ADMIN_TOKEN=
对于本地开发,请更新您的 Claude Desktop 配置:
{
"mcpServers": {
"mcp-tinybird_local": {
"command": "uv",
"args": [
"--directory",
"/path/to/your/mcp-tinybird",
"run",
"mcp-tinybird",
"stdio"
]
}
}
}
<details> <summary>已发布的服务器配置</summary>
"mcpServers": {
"mcp-tinybird": {
"command": "uvx",
"args": [
"mcp-tinybird"
]
}
}
</details>
构建和发布
要准备用于分发的软件包:
- 同步依赖项并更新 lockfile:
uv sync
- 构建软件包分发:
uv build
这将在 dist/
目录中创建源和 wheel 分发。
- 发布到 PyPI:
uv publish
注意:您需要通过环境变量或命令标志设置 PyPI 凭据:
- Token:
--token
或UV_PUBLISH_TOKEN
- 或用户名/密码:
--username
/UV_PUBLISH_USERNAME
和--password
/UV_PUBLISH_PASSWORD
调试
由于 MCP 服务器通过 stdio 运行,因此调试可能具有挑战性。 为了获得最佳调试体验,我们强烈建议使用 MCP Inspector。
您可以通过 npm
使用以下命令启动 MCP Inspector:
npx @modelcontextprotocol/inspector uv --directory /Users/alrocar/gr/mcp-tinybird run mcp-tinybird
启动后,Inspector 将显示一个 URL,您可以在浏览器中访问该 URL 以开始调试。
监控
要监控 MCP 服务器,您可以使用任何兼容的 Prometheus 客户端,例如 Grafana。 在此处了解如何监控您的 MCP 服务器。
推荐服务器

VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。
AIO-MCP Server
🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。
Knowledge Graph Memory Server
为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。
Hyperbrowser
欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:

any-chat-completions-mcp
将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。
Exa MCP Server
一个模型上下文协议服务器,它使像 Claude 这样的人工智能助手能够以安全和受控的方式,使用 Exa AI 搜索 API 执行实时网络搜索。
BigQuery MCP Server
这是一个服务器,可以让你的大型语言模型(LLM,比如Claude)直接与你的BigQuery数据对话!可以把它想象成一个友好的翻译器,它位于你的AI助手和数据库之间,确保它们可以安全高效地进行交流。
mcp-perplexity
Perplexity API 的 MCP 服务器。