
BigQuery MCP server
一个模型上下文协议(Model Context Protocol)服务器,提供对 BigQuery 的访问。该服务器使大型语言模型(LLMs)能够检查数据库模式并执行查询。
README
BigQuery MCP 服务器
一个提供 BigQuery 访问的模型上下文协议服务器。该服务器使 LLM 能够检查数据库模式并执行查询。
组件
工具
该服务器实现了一个工具:
execute-query: 使用 BigQuery 方言执行 SQL 查询list-tables: 列出 BigQuery 数据库中的所有表describe-table: 描述特定表的模式
配置
可以使用以下参数配置服务器:
--project(必需): GCP 项目 ID。--location(必需): GCP 位置(例如europe-west9)。--dataset(可选): 仅考虑特定的 BigQuery 数据集。可以通过重复参数来指定多个数据集(例如--dataset my_dataset_1 --dataset my_dataset_2)。如果未提供,将考虑项目中的所有数据集。
快速入门
安装
通过 Smithery 安装
要通过 Smithery 自动为 Claude Desktop 安装 BigQuery Server:
npx -y @smithery/cli install mcp-server-bigquery --client claude
Claude Desktop
在 MacOS 上:~/Library/Application\ Support/Claude/claude_desktop_config.json
在 Windows 上:%APPDATA%/Claude/claude_desktop_config.json
开发/未发布的服务器配置
"mcpServers": {
"bigquery": {
"command": "uv",
"args": [
"--directory",
"{{PATH_TO_REPO}}",
"run",
"mcp-server-bigquery",
"--project",
"{{GCP_PROJECT_ID}}",
"--location",
"{{GCP_LOCATION}}"
]
}
}
已发布的服务器配置
"mcpServers": {
"bigquery": {
"command": "uvx",
"args": [
"mcp-server-bigquery",
"--project",
"{{GCP_PROJECT_ID}}",
"--location",
"{{GCP_LOCATION}}"
]
}
}
将 {{PATH_TO_REPO}}、{{GCP_PROJECT_ID}} 和 {{GCP_LOCATION}} 替换为适当的值。
开发
构建和发布
要准备用于分发的软件包:
- 同步依赖项并更新锁定文件:
uv sync
- 构建软件包分发:
uv build
这将在 dist/ 目录中创建源和 wheel 分发。
- 发布到 PyPI:
uv publish
注意:您需要通过环境变量或命令标志设置 PyPI 凭据:
- Token:
--token或UV_PUBLISH_TOKEN - 或用户名/密码:
--username/UV_PUBLISH_USERNAME和--password/UV_PUBLISH_PASSWORD
调试
由于 MCP 服务器通过 stdio 运行,因此调试可能具有挑战性。为了获得最佳的调试体验,我们强烈建议使用 MCP Inspector。
您可以使用 npm 通过以下命令启动 MCP Inspector:
npx @modelcontextprotocol/inspector uv --directory {{PATH_TO_REPO}} run mcp-server-bigquery
启动后,Inspector 将显示一个 URL,您可以在浏览器中访问该 URL 以开始调试。
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。
mcp-server-qdrant
这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。
AIO-MCP Server
🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。
Knowledge Graph Memory Server
为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。
Hyperbrowser
欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:
https://github.com/Streen9/react-mcp
react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。
MCP Atlassian
适用于 Atlassian Cloud 产品(Confluence 和 Jira)的 Model Context Protocol (MCP) 服务器。此集成专为 Atlassian Cloud 实例设计,不支持 Atlassian Server 或 Data Center 部署。
any-chat-completions-mcp
将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。