mcp-graphql
一个模型上下文协议服务器,它使大型语言模型(LLM)能够与 GraphQL API 交互,通过提供模式内省和查询执行能力来实现。
README
mcp-graphql
一个模型上下文协议(Model Context Protocol)服务器,使LLM能够与GraphQL API交互。 此实现提供模式内省和查询执行功能,允许模型动态发现和使用GraphQL API。
<a href="https://glama.ai/mcp/servers/4zwa4l8utf"><img width="380" height="200" src="https://glama.ai/mcp/servers/4zwa4l8utf/badge" alt="mcp-graphql MCP server" /></a>
用法
使用正确的端点运行 mcp-graphql,它将自动尝试内省您的查询。
命令行参数
| 参数 | 描述 | 默认值 |
|---|---|---|
--endpoint |
GraphQL 端点 URL | http://localhost:4000/graphql |
--headers |
包含请求标头的 JSON 字符串 | {} |
--enable-mutations |
启用 mutation 操作(默认禁用) | false |
--name |
MCP 服务器的名称 | mcp-graphql |
--schema |
本地 GraphQL 模式文件的路径(可选) | - |
示例
# 基本用法,使用本地 GraphQL 服务器
npx mcp-graphql --endpoint http://localhost:3000/graphql
# 使用自定义标头
npx mcp-graphql --endpoint https://api.example.com/graphql --headers '{"Authorization":"Bearer token123"}'
# 启用 mutation 操作
npx mcp-graphql --endpoint http://localhost:3000/graphql --enable-mutations
# 使用本地模式文件而不是内省
npx mcp-graphql --endpoint http://localhost:3000/graphql --schema ./schema.graphql
可用工具
该服务器提供两个主要工具:
-
introspect-schema: 此工具检索 GraphQL 模式。 如果您无法以资源形式访问该模式,请首先使用此工具。 这使用本地模式文件或内省查询。
-
query-graphql: 针对端点执行 GraphQL 查询。 默认情况下,mutation 处于禁用状态,除非指定
--enable-mutations。
资源
- graphql-schema: 服务器将 GraphQL 模式公开为客户端可以访问的资源。 这是本地模式文件,或者基于内省查询。
安装
通过 Smithery 安装
要通过 Smithery 为 Claude Desktop 自动安装 GraphQL MCP Server:
npx -y @smithery/cli install mcp-graphql --client claude
手动安装
可以手动安装到 Claude:
{
"mcpServers": {
"mcp-graphql": {
"command": "npx",
"args": ["mcp-graphql", "--endpoint", "http://localhost:3000/graphql"]
}
}
}
安全注意事项
默认情况下,mutation 处于禁用状态,作为一种安全措施,以防止 LLM 修改您的数据库或服务数据。 在生产环境中启用 mutation 之前,请仔细考虑。
为您自己的服务器定制
这是一个非常通用的实现,它允许完全内省,并允许您的用户做任何事情(包括 mutation)。 如果您需要更具体的实现,我建议您创建自己的 MCP,并锁定工具调用,以便客户端仅输入特定的查询字段和/或变量。 您可以使用此作为参考。
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。
mcp-server-qdrant
这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。
AIO-MCP Server
🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。
Knowledge Graph Memory Server
为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。
Hyperbrowser
欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:
https://github.com/Streen9/react-mcp
react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。
MCP Atlassian
适用于 Atlassian Cloud 产品(Confluence 和 Jira)的 Model Context Protocol (MCP) 服务器。此集成专为 Atlassian Cloud 实例设计,不支持 Atlassian Server 或 Data Center 部署。
any-chat-completions-mcp
将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。