mcp-graphql

mcp-graphql

一个模型上下文协议服务器,它使大型语言模型(LLM)能够与 GraphQL API 交互,通过提供模式内省和查询执行能力来实现。

数据库交互
AI集成系统
访问服务器

README

mcp-graphql

smithery badge

一个模型上下文协议(Model Context Protocol)服务器,使LLM能够与GraphQL API交互。 此实现提供模式内省和查询执行功能,允许模型动态发现和使用GraphQL API。

<a href="https://glama.ai/mcp/servers/4zwa4l8utf"><img width="380" height="200" src="https://glama.ai/mcp/servers/4zwa4l8utf/badge" alt="mcp-graphql MCP server" /></a>

用法

使用正确的端点运行 mcp-graphql,它将自动尝试内省您的查询。

命令行参数

参数 描述 默认值
--endpoint GraphQL 端点 URL http://localhost:4000/graphql
--headers 包含请求标头的 JSON 字符串 {}
--enable-mutations 启用 mutation 操作(默认禁用) false
--name MCP 服务器的名称 mcp-graphql
--schema 本地 GraphQL 模式文件的路径(可选) -

示例

# 基本用法,使用本地 GraphQL 服务器
npx mcp-graphql --endpoint http://localhost:3000/graphql

# 使用自定义标头
npx mcp-graphql --endpoint https://api.example.com/graphql --headers '{"Authorization":"Bearer token123"}'

# 启用 mutation 操作
npx mcp-graphql --endpoint http://localhost:3000/graphql --enable-mutations

# 使用本地模式文件而不是内省
npx mcp-graphql --endpoint http://localhost:3000/graphql --schema ./schema.graphql

可用工具

该服务器提供两个主要工具:

  1. introspect-schema: 此工具检索 GraphQL 模式。 如果您无法以资源形式访问该模式,请首先使用此工具。 这使用本地模式文件或内省查询。

  2. query-graphql: 针对端点执行 GraphQL 查询。 默认情况下,mutation 处于禁用状态,除非指定 --enable-mutations

资源

  • graphql-schema: 服务器将 GraphQL 模式公开为客户端可以访问的资源。 这是本地模式文件,或者基于内省查询。

安装

通过 Smithery 安装

要通过 Smithery 为 Claude Desktop 自动安装 GraphQL MCP Server:

npx -y @smithery/cli install mcp-graphql --client claude

手动安装

可以手动安装到 Claude:

{
    "mcpServers": {
        "mcp-graphql": {
            "command": "npx",
            "args": ["mcp-graphql", "--endpoint", "http://localhost:3000/graphql"]
        }
    }
}

安全注意事项

默认情况下,mutation 处于禁用状态,作为一种安全措施,以防止 LLM 修改您的数据库或服务数据。 在生产环境中启用 mutation 之前,请仔细考虑。

为您自己的服务器定制

这是一个非常通用的实现,它允许完全内省,并允许您的用户做任何事情(包括 mutation)。 如果您需要更具体的实现,我建议您创建自己的 MCP,并锁定工具调用,以便客户端仅输入特定的查询字段和/或变量。 您可以使用此作为参考。

推荐服务器

Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选
mcp-server-qdrant

mcp-server-qdrant

这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。

官方
精选
AIO-MCP Server

AIO-MCP Server

🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。

精选
本地
Knowledge Graph Memory Server

Knowledge Graph Memory Server

为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。

精选
本地
Hyperbrowser

Hyperbrowser

欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:

精选
本地
https://github.com/Streen9/react-mcp

https://github.com/Streen9/react-mcp

react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。

精选
本地
MCP Atlassian

MCP Atlassian

适用于 Atlassian Cloud 产品(Confluence 和 Jira)的 Model Context Protocol (MCP) 服务器。此集成专为 Atlassian Cloud 实例设计,不支持 Atlassian Server 或 Data Center 部署。

精选
any-chat-completions-mcp

any-chat-completions-mcp

将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。

精选