mcp-graphql

mcp-graphql

一个模型上下文协议服务器,它使大型语言模型(LLM)能够与 GraphQL API 交互,通过提供模式内省和查询执行能力来实现。

数据库交互
AI集成系统
访问服务器

README

mcp-graphql

smithery badge

一个模型上下文协议(Model Context Protocol)服务器,使LLM能够与GraphQL API交互。 此实现提供模式内省和查询执行功能,允许模型动态发现和使用GraphQL API。

<a href="https://glama.ai/mcp/servers/4zwa4l8utf"><img width="380" height="200" src="https://glama.ai/mcp/servers/4zwa4l8utf/badge" alt="mcp-graphql MCP server" /></a>

用法

使用正确的端点运行 mcp-graphql,它将自动尝试内省您的查询。

命令行参数

参数 描述 默认值
--endpoint GraphQL 端点 URL http://localhost:4000/graphql
--headers 包含请求标头的 JSON 字符串 {}
--enable-mutations 启用 mutation 操作(默认禁用) false
--name MCP 服务器的名称 mcp-graphql
--schema 本地 GraphQL 模式文件的路径(可选) -

示例

# 基本用法,使用本地 GraphQL 服务器
npx mcp-graphql --endpoint http://localhost:3000/graphql

# 使用自定义标头
npx mcp-graphql --endpoint https://api.example.com/graphql --headers '{"Authorization":"Bearer token123"}'

# 启用 mutation 操作
npx mcp-graphql --endpoint http://localhost:3000/graphql --enable-mutations

# 使用本地模式文件而不是内省
npx mcp-graphql --endpoint http://localhost:3000/graphql --schema ./schema.graphql

可用工具

该服务器提供两个主要工具:

  1. introspect-schema: 此工具检索 GraphQL 模式。 如果您无法以资源形式访问该模式,请首先使用此工具。 这使用本地模式文件或内省查询。

  2. query-graphql: 针对端点执行 GraphQL 查询。 默认情况下,mutation 处于禁用状态,除非指定 --enable-mutations

资源

  • graphql-schema: 服务器将 GraphQL 模式公开为客户端可以访问的资源。 这是本地模式文件,或者基于内省查询。

安装

通过 Smithery 安装

要通过 Smithery 为 Claude Desktop 自动安装 GraphQL MCP Server:

npx -y @smithery/cli install mcp-graphql --client claude

手动安装

可以手动安装到 Claude:

{
    "mcpServers": {
        "mcp-graphql": {
            "command": "npx",
            "args": ["mcp-graphql", "--endpoint", "http://localhost:3000/graphql"]
        }
    }
}

安全注意事项

默认情况下,mutation 处于禁用状态,作为一种安全措施,以防止 LLM 修改您的数据库或服务数据。 在生产环境中启用 mutation 之前,请仔细考虑。

为您自己的服务器定制

这是一个非常通用的实现,它允许完全内省,并允许您的用户做任何事情(包括 mutation)。 如果您需要更具体的实现,我建议您创建自己的 MCP,并锁定工具调用,以便客户端仅输入特定的查询字段和/或变量。 您可以使用此作为参考。

推荐服务器

Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选
mcp-server-qdrant

mcp-server-qdrant

这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
https://github.com/Streen9/react-mcp

https://github.com/Streen9/react-mcp

react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。

精选
本地
AIO-MCP Server

AIO-MCP Server

🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。

精选
本地
Knowledge Graph Memory Server

Knowledge Graph Memory Server

为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。

精选
本地
Hyperbrowser

Hyperbrowser

欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:

精选
本地
browser-use MCP server

browser-use MCP server

一个由人工智能驱动的浏览器自动化服务器,它实现了模型上下文协议,从而能够使用自然语言控制网页浏览器,以执行诸如导航、表单填写和视觉交互等任务。

精选
mcp-codex-keeper

mcp-codex-keeper

作为开发知识的守护者,为 AI 助手提供精心策划的最新文档和最佳实践访问权限。

精选