🚀 Nchan MCP Transport

🚀 Nchan MCP Transport

部署 MCP 服务器的最佳方式。一个高性能的 WebSocket/SSE 传输层和网关,用于 Anthropic 的 MCP (模型上下文协议) —— 由 Nginx、Nchan 和 FastAPI 驱动。

ConechoAI

研究与数据
访问服务器

README

🚀 Nchan MCP 传输

一个高性能的 WebSocket/SSE 传输层和网关,用于 Anthropic 的 MCP(模型上下文协议)——由 Nginx、Nchan 和 FastAPI 驱动。 用于构建与 Claude 和其他 LLM 代理的 实时、可扩展的 AI 集成


✨ 这是什么?

Nchan MCP 传输 为 MCP 客户端(如 Claude)提供了一个 实时 API 网关,以便通过以下方式与您的工具和服务进行通信:

  • 🧵 WebSocket服务器发送事件 (SSE)
  • ⚡️ 可流式 HTTP 兼容
  • 🧠 由 Nginx + Nchan 提供支持,实现 低延迟的发布/订阅
  • 🛠 与 FastAPI 集成,用于后端逻辑和 OpenAPI 工具

✅ 非常适合构建 Claude 插件LLM 代理 或将 外部 API 通过 MCP 集成到 Claude 中的 AI 开发者。


🧩 主要特性

特性 描述
🔄 双协议支持 无缝支持 WebSocketSSE,具有自动检测功能
🚀 高性能发布/订阅 构建在 Nginx + Nchan 之上,可处理数千个并发连接
🔌 MCP 兼容传输 完全实现 模型上下文协议 (JSON-RPC 2.0)
🧰 OpenAPI 集成 从任何 OpenAPI 规范自动生成 MCP 工具
🪝 工具/资源系统 使用 Python 装饰器注册工具和资源
📡 异步执行 后台任务队列 + 通过推送通知进行实时进度更新
🧱 Docker 化部署 使用 Docker Compose 轻松启动

🧠 为什么要使用它?

MCP 允许像 Claude 这样的 AI 助手与外部工具进行通信。 但是:

  • 原生 MCP 是 HTTP+SSE,在 长时间任务网络不稳定高并发 方面存在问题
  • Claude 本身不支持 WebSockets — 此项目 弥合了这一差距
  • 纯 Python 中的服务器端逻辑(如 FastMCP)可能 无法在负载下扩展

Nchan MCP 传输 为您提供:

  • Web 规模的性能 (Nginx/Nchan)
  • 由 FastAPI 驱动的工具后端
  • 向 Claude 客户端实时传递事件
  • 即插即用的 OpenAPI 到 Claude 集成

🚀 快速开始

📦 1. 安装服务器 SDK

pip install httmcp

🧪 2. 在 Docker 中运行演示

git clone https://github.com/yourusername/nchan-mcp-transport.git
cd nchan-mcp-transport
docker-compose up -d

🛠 3. 定义您的工具

@server.tool()
async def search_docs(query: str) -> str:
    return f"Searching for {query}..."

🧬 4. 公开 OpenAPI 服务(可选)

openapi_server = await OpenAPIMCP.from_openapi("https://example.com/openapi.json", publish_server="http://nchan:80")
app.include_router(openapi_server.router)

🖥️ 5. 一键将 GPTs Actions 部署到 MCP

HTTMCP 提供了一个强大的 CLI,用于将 GPTs Actions 立即部署到 MCP 服务器:

# 安装
pip install httmcp[cli]

# 从 GPTs Actions OpenAPI 规范进行一键部署
python -m httmcp -f gpt_actions_openapi.json -p http://nchan:80

📚 使用案例

  • 基于 WebSocket/SSE 的 Claude 插件服务器
  • 实时 LLM 代理后端(LangChain/AutoGen 风格)
  • 将 Claude 连接到内部 API(通过 OpenAPI)
  • 用于 MCP 的高性能工具/服务桥梁

🔒 要求

  • 带有 Nchan 模块的 Nginx(已预先安装在 Docker 镜像中)
  • Python 3.9+
  • Docker / Docker Compose

🛠 技术栈

  • 🧩 Nginx + Nchan – 持久连接管理和发布/订阅
  • ⚙️ FastAPI – 后端逻辑和 JSON-RPC 路由
  • 🐍 HTTMCP SDK – 完整的 MCP 协议实现
  • 🐳 Docker – 准备好部署

📎 关键词

mcp transport, nchan websocket, sse for anthropic, mcp jsonrpc gateway, claude plugin backend, streamable http, real-time ai api gateway, fastapi websocket mcp, mcp pubsub, mcp openapi bridge


🤝 贡献

欢迎提交 Pull Request! 如果您想帮助改进以下方面,请提交 Issue:

  • 性能
  • 部署
  • SDK 集成

📄 许可证

MIT 许可证

推荐服务器

Crypto Price & Market Analysis MCP Server

Crypto Price & Market Analysis MCP Server

一个模型上下文协议 (MCP) 服务器,它使用 CoinCap API 提供全面的加密货币分析。该服务器通过一个易于使用的界面提供实时价格数据、市场分析和历史趋势。 (Alternative, slightly more formal and technical translation): 一个模型上下文协议 (MCP) 服务器,利用 CoinCap API 提供全面的加密货币分析服务。该服务器通过用户友好的界面,提供实时价格数据、市场分析以及历史趋势数据。

精选
TypeScript
MCP PubMed Search

MCP PubMed Search

用于搜索 PubMed 的服务器(PubMed 是一个免费的在线数据库,用户可以在其中搜索生物医学和生命科学文献)。 我是在 MCP 发布当天创建的,但当时正在度假。 我看到有人在您的数据库中发布了类似的服务器,但还是决定发布我的服务器。

精选
Python
mixpanel

mixpanel

连接到您的 Mixpanel 数据。 从 Mixpanel 分析查询事件、留存和漏斗数据。

精选
TypeScript
Sequential Thinking MCP Server

Sequential Thinking MCP Server

这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。

精选
Python
Nefino MCP Server

Nefino MCP Server

为大型语言模型提供访问德国可再生能源项目新闻和信息的能力,允许按地点、主题(太阳能、风能、氢能)和日期范围进行筛选。

官方
Python
Vectorize

Vectorize

将 MCP 服务器向量化以实现高级检索、私有深度研究、Anything-to-Markdown 文件提取和文本分块。

官方
JavaScript
Mathematica Documentation MCP server

Mathematica Documentation MCP server

一个服务器,通过 FastMCP 提供对 Mathematica 文档的访问,使用户能够从 Wolfram Mathematica 检索函数文档和列出软件包符号。

本地
Python
kb-mcp-server

kb-mcp-server

一个 MCP 服务器,旨在实现便携性、本地化、简易性和便利性,以支持对 txtai “all in one” 嵌入数据库进行基于语义/图的检索。任何 tar.gz 格式的 txtai 嵌入数据库都可以被加载。

本地
Python
Research MCP Server

Research MCP Server

这个服务器用作 MCP 服务器,与 Notion 交互以检索和创建调查数据,并与 Claude Desktop Client 集成以进行和审查调查。

本地
Python
Cryo MCP Server

Cryo MCP Server

一个API服务器,实现了模型补全协议(MCP),用于Cryo区块链数据提取,允许用户通过任何兼容MCP的客户端查询以太坊区块链数据。

本地
Python