1MCP Server
一个统一的模型上下文协议(Model Context Protocol,MCP)服务器,将多个 MCP 服务器聚合为一个,从而允许像 Claude Desktop、Cursor 和 Cherry Studio 这样的 AI 助手连接到单个服务器,而不是管理多个实例。
README
1MCP - 适用于所有场景的 MCP 服务器
一个统一的模型上下文协议服务器实现,可将多个 MCP 服务器聚合为一个。
概述
1MCP (One MCP) 旨在简化您使用 AI 助手的方式。无需为不同的客户端(Claude Desktop、Cherry Studio、Cursor、Roo Code、Claude 等)配置多个 MCP 服务器,1MCP 提供了一个单一的、统一的服务器,它可以:
- 将多个 MCP 服务器聚合到一个统一的接口中
- 通过消除冗余的服务器实例来减少系统资源的使用
- 简化不同 AI 助手之间的配置管理
- 为 AI 模型与外部工具和资源交互提供标准化方式
- 支持动态配置重新加载,无需重启服务器
- 处理优雅关闭和资源清理
快速开始
要使 Cursor 使用 Claude Desktop 中已配置的现有 MCP 服务器,请按照以下步骤操作:
- 使用 Claude Desktop 配置文件运行 1MCP 服务器:
npx -y @1mcp/agent --config ~/Library/Application\ Support/Claude/claude_desktop_config.json
- 将 1MCP 服务器添加到您的 Cursor 配置文件 (
~/.cursor/mcp.json):
{
"mcpServers": {
"1mcp": {
"type": "http",
"url": "http://localhost:3050/sse"
}
}
}
- 尽情享用吧!
用法
您可以使用 npx 直接运行服务器:
# 基本用法(使用 SSE 传输启动服务器)
npx -y @1mcp/agent
# 使用现有的 Claude Desktop 配置
npx -y @1mcp/agent --config ~/Library/Application\ Support/Claude/claude_desktop_config.json
# 使用 stdio 传输代替 SSE
npx -y @1mcp/agent --transport stdio
# 显示所有可用选项
npx -y @1mcp/agent --help
可用选项:
--transport, -t: 选择传输类型 ("stdio" 或 "sse",默认值: "sse")--config, -c: 使用特定的配置文件--port, -P: 更改 SSE 端口 (默认值: 3050)--host, -H: 更改 SSE 主机 (默认值: localhost)--tags, -g: 按标签过滤服务器(请参阅下面的“标签”部分)--help, -h: 显示帮助
理解标签
标签可帮助您控制哪些 MCP 服务器可供不同的客户端使用。可以将标签视为描述每个服务器可以做什么的标签。
如何使用标签
- 在您的服务器配置中:向每个服务器添加标签以描述其功能
{
"mcpServers": {
"web-server": {
"command": "uvx",
"args": ["mcp-server-fetch"],
"tags": ["network", "web"],
"disabled": false
},
"file-server": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-filesystem", "~/Downloads"],
"tags": ["filesystem"],
"disabled": false
}
}
}
- 在 stdio 模式下启动 1MCP 时:您可以按标签过滤服务器
# 仅启动带有 "network" 标签的服务器
npx -y @1mcp/agent --transport stdio --tags "network"
# 启动带有 "network" 或 "filesystem" 标签的服务器
npx -y @1mcp/agent --transport stdio --tags "network,filesystem"
- 使用 SSE 传输时:客户端可以请求带有特定标签的服务器
{
"mcpServers": {
"1mcp": {
"type": "http",
"url": "http://localhost:3050/sse?tags=network" // 仅连接到具有网络功能的服务器
}
}
}
示例标签:
network: 用于发出 Web 请求的服务器filesystem: 用于处理文件操作的服务器memory: 用于提供内存/存储的服务器shell: 用于运行 shell 命令的服务器db: 用于处理数据库操作的服务器
配置
全局配置
服务器自动管理全局位置的配置:
- macOS/Linux:
~/.config/1mcp/mcp.json - Windows:
%APPDATA%/1mcp/mcp.json
配置文件格式
{
"mcpServers": {
"mcp-server-fetch": {
"command": "uvx",
"args": [
"mcp-server-fetch"
],
"disabled": false
},
"server-memory": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-memory"
],
"disabled": false
}
}
}
工作原理
系统架构
graph TB
subgraph "AI Assistants"
A1[Claude Desktop]
A2[Cursor]
A3[Cherry Studio]
A4[Roo Code]
end
subgraph "1MCP Server"
MCP[1MCP Agent]
end
subgraph "MCP Servers"
S1[Server 1]
S2[Server 2]
S3[Server 3]
end
A1 -->|sse| MCP
A2 -->|sse| MCP
A3 -->|sse| MCP
A4 -->|sse| MCP
MCP --> |sse| S1
MCP --> |stdio| S2
MCP --> |stdio| S3
请求流程
sequenceDiagram
participant Client as AI Assistant
participant 1MCP as 1MCP Server
participant MCP as MCP Servers
Client->>1MCP: Send MCP Request
activate 1MCP
1MCP->>1MCP: Validate Request
1MCP->>1MCP: Load Config
1MCP->>MCP: Forward Request
activate MCP
MCP-->>1MCP: Response
deactivate MCP
1MCP-->>Client: Forward Response
deactivate 1MCP
开发
安装依赖项:
pnpm install
构建服务器:
pnpm build
用于自动重建的开发:
pnpm watch
运行服务器:
pnpm dev
调试
使用 MCP Inspector,它作为一个包脚本提供:
pnpm inspector
Inspector 将提供一个 URL 以访问浏览器中的调试工具。
推荐服务器
Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。
VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。