⚡️ mcpo
一个简单且安全的 MCP 到 OpenAPI 的代理服务器
open-webui
README
⚡️ mcpo
即时将任何 MCP 工具公开为兼容 OpenAPI 的 HTTP 服务器。
mcpo 是一个极其简单的代理,它接受 MCP 服务器命令,并通过标准的 RESTful OpenAPI 使其可访问,因此您的工具可以与期望 OpenAPI 服务器的 LLM 代理和应用程序“正常工作”。
无需自定义协议。无需粘合代码。无需麻烦。
🤔 为什么使用 mcpo 而不是原生 MCP?
MCP 服务器通常通过原始 stdio 进行通信,这:
- 🔓 本质上是不安全的
- ❌ 与大多数工具不兼容
- 🧩 缺少标准功能,如文档、身份验证、错误处理等。
mcpo 解决了所有这些问题,无需额外努力:
- ✅ 立即与 OpenAPI 工具、SDK 和 UI 配合使用
- 🛡 使用可信的网络标准增加安全性、稳定性和可扩展性
- 🧠 为每个工具自动生成交互式文档,无需配置
- 🔌 使用纯 HTTP——没有套接字,没有粘合代码,没有意外
感觉像是“多了一步”,实际上是用更少的步骤获得更好的结果。
mcpo 使您的 AI 工具可用、安全且可互操作——现在,零麻烦。
🚀 快速使用
我们建议使用 uv 以实现闪电般的启动速度和零配置。
uvx mcpo --port 8000 --api-key "top-secret" -- your_mcp_server_command
或者,如果您使用 Python:
pip install mcpo
mcpo --port 8000 --api-key "top-secret" -- your_mcp_server_command
您还可以通过 Docker 运行 mcpo,无需安装:
docker run -p 8000:8000 ghcr.io/open-webui/mcpo:main --api-key "top-secret" -- your_mcp_server_command
示例:
uvx mcpo --port 8000 --api-key "top-secret" -- uvx mcp-server-time --local-timezone=America/New_York
就是这样。您的 MCP 工具现在可以通过 http://localhost:8000 访问,并生成 OpenAPI 模式 — 在 http://localhost:8000/docs 上进行实时测试。
🤝 要在启动服务器后与 Open WebUI 集成,请查看我们的文档。
🔄 使用配置文件
您可以通过遵循 Claude Desktop 格式的单个配置文件来服务多个 MCP 工具:
通过以下方式启动:
mcpo --config /path/to/config.json
示例 config.json:
{
"mcpServers": {
"memory": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-memory"]
},
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=America/New_York"]
}
}
}
每个工具都将在其自己唯一的路由下访问,例如:
- http://localhost:8000/memory
- http://localhost:8000/time
每个工具都有一个专用的 OpenAPI 模式和代理处理程序。 在 http://localhost:8000/<tool>/docs
访问完整模式 UI(例如 /memory/docs,/time/docs)
🔧 要求
- Python 3.8+
- uv(可选,但强烈推荐用于性能 + 打包)
🪪 许可证
MIT
🤝 贡献
我们欢迎并强烈鼓励社区的贡献!
无论您是修复错误、添加功能、改进文档,还是仅仅分享想法——您的投入都非常有价值,并有助于使 mcpo 对每个人都更好。
入门很容易:
- Fork 仓库
- 创建一个新分支
- 进行更改
- 打开一个 pull request
不确定从哪里开始? 随时提出问题或提出问题——我们很乐意帮助您找到一个好的首要任务。
✨ 让我们一起构建可互操作的 AI 工具的未来!
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
MCP Package Docs Server
促进大型语言模型高效访问和获取 Go、Python 和 NPM 包的结构化文档,通过多语言支持和性能优化来增强软件开发。
Claude Code MCP
一个实现了 Claude Code 作为模型上下文协议(Model Context Protocol, MCP)服务器的方案,它可以通过标准化的 MCP 接口来使用 Claude 的软件工程能力(代码生成、编辑、审查和文件操作)。
@kazuph/mcp-taskmanager
用于任务管理的模型上下文协议服务器。它允许 Claude Desktop(或任何 MCP 客户端)在基于队列的系统中管理和执行任务。
mermaid-mcp-server
一个模型上下文协议 (MCP) 服务器,用于将 Mermaid 图表转换为 PNG 图像。
Jira-Context-MCP
MCP 服务器向 AI 编码助手(如 Cursor)提供 Jira 工单信息。

Linear MCP Server
一个模型上下文协议(Model Context Protocol)服务器,它与 Linear 的问题跟踪系统集成,允许大型语言模型(LLM)通过自然语言交互来创建、更新、搜索和评论 Linear 问题。

Sequential Thinking MCP Server
这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。
Curri MCP Server
通过管理文本笔记、提供笔记创建工具以及使用结构化提示生成摘要,从而实现与 Curri API 的交互。