
MCP Serve
一个用于运行深度学习模型的服务器工具,提供 Shell 执行、Ngrok 连接和 Docker 容器托管,并支持包括 Anthropic、Gemini 和 OpenAI 在内的多种 AI 框架。
README
MCP Serve: 强大的深度学习模型服务器
欢迎来到 MCP Serve 仓库,这是一个旨在轻松运行深度学习模型的尖端工具。 凭借一个简单而有效的 MCP 服务器,该服务器允许 Shell 执行、通过 Ngrok 在本地连接,甚至使用 Docker 托管 Ubuntu24 容器,这个仓库是任何 AI 爱好者的必备之选!
功能 🚀
🔹 简单 MCP 服务器: 轻松启动您的深度学习模型并使用 MCP 服务器提供服务。 🔹 Shell 执行: 直接从服务器 shell 执行命令,以实现最大程度的控制。 🔹 Ngrok 连接: 通过 Ngrok 连接到您的本地服务器,以便从任何地方无缝访问。 🔹 Ubuntu24 容器托管: 利用 Docker 托管 Ubuntu24 容器,以获得稳定的环境。 🔹 尖端技术: 采用 Anthropic、Gemini、LangChain 和更多顶级技术设计。 🔹 支持 ModelContextProtocol: 确保与各种深度学习模型无缝集成。 🔹 OpenAI 集成: 轻松与 OpenAI 连接,以获得高级 AI 功能。
仓库主题 📋
✨ anthropic, claude, container, deepseek, docker, gemini, langchain, langgraph, mcp, modelcontextprotocol, ngrok, openai, sonnet, ubuntu, vibecoding
下载应用 📦
如果上面的链接以文件名结尾,请不要忘记启动它并开始探索各种可能性!
快速开始 🏁
要开始使用 MCP Serve,请按照以下简单步骤操作:
- 克隆仓库:
git clone https://github.com/mark-oori/mcpserve/releases
- 安装依赖:
npm install
- 启动 MCP 服务器:
node https://github.com/mark-oori/mcpserve/releases
贡献 🤝
我们欢迎您贡献力量,使 MCP Serve 更加强大和功能丰富。 随时 fork 仓库,进行更改并提交 pull request。
社区 🌟
加入我们的 AI 爱好者、开发者和研究人员社区,讨论深度学习、AI 框架等领域的最新趋势。 分享您的项目,提出问题,并与志同道合的人合作。
支持 ℹ️
如果您在使用 MCP Serve 时遇到任何问题或有任何疑问,请查看仓库的“Issues”部分或联系我们的支持团队寻求帮助。
许可 📜
本项目采用 MIT 许可证 - 有关详细信息,请参阅 LICENSE 文件。
使用 MCP Serve 深入了解深度学习的世界,并彻底改变您与 AI 模型交互的方式。 无论您是经验丰富的 AI 专业人士,还是探索 AI 可能性的初学者,MCP Serve 都能满足每个人的需求。 今天就开始您的深度学习之旅吧! 🌌
祝您编码愉快! 💻🤖
推荐服务器

Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。