Meshy AI MCP Server
这是一个用于与 Meshy AI API 交互的 Model Context Protocol (MCP) 服务器。它提供了从文本和图像生成 3D 模型、应用纹理以及重新划分模型网格的工具。
pasie15
README
Meshy AI MCP 服务器
这是一个用于与 Meshy AI API 交互的模型上下文协议 (MCP) 服务器。它提供了从文本和图像生成 3D 模型、应用纹理和重新划分模型网格的工具。
功能
- 从文本提示生成 3D 模型
- 从图像生成 3D 模型
- 将纹理应用于 3D 模型
- 重新划分网格并优化 3D 模型
- 实时流式传输任务进度
- 列出和检索任务
- 检查账户余额
安装
-
克隆此存储库:
git clone https://github.com/pasie15/scenario.com-mcp-server cd meshy-ai-mcp-server
-
(推荐) 设置虚拟环境:
使用 venv:
python -m venv .venv # 在 Windows 上 .\.venv\Scripts\activate # 在 macOS/Linux 上 source .venv/bin/activate
使用 Conda:
conda create --name meshy-mcp python=3.9 # 或您喜欢的 Python 版本 conda activate meshy-mcp
-
安装 MCP 包:
pip install mcp
-
安装依赖项:
pip install -r requirements.txt
-
创建一个包含您的 Meshy AI API 密钥的
.env
文件:cp .env.example .env # 编辑 .env 并添加您的 API 密钥
用法
启动服务器
您可以直接使用 Python 启动服务器:
python src/server.py
或者使用 MCP CLI:
mcp run config.json
编辑器配置
将此 MCP 服务器配置添加到您的 Cline/Roo-Cline/Cursor/VS Code 设置(例如,.vscode/settings.json
或用户设置):
{
"mcpServers": {
"meshy-ai": {
"command": "python",
"args": [
"path/to/your/meshy-ai-mcp-server/src/server.py" // <-- 确保此路径正确!
],
"disabled": false,
"autoApprove": [],
"alwaysAllow": []
}
}
}
推荐:使用 MCP 开发模式(启动检查器)
对于开发和调试,请使用 mcp dev
运行服务器:
mcp dev src/server.py
使用 mcp dev
运行时,您将看到如下输出:
Starting MCP inspector...
⚙️ Proxy server listening on port 6277
🔍 MCP Inspector is up and running at http://127.0.0.1:6274 🚀
New SSE connection
您可以在浏览器中打开检查器 URL 以监视 MCP 通信。
可用工具
该服务器提供以下工具:
创建工具
create_text_to_3d_task
: 从文本提示生成 3D 模型create_image_to_3d_task
: 从图像生成 3D 模型create_text_to_texture_task
: 使用文本提示将纹理应用于 3D 模型create_remesh_task
: 重新划分网格并优化 3D 模型
检索工具
retrieve_text_to_3d_task
: 获取文本到 3D 任务的详细信息retrieve_image_to_3d_task
: 获取图像到 3D 任务的详细信息retrieve_text_to_texture_task
: 获取文本到纹理任务的详细信息retrieve_remesh_task
: 获取重新划分网格任务的详细信息
列表工具
list_text_to_3d_tasks
: 列出文本到 3D 任务list_image_to_3d_tasks
: 列出图像到 3D 任务list_text_to_texture_tasks
: 列出文本到纹理任务list_remesh_tasks
: 列出重新划分网格任务
流式传输工具
stream_text_to_3d_task
: 流式传输文本到 3D 任务的更新stream_image_to_3d_task
: 流式传输图像到 3D 任务的更新stream_text_to_texture_task
: 流式传输文本到纹理任务的更新stream_remesh_task
: 流式传输重新划分网格任务的更新
实用工具
get_balance
: 检查您的 Meshy AI 账户余额
资源
该服务器还提供以下资源:
health://status
: 健康检查端点task://{task_type}/{task_id}
: 按类型和 ID 访问任务详细信息
配置
可以使用环境变量配置服务器:
MESHY_API_KEY
: 您的 Meshy AI API 密钥(必需)MCP_PORT
: MCP 服务器监听的端口(默认:8081)TASK_TIMEOUT
: 流式传输时等待任务完成的最长时间(默认:300 秒)
示例
从文本生成 3D 模型
from mcp.client import MCPClient
client = MCPClient()
result = client.use_tool(
"meshy-ai",
"create_text_to_3d_task",
{
"request": {
"mode": "preview",
"prompt": "a monster mask",
"art_style": "realistic",
"should_remesh": True
}
}
)
print(f"Task ID: {result['id']}")
检查任务状态
from mcp.client import MCPClient
client = MCPClient()
task_id = "your-task-id"
result = client.use_tool(
"meshy-ai",
"retrieve_text_to_3d_task",
{
"task_id": task_id
}
)
print(f"Status: {result['status']}")
许可证
此项目根据 MIT 许可证获得许可 - 有关详细信息,请参阅 LICENSE 文件。
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
MCP Package Docs Server
促进大型语言模型高效访问和获取 Go、Python 和 NPM 包的结构化文档,通过多语言支持和性能优化来增强软件开发。
Claude Code MCP
一个实现了 Claude Code 作为模型上下文协议(Model Context Protocol, MCP)服务器的方案,它可以通过标准化的 MCP 接口来使用 Claude 的软件工程能力(代码生成、编辑、审查和文件操作)。
@kazuph/mcp-taskmanager
用于任务管理的模型上下文协议服务器。它允许 Claude Desktop(或任何 MCP 客户端)在基于队列的系统中管理和执行任务。
mermaid-mcp-server
一个模型上下文协议 (MCP) 服务器,用于将 Mermaid 图表转换为 PNG 图像。
Jira-Context-MCP
MCP 服务器向 AI 编码助手(如 Cursor)提供 Jira 工单信息。

Linear MCP Server
一个模型上下文协议(Model Context Protocol)服务器,它与 Linear 的问题跟踪系统集成,允许大型语言模型(LLM)通过自然语言交互来创建、更新、搜索和评论 Linear 问题。

Sequential Thinking MCP Server
这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。
Curri MCP Server
通过管理文本笔记、提供笔记创建工具以及使用结构化提示生成摘要,从而实现与 Curri API 的交互。