
Figma MCP Server
一个 TypeScript 服务器,实现了模型上下文协议 (Model Context Protocol),从而可以使用自然语言提示,通过 Cursor Agent 在 Figma 中实现 AI 驱动的设计创作。
Tools
add_figma_file
Add a Figma file to your context
view_node
Get a thumbnail for a specific node in a Figma file
read_comments
Get all comments on a Figma file
post_comment
Post a comment on a node in a Figma file
reply_to_comment
Reply to an existing comment in a Figma file
README
Figma MCP (模型上下文协议)
一个完整的解决方案,用于通过 Cursor Agent 使用模型上下文协议创建和修改 Figma 设计。
博客:https://xflux.us/2025/04/06/ai-powered-design-automation-building-a-figma-mcp-with-cursor/
概述
该项目支持使用自然语言提示,通过 Cursor Agent 在 Figma 中进行 AI 驱动的设计创建。它由两个主要组件组成:
- MCP 服务器: 一个 Bun + TypeScript 服务器,它实现了模型上下文协议,并通过 WebSockets 与 Figma 插件通信。
- Figma 插件: 一个在 Figma 中运行的插件,它根据 MCP 服务器的指令执行设计操作。
通过这种集成,您可以使用自然语言来:
- 创建基本设计元素(形状、文本等)
- 设计包含多个部分的完整页面布局
- 修改现有设计
仓库结构
- figma-mcp-server/: MCP 服务器的实现
- figma-plugin/: 用于执行设计操作的 Figma 插件
快速开始
1. 设置 MCP 服务器
cd figma-mcp-server
cp .env.example .env # 编辑此文件以添加您的 Figma token
bun install
bun run index.ts
2. 设置 Figma 插件
cd figma-plugin
npm install
npm run build
然后将插件导入 Figma:
- 打开 Figma
- 转到插件 > 开发 > 从清单导入插件
- 选择
figma-plugin/manifest.json
文件
3. 连接到 Cursor Agent
在 Cursor 中:
- 转到设置 > Agent > MCP 服务器
- 添加一个新服务器,URL 为:
http://localhost:3000/api/mcp/schema
详细文档
有关更详细的说明,请参阅:
使用示例
一切设置完成后,您可以使用 Cursor Agent 通过如下提示创建设计:
创建一个包含标题的着陆页,英雄区域包含标题“我们的产品”和副标题“满足您需求的最佳解决方案”,功能区包含 3 个功能,以及包含联系信息的页脚。
工作原理
- Cursor Agent 接收到自然语言提示
- 它向 MCP 服务器发送结构化的 MCP 请求
- MCP 服务器处理该请求,并通过 WebSocket 向 Figma 插件发送指令
- Figma 插件在 Figma 中执行设计操作
许可证
MIT
推荐服务器

Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。