Figma MCP Server with Chunking

Figma MCP Server with Chunking

一个用于与 Figma API 交互的模型上下文协议服务器,它通过内存感知的分块和分页功能高效地处理大型 Figma 文件。

内容获取
访问服务器

Tools

get_components

Get components from a Figma file

get_styles

Get styles from a Figma file

get_file_versions

Get version history of a Figma file

get_file_comments

Get comments on a Figma file

get_file_data

Get Figma file data with chunking and pagination

list_files

List files in a project or team

get_file_nodes

Get specific nodes from a Figma file

README

Figma MCP 服务器与分块

smithery badge

一个用于与 Figma API 交互的模型上下文协议 (MCP) 服务器,具有内存高效的分块和分页功能,用于处理大型 Figma 文件。

概述

此 MCP 服务器提供了一个强大的 Figma API 接口,具有内置的内存管理功能。它旨在通过将操作分解为可管理的分块并在必要时实施分页来高效处理大型 Figma 文件。

主要特性

  • 具有可配置限制的内存感知处理
  • 用于大型文件的分块数据检索
  • 对所有列表操作的分页支持
  • 节点类型过滤
  • 进度跟踪
  • 可配置的分块大小
  • 中断操作的恢复能力
  • 调试日志
  • 配置文件支持

安装

通过 Smithery 安装

要通过 Smithery 为 Claude Desktop 自动安装带有分块的 Figma MCP 服务器:

npx -y @smithery/cli install @ArchimedesCrypto/figma-mcp-chunked --client claude

手动安装

# 克隆仓库
git clone [repository-url]
cd figma-mcp-chunked

# 安装依赖
npm install

# 构建项目
npm run build

配置

环境变量

  • FIGMA_ACCESS_TOKEN: 您的 Figma API 访问令牌

配置文件

您可以使用 --config 标志通过 JSON 文件提供配置:

{
  "mcpServers": {
    "figma": {
      "env": {
        "FIGMA_ACCESS_TOKEN": "your-access-token"
      }
    }
  }
}

用法:

node build/index.js --config=path/to/config.json

工具

get_file_data (新增)

检索具有内存高效分块和分页的 Figma 文件数据。

{
  "name": "get_file_data",
  "arguments": {
    "fileKey": "your-file-key",
    "accessToken": "your-access-token",
    "pageSize": 100,          // 可选:每个分块的节点数
    "maxMemoryMB": 512,       // 可选:内存限制
    "nodeTypes": ["FRAME", "COMPONENT"],  // 可选:按类型过滤
    "cursor": "next-page-token",  // 可选:从上次位置恢复
    "depth": 2                // 可选:遍历深度
  }
}

响应:

{
  "nodes": [...],
  "memoryUsage": 256.5,
  "nextCursor": "next-page-token",
  "hasMore": true
}

list_files

列出具有分页支持的文件。

{
  "name": "list_files",
  "arguments": {
    "project_id": "optional-project-id",
    "team_id": "optional-team-id"
  }
}

get_file_versions

以分块形式检索版本历史记录。

{
  "name": "get_file_versions",
  "arguments": {
    "file_key": "your-file-key"
  }
}

get_file_comments

检索带有分页的评论。

{
  "name": "get_file_comments",
  "arguments": {
    "file_key": "your-file-key"
  }
}

get_file_info

检索具有分块节点遍历的文件信息。

{
  "name": "get_file_info",
  "arguments": {
    "file_key": "your-file-key",
    "depth": 2,               // 可选:遍历深度
    "node_id": "specific-node-id"  // 可选:从特定节点开始
  }
}

get_components

检索具有分块支持的组件。

{
  "name": "get_components",
  "arguments": {
    "file_key": "your-file-key"
  }
}

get_styles

检索具有分块支持的样式。

{
  "name": "get_styles",
  "arguments": {
    "file_key": "your-file-key"
  }
}

get_file_nodes

检索具有分块支持的特定节点。

{
  "name": "get_file_nodes",
  "arguments": {
    "file_key": "your-file-key",
    "ids": ["node-id-1", "node-id-2"]
  }
}

内存管理

服务器实施了多种策略来有效地管理内存:

分块策略

  • 通过 pageSize 可配置的分块大小
  • 内存使用监控
  • 基于内存压力的自动分块大小调整
  • 每个分块的进度跟踪
  • 使用游标的恢复能力

最佳实践

  1. 从较小的分块大小(50-100 个节点)开始,并根据性能进行调整
  2. 通过响应元数据监控内存使用情况
  3. 尽可能使用节点类型过滤来减少数据负载
  4. 为大型数据集实施分页
  5. 对非常大的文件使用恢复能力

配置选项

  • pageSize: 每个分块的节点数(默认值:100)
  • maxMemoryMB: 最大内存使用量,以 MB 为单位(默认值:512)
  • nodeTypes: 过滤特定节点类型
  • depth: 控制嵌套结构的遍历深度

调试日志

服务器包含全面的调试日志:

// 调试日志示例
[MCP Debug] Loading config from config.json
[MCP Debug] Access token found xxxxxxxx...
[MCP Debug] Request { tool: 'get_file_data', arguments: {...} }
[MCP Debug] Response size 2.5 MB

错误处理

服务器提供详细的错误消息和建议:

// 内存限制错误
"Response size too large. Try using a smaller depth value or specifying a node_id."

// 无效参数
"Missing required parameters: fileKey and accessToken"

// API 错误
"Figma API error: [detailed message]"

故障排除

常见问题

  1. 内存错误

    • 减少分块大小
    • 使用节点类型过滤
    • 实施分页
    • 指定较小的深度值
  2. 性能问题

    • 监控内存使用情况
    • 调整分块大小
    • 使用适当的节点类型过滤器
    • 为经常访问的数据实施缓存
  3. API 限制

    • 实施速率限制
    • 使用分页
    • 尽可能缓存响应

调试模式

启用调试日志以获取详细信息:

# 设置调试环境变量
export DEBUG=true

贡献

欢迎贡献!请阅读我们的贡献指南并将拉取请求提交到我们的存储库。

许可证

该项目已获得 MIT 许可证的许可 - 有关详细信息,请参阅 LICENSE 文件。

推荐服务器

mult-fetch-mcp-server

mult-fetch-mcp-server

一个多功能的、符合 MCP 规范的网页内容抓取工具,支持多种模式(浏览器/Node)、格式(HTML/JSON/Markdown/文本)和智能代理检测,并提供双语界面(英语/中文)。

精选
本地
Knowledge Graph Memory Server

Knowledge Graph Memory Server

为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。

精选
本地
Hyperbrowser

Hyperbrowser

欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:

精选
本地
Exa MCP Server

Exa MCP Server

一个模型上下文协议服务器,它使像 Claude 这样的人工智能助手能够以安全和受控的方式,使用 Exa AI 搜索 API 执行实时网络搜索。

精选
mcp-perplexity

mcp-perplexity

Perplexity API 的 MCP 服务器。

精选
MCP Web Research Server

MCP Web Research Server

一个模型上下文协议服务器,使 Claude 能够通过集成 Google 搜索、提取网页内容和捕获屏幕截图来进行网络研究。

精选
PubMedSearch MCP Server

PubMedSearch MCP Server

一个模型内容协议(Model Content Protocol)服务器,提供从 PubMed 数据库搜索和检索学术论文的工具。

精选
YouTube Translate MCP

YouTube Translate MCP

一个模型上下文协议服务器,可以通过文字稿、翻译、摘要和各种语言的字幕生成来访问 YouTube 视频内容。

精选
mcp-codex-keeper

mcp-codex-keeper

作为开发知识的守护者,为 AI 助手提供精心策划的最新文档和最佳实践访问权限。

精选
Perplexity Deep Research MCP

Perplexity Deep Research MCP

一个服务器,它允许 AI 助手使用 Perplexity 的 sonar-deep-research 模型进行网络搜索,并提供引用支持。

精选