n8n MCP Server

n8n MCP Server

一个模型上下文协议(Model Context Protocol)服务器,它使 AI 助手能够通过自然语言与 n8n 工作流进行交互,支持诸如列出、创建、更新、执行和监控工作流等操作。

Category
访问服务器

README

n8n MCP 服务器

一个模型上下文协议 (MCP) 服务器,允许 AI 助手通过自然语言与 n8n 工作流进行交互。

概述

此 MCP 服务器为 AI 助手提供管理 n8n 工作流和执行的工具和资源。它允许助手:

  • 列出、创建、更新和删除工作流
  • 激活和停用工作流
  • 执行工作流并监控其状态
  • 访问工作流信息和执行统计信息

安装

前提条件

  • Node.js 18 或更高版本
  • 启用了 API 访问的 n8n 实例

从 npm 安装

npm install -g n8n-mcp-server

从源代码安装

# 克隆存储库
git clone https://github.com/leonardsellem/n8n-mcp-server.git
cd n8n-mcp-server

# 安装依赖
npm install

# 构建项目
npm run build

# 可选:全局安装
npm install -g .

配置

在您将运行服务器的目录中创建一个 .env 文件,使用 .env.example 作为模板:

cp .env.example .env

配置以下环境变量:

变量 描述 示例
N8N_API_URL n8n API 的完整 URL,包括 /api/v1 http://localhost:5678/api/v1
N8N_API_KEY 用于向 n8n 验证身份的 API 密钥 n8n_api_...
N8N_WEBHOOK_USERNAME Webhook 身份验证的用户名(如果使用 Webhook) username
N8N_WEBHOOK_PASSWORD Webhook 身份验证的密码 password
DEBUG 启用调试日志记录(可选) truefalse

生成 n8n API 密钥

  1. 在浏览器中打开您的 n8n 实例
  2. 转到设置 > API > API 密钥
  3. 创建具有适当权限的新 API 密钥
  4. 将密钥复制到您的 .env 文件

用法

运行服务器

从安装目录:

n8n-mcp-server

或者如果全局安装:

n8n-mcp-server

与 AI 助手集成

构建服务器 (npm run build) 后,您需要配置您的 AI 助手(例如带有 Claude 扩展的 VS Code 或 Claude Desktop 应用程序)来运行它。这通常涉及编辑 JSON 配置文件。

示例配置(例如,在 VS Code settings.json 或 Claude Desktop claude_desktop_config.json 中):

{
  "mcpServers": {
    // 为您的服务器指定一个唯一的名称
    "n8n-local": {
      // 使用 'node' 执行构建的 JavaScript 文件
      "command": "node",
      // 提供构建的 index.js 文件的 *绝对路径*
      "args": [
        "/path/to/your/cloned/n8n-mcp-server/build/index.js"
        // 在 Windows 上,使用双反斜杠:
        // "C:\\path\\to\\your\\cloned\\n8n-mcp-server\\build\\index.js"
      ],
      // 服务器需要的环境变量
      "env": {
        "N8N_API_URL": "http://your-n8n-instance:5678/api/v1", // 替换为您的 n8n URL
        "N8N_API_KEY": "YOUR_N8N_API_KEY", // 替换为您的密钥
        // 仅当您计划使用 webhook 工具时才添加 webhook 凭据
        // "N8N_WEBHOOK_USERNAME": "your_webhook_user",
        // "N8N_WEBHOOK_PASSWORD": "your_webhook_password"
      },
      // 确保服务器已启用
      "disabled": false,
      // 默认 autoApprove 设置
      "autoApprove": []
    }
    // ... 其他服务器可能在此处配置
  }
}

要点:

  • /path/to/your/cloned/n8n-mcp-server/ 替换为您克隆和构建存储库的实际绝对路径。
  • 为您的操作系统使用正确的路径分隔符(macOS/Linux 使用正斜杠 /,Windows 使用双反斜杠 \\)。
  • 确保您提供正确的 N8N_API_URL(包括 /api/v1)和 N8N_API_KEY
  • 服务器需要在助手可以运行 build/index.js 文件之前构建 (npm run build)。

可用工具

服务器提供以下工具:

使用 Webhook

此 MCP 服务器支持通过 n8n Webhook 执行工作流。要使用此功能:

  1. 在 n8n 中创建一个 Webhook 触发的工作流。
  2. 在您的 Webhook 节点上设置基本身份验证。
  3. 使用 run_webhook 工具触发工作流,仅传递工作流名称。

示例:

const result = await useRunWebhook({
  workflowName: "hello-world", // 将调用 <n8n-url>/webhook/hello-world
  data: {
    prompt: "Hello from AI assistant!"
  }
});

Webhook 身份验证使用 N8N_WEBHOOK_USERNAMEN8N_WEBHOOK_PASSWORD 环境变量自动处理。

工作流管理

  • workflow_list: 列出所有工作流
  • workflow_get: 获取特定工作流的详细信息
  • workflow_create: 创建新的工作流
  • workflow_update: 更新现有的工作流
  • workflow_delete: 删除工作流
  • workflow_activate: 激活工作流
  • workflow_deactivate: 停用工作流

执行管理

  • execution_run: 通过 API 执行工作流
  • run_webhook: 通过 Webhook 执行工作流
  • execution_get: 获取特定执行的详细信息
  • execution_list: 列出工作流的执行
  • execution_stop: 停止正在运行的执行

资源

服务器提供以下资源:

  • n8n://workflows/list: 所有工作流的列表
  • n8n://workflow/{id}: 特定工作流的详细信息
  • n8n://executions/{workflowId}: 工作流的执行列表
  • n8n://execution/{id}: 特定执行的详细信息

开发

构建

npm run build

在开发模式下运行

npm run dev

测试

npm test

代码检查

npm run lint

许可证

MIT

推荐服务器

Baidu Map

Baidu Map

百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。

官方
精选
JavaScript
Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。

官方
精选
本地
TypeScript
Audiense Insights MCP Server

Audiense Insights MCP Server

通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

官方
精选
本地
TypeScript
VeyraX

VeyraX

一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

官方
精选
本地
graphlit-mcp-server

graphlit-mcp-server

模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。

官方
精选
TypeScript
Kagi MCP Server

Kagi MCP Server

一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

官方
精选
Python
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选