n8n MCP Server
一个模型上下文协议(Model Context Protocol)服务器,它使 AI 助手能够通过自然语言与 n8n 工作流进行交互,支持诸如列出、创建、更新、执行和监控工作流等操作。
README
n8n MCP 服务器
一个模型上下文协议 (MCP) 服务器,允许 AI 助手通过自然语言与 n8n 工作流进行交互。
概述
此 MCP 服务器为 AI 助手提供管理 n8n 工作流和执行的工具和资源。它允许助手:
- 列出、创建、更新和删除工作流
- 激活和停用工作流
- 执行工作流并监控其状态
- 访问工作流信息和执行统计信息
安装
前提条件
- Node.js 18 或更高版本
- 启用了 API 访问的 n8n 实例
从 npm 安装
npm install -g n8n-mcp-server
从源代码安装
# 克隆存储库
git clone https://github.com/leonardsellem/n8n-mcp-server.git
cd n8n-mcp-server
# 安装依赖
npm install
# 构建项目
npm run build
# 可选:全局安装
npm install -g .
配置
在您将运行服务器的目录中创建一个 .env 文件,使用 .env.example 作为模板:
cp .env.example .env
配置以下环境变量:
| 变量 | 描述 | 示例 |
|---|---|---|
N8N_API_URL |
n8n API 的完整 URL,包括 /api/v1 |
http://localhost:5678/api/v1 |
N8N_API_KEY |
用于向 n8n 验证身份的 API 密钥 | n8n_api_... |
N8N_WEBHOOK_USERNAME |
Webhook 身份验证的用户名(如果使用 Webhook) | username |
N8N_WEBHOOK_PASSWORD |
Webhook 身份验证的密码 | password |
DEBUG |
启用调试日志记录(可选) | true 或 false |
生成 n8n API 密钥
- 在浏览器中打开您的 n8n 实例
- 转到设置 > API > API 密钥
- 创建具有适当权限的新 API 密钥
- 将密钥复制到您的
.env文件
用法
运行服务器
从安装目录:
n8n-mcp-server
或者如果全局安装:
n8n-mcp-server
与 AI 助手集成
构建服务器 (npm run build) 后,您需要配置您的 AI 助手(例如带有 Claude 扩展的 VS Code 或 Claude Desktop 应用程序)来运行它。这通常涉及编辑 JSON 配置文件。
示例配置(例如,在 VS Code settings.json 或 Claude Desktop claude_desktop_config.json 中):
{
"mcpServers": {
// 为您的服务器指定一个唯一的名称
"n8n-local": {
// 使用 'node' 执行构建的 JavaScript 文件
"command": "node",
// 提供构建的 index.js 文件的 *绝对路径*
"args": [
"/path/to/your/cloned/n8n-mcp-server/build/index.js"
// 在 Windows 上,使用双反斜杠:
// "C:\\path\\to\\your\\cloned\\n8n-mcp-server\\build\\index.js"
],
// 服务器需要的环境变量
"env": {
"N8N_API_URL": "http://your-n8n-instance:5678/api/v1", // 替换为您的 n8n URL
"N8N_API_KEY": "YOUR_N8N_API_KEY", // 替换为您的密钥
// 仅当您计划使用 webhook 工具时才添加 webhook 凭据
// "N8N_WEBHOOK_USERNAME": "your_webhook_user",
// "N8N_WEBHOOK_PASSWORD": "your_webhook_password"
},
// 确保服务器已启用
"disabled": false,
// 默认 autoApprove 设置
"autoApprove": []
}
// ... 其他服务器可能在此处配置
}
}
要点:
- 将
/path/to/your/cloned/n8n-mcp-server/替换为您克隆和构建存储库的实际绝对路径。 - 为您的操作系统使用正确的路径分隔符(macOS/Linux 使用正斜杠
/,Windows 使用双反斜杠\\)。 - 确保您提供正确的
N8N_API_URL(包括/api/v1)和N8N_API_KEY。 - 服务器需要在助手可以运行
build/index.js文件之前构建 (npm run build)。
可用工具
服务器提供以下工具:
使用 Webhook
此 MCP 服务器支持通过 n8n Webhook 执行工作流。要使用此功能:
- 在 n8n 中创建一个 Webhook 触发的工作流。
- 在您的 Webhook 节点上设置基本身份验证。
- 使用
run_webhook工具触发工作流,仅传递工作流名称。
示例:
const result = await useRunWebhook({
workflowName: "hello-world", // 将调用 <n8n-url>/webhook/hello-world
data: {
prompt: "Hello from AI assistant!"
}
});
Webhook 身份验证使用 N8N_WEBHOOK_USERNAME 和 N8N_WEBHOOK_PASSWORD 环境变量自动处理。
工作流管理
workflow_list: 列出所有工作流workflow_get: 获取特定工作流的详细信息workflow_create: 创建新的工作流workflow_update: 更新现有的工作流workflow_delete: 删除工作流workflow_activate: 激活工作流workflow_deactivate: 停用工作流
执行管理
execution_run: 通过 API 执行工作流run_webhook: 通过 Webhook 执行工作流execution_get: 获取特定执行的详细信息execution_list: 列出工作流的执行execution_stop: 停止正在运行的执行
资源
服务器提供以下资源:
n8n://workflows/list: 所有工作流的列表n8n://workflow/{id}: 特定工作流的详细信息n8n://executions/{workflowId}: 工作流的执行列表n8n://execution/{id}: 特定执行的详细信息
开发
构建
npm run build
在开发模式下运行
npm run dev
测试
npm test
代码检查
npm run lint
许可证
MIT
推荐服务器
Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。
VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。