
mcp-flowise
Flowise MCP 服务器使客户端能够列出 Chatflow 并调用预测,与 DIY Flowise 或 Flowise Cloud 帐户无缝集成。 它提供了一个简单的界面,用于使用现有的 Flowise 配置执行 Chatflow/助手预测。
README
mcp-flowise
mcp-flowise
是一个 Python 包,实现了与 Flowise API 集成的模型上下文协议 (MCP) 服务器。它提供了一种标准化且灵活的方式来列出 chatflow、创建预测以及为 Flowise chatflow 或助手动态注册工具。
它支持两种操作模式:
- LowLevel 模式(默认):为从 Flowise API 检索的所有 chatflow 动态注册工具。
- FastMCP 模式:提供用于列出 chatflow 和创建预测的静态工具,适用于更简单的配置。
<p align="center"> <img src="https://github.com/user-attachments/assets/d27afb05-c5d3-4cc9-9918-f7be8c715304" alt="Claude Desktop Screenshot"> </p>
特性
- 动态工具暴露:LowLevel 模式为每个 chatflow 或助手动态创建工具。
- 更简单的配置:FastMCP 模式暴露
list_chatflows
和create_prediction
工具,以实现最小化设置。 - 灵活的过滤:两种模式都支持通过 ID 或名称(正则表达式)使用白名单和黑名单来过滤 chatflow。
- MCP 集成:无缝集成到 MCP 工作流程中。
安装
通过 Smithery 安装
要通过 Smithery 为 Claude Desktop 自动安装 mcp-flowise,请执行以下操作:
npx -y @smithery/cli install @matthewhand/mcp-flowise --client claude
前提条件
- Python 3.12 或更高版本
uvx
包管理器
通过 uvx
安装和运行
确认您可以使用 uvx
直接从 GitHub 存储库运行服务器:
uvx --from git+https://github.com/matthewhand/mcp-flowise mcp-flowise
添加到 MCP 生态系统(mcpServers
配置)
您可以通过将其添加到 mcpServers
配置中,将 mcp-flowise
集成到您的 MCP 生态系统中。示例:
{
"mcpServers": {
"mcp-flowise": {
"command": "uvx",
"args": [
"--from",
"git+https://github.com/matthewhand/mcp-flowise",
"mcp-flowise"
],
"env": {
"FLOWISE_API_KEY": "${FLOWISE_API_KEY}",
"FLOWISE_API_ENDPOINT": "${FLOWISE_API_ENDPOINT}"
}
}
}
}
操作模式
1. FastMCP 模式(简单模式)
通过设置 FLOWISE_SIMPLE_MODE=true
启用。此模式:
- 暴露两个工具:
list_chatflows
和create_prediction
。 - 允许使用
FLOWISE_CHATFLOW_ID
或FLOWISE_ASSISTANT_ID
进行静态配置。 - 通过
list_chatflows
列出所有可用的 chatflow。
<p align="center"> <img src="https://github.com/user-attachments/assets/0901ef9c-5d56-4f1e-a799-1e5d8e8343bd" alt="FastMCP Mode"> </p>
2. LowLevel 模式 (FLOWISE_SIMPLE_MODE=False)
特性:
- 将所有 chatflow 动态注册为单独的工具。
- 工具以 chatflow 名称(规范化)命名。
- 使用
FLOWISE_CHATFLOW_DESCRIPTIONS
变量中的描述,如果没有提供描述,则回退到 chatflow 名称。
示例:
- 为 chatflow 动态创建
my_tool(question: str) -> str
。
在 Windows 上使用 uvx
运行
如果您在 Windows 上使用 uvx
并且遇到 --from git+https
问题,建议的解决方案是克隆本地存储库,并使用 uvx.exe
的完整路径和克隆的存储库配置 mcpServers
。 此外,根据需要包含 APPDATA
、LOGLEVEL
和其他环境变量。
MCP 生态系统的示例配置(Windows 上的 mcpServers
)
{
"mcpServers": {
"flowise": {
"command": "C:\\Users\\matth\\.local\\bin\\uvx.exe",
"args": [
"--from",
"C:\\Users\\matth\\downloads\\mcp-flowise",
"mcp-flowise"
],
"env": {
"LOGLEVEL": "ERROR",
"APPDATA": "C:\\Users\\matth\\AppData\\Roaming",
"FLOWISE_API_KEY": "your-api-key-goes-here",
"FLOWISE_API_ENDPOINT": "http://localhost:3000/"
}
}
}
}
注意事项
- 完整路径:使用
uvx.exe
和克隆存储库的完整路径。 - 环境变量:如果需要,将
APPDATA
指向您的 Windows 用户配置文件(例如,C:\\Users\\<username>\\AppData\\Roaming
)。 - 日志级别:根据需要调整
LOGLEVEL
(ERROR
、INFO
、DEBUG
等)。
环境变量
常规
FLOWISE_API_KEY
:您的 Flowise API Bearer 令牌(必需)。FLOWISE_API_ENDPOINT
:Flowise 的基本 URL(默认值:http://localhost:3000
)。
LowLevel 模式(默认)
FLOWISE_CHATFLOW_DESCRIPTIONS
:以逗号分隔的chatflow_id:description
对列表。示例:FLOWISE_CHATFLOW_DESCRIPTIONS="abc123:Chatflow One,xyz789:Chatflow Two"
FastMCP 模式 (FLOWISE_SIMPLE_MODE=true
)
FLOWISE_CHATFLOW_ID
:单个 Chatflow ID(可选)。FLOWISE_ASSISTANT_ID
:单个助手 ID(可选)。FLOWISE_CHATFLOW_DESCRIPTION
:为暴露的单个工具提供的可选描述。
过滤 Chatflow
可以使用以下环境变量在两种模式下应用过滤器:
- 按 ID 列入白名单:
FLOWISE_WHITELIST_ID="id1,id2,id3"
- 按 ID 列入黑名单:
FLOWISE_BLACKLIST_ID="id4,id5"
- 按名称列入白名单(正则表达式):
FLOWISE_WHITELIST_NAME_REGEX=".*important.*"
- 按名称列入黑名单(正则表达式):
FLOWISE_BLACKLIST_NAME_REGEX=".*deprecated.*"
注意:白名单优先于黑名单。如果两者都设置,则应用最严格的规则。
安全
- 保护您的 API 密钥:确保
FLOWISE_API_KEY
保持安全,并且不会在日志或存储库中暴露。 - 环境配置:使用
.env
文件或环境变量进行敏感配置。
将 .env
添加到您的 .gitignore
:
# .gitignore
.env
故障排除
- 缺少 API 密钥:确保
FLOWISE_API_KEY
设置正确。 - 无效配置:如果同时设置了
FLOWISE_CHATFLOW_ID
和FLOWISE_ASSISTANT_ID
,服务器将拒绝启动。 - 连接错误:验证
FLOWISE_API_ENDPOINT
是否可访问。
许可证
本项目根据 MIT 许可证获得许可。 有关详细信息,请参阅 LICENSE 文件。
TODO
- [x] Fastmcp 模式
- [x] Lowlevel 模式
- [x] 过滤
- [x] Claude desktop 集成
- [ ] 助手
推荐服务器

Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。