Dify MCP Server
一个服务器实现,它能够将 Dify 工作流与模型上下文协议 (MCP) 集成,从而允许用户通过兼容 MCP 的客户端访问 Dify 的功能。
README
用于dify工作流的模型上下文协议 (MCP) 服务器
一个简单的 MCP 服务器实现,用于使用 dify。它通过调用 MCP 的工具来实现 Dify 工作流的调用。
🔨安装
该服务器可以通过 Smithery 自动安装,也可以手动安装。两种方法都需要 Config.yaml 文件。因此,我们需要在安装前准备好它。
准备 config.yaml
在使用 mcp 服务器之前,您应该准备一个 config.yaml 文件来保存您的 dify_base_url 和 dify_sks。示例配置如下:
dify_base_url: "https://cloud.dify.ai/v1"
dify_app_sks:
- "app-sk1"
- "app-sk2"
不同的 SK 对应于不同的 dify 工作流。
通过 Smithery 安装
smithery 是一个自动安装 dify mcp 服务器的工具。 要通过 Smithery 为 Claude Desktop 自动安装 Dify MCP 服务器,请执行以下操作:
npx -y @smithery/cli install dify-mcp-server --client claude
手动安装
您也可以在您的客户端中手动运行 dify mcp 服务器。客户端的配置应如下所示:
"mcpServers": {
"mcp-server-rag-web-browser": {
"command": "uv",
"args": [
"--directory", "${DIFY_MCP_SERVER_PATH}",
"run", "dify_mcp_server"
],
"env": {
"CONFIG_PATH": "$CONFIG_PATH"
}
}
}
示例配置:
"mcpServers": {
"mcp-server-rag-web-browser": {
"command": "uv",
"args": [
"--directory", "/Users/lyx/Downloads/dify-mcp-server",
"run", "dify_mcp_server"
],
"env": {
"CONFIG_PATH": "/Users/lyx/Downloads/config.yaml"
}
}
}
尽情享用
最后,您可以在任何支持 mcp 的客户端中使用 dify 工具。
推荐服务器

VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。
AIO-MCP Server
🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。
Knowledge Graph Memory Server
为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。
Hyperbrowser
欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:

any-chat-completions-mcp
将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。
Exa MCP Server
一个模型上下文协议服务器,它使像 Claude 这样的人工智能助手能够以安全和受控的方式,使用 Exa AI 搜索 API 执行实时网络搜索。
BigQuery MCP Server
这是一个服务器,可以让你的大型语言模型(LLM,比如Claude)直接与你的BigQuery数据对话!可以把它想象成一个友好的翻译器,它位于你的AI助手和数据库之间,确保它们可以安全高效地进行交流。
mcp-perplexity
Perplexity API 的 MCP 服务器。