Self-hosted AI starter kit (by the n8n team)

Self-hosted AI starter kit (by the n8n team)

Okay, here's a translation of "pydantic agent workflow using mcp servers to test out advanced retrieval of linked data" into Chinese, along with some nuances and considerations: **Option 1 (More Literal, Emphasizing Technical Aspects):** 使用 Pydantic 代理工作流,通过 MCP 服务器测试链接数据的高级检索 * **使用 (shǐyòng):** Using, employing * **Pydantic 代理工作流 (Pydantic dàilǐ gōngzuòliú):** Pydantic agent workflow (This is a direct transliteration, common in technical contexts) * **通过 (tōngguò):** Through, via * **MCP 服务器 (MCP fúwùqì):** MCP servers (Again, direct transliteration) * **测试 (cèshì):** To test, testing * **链接数据 (liànjiē shùjù):** Linked data * **高级检索 (gāojí jiǎnsuǒ):** Advanced retrieval **Option 2 (Slightly More Natural, Still Technical):** 利用 Pydantic 代理工作流,借助 MCP 服务器探索链接数据的高级检索 * **利用 (lìyòng):** Utilizing, leveraging * **借助 (jièzhù):** With the help of, by means of * **探索 (tànsuǒ):** To explore, to investigate **Option 3 (More Descriptive, Less Literal):** 构建基于 Pydantic 的代理工作流,并使用 MCP 服务器来验证链接数据的高级检索能力 * **构建 (gòujiàn):** To build, to construct * **基于 (jīyú):** Based on * **验证 (yànzhèng):** To verify, to validate * **能力 (nénglì):** Capability, ability **Explanation of Choices and Considerations:** * **"Pydantic agent workflow" and "MCP servers":** In technical contexts, it's often acceptable (and even preferred) to directly transliterate these terms. If the audience is familiar with these technologies, transliteration is the clearest option. If you *need* to explain them, you could add a brief explanation in parentheses after the transliteration the first time they appear. * **"Test out":** The English phrase "test out" can be translated in several ways. "测试 (cèshì)" is the most direct translation of "test." "探索 (tànsuǒ)" implies a more exploratory testing process. "验证 (yànzhèng)" implies a more formal validation of capabilities. * **"Advanced retrieval of linked data":** "高级检索 (gāojí jiǎnsuǒ)" is a good, general translation of "advanced retrieval." The key is to ensure the audience understands what "linked data" means. **Which option is best depends on the context:** * **For a highly technical audience already familiar with Pydantic and MCP:** Option 1 is likely the best. * **For a slightly less technical audience, or if you want to emphasize the exploratory nature of the testing:** Option 2 might be better. * **If you want to emphasize the building and validation aspects:** Option 3 is a good choice. **Recommendation:** I would recommend **Option 1** or **Option 2** as a starting point, and then adjust based on your specific audience and the purpose of the translation. If you provide more context about where this translation will be used, I can refine it further.

cedricdcc

研究与数据
访问服务器

README

自托管 AI 启动套件 (由 n8n 团队提供)

自托管 AI 启动套件 是一个开放的 Docker Compose 模板,可以快速启动一个功能齐全的本地 AI 和低代码开发环境,包括 Open WebUI,它提供了一个与您的 N8N 代理聊天的界面。

这是 Cole 的版本,它进行了一些改进,并添加了 Open WebUI 和 Flowise! 此外,如果您使用此设置而不是 n8n 提供的基本设置,视频中的本地 RAG AI 代理工作流将自动出现在您的 n8n 实例中!

原始本地 AI 启动套件

直接在 Open WebUI 网站上下载我的 N8N + OpenWebUI 集成 directly on the Open WebUI site. (更多说明见下文)

n8n.io - 截图

https://github.com/n8n-iohttps://github.com/coleam00 精心策划,它将自托管的 n8n 平台与精选的兼容 AI 产品和组件相结合,以快速开始构建自托管 AI 工作流。

包含内容

自托管 n8n - 具有 400 多个集成和高级 AI 组件的低代码平台

Ollama - 跨平台 LLM 平台,用于安装和运行最新的本地 LLM

Open WebUI - 类似 ChatGPT 的界面,用于与您的本地模型和 N8N 代理进行私密交互

Flowise - 无/低代码 AI 代理构建器,与 n8n 配合使用效果很好

Qdrant - 具有全面 API 的开源、高性能向量存储

PostgreSQL - 数据工程领域的主力军,安全地处理大量数据。

安装

对于 Nvidia GPU 用户

git clone https://github.com/coleam00/ai-agents-masterclass.git
cd ai-agents-masterclass/local-ai-packaged
docker compose --profile gpu-nvidia up

[!NOTE] 如果您以前没有将 Nvidia GPU 与 Docker 一起使用,请按照 Ollama Docker 说明 进行操作。

对于 Mac / Apple Silicon 用户

如果您使用的是带有 M1 或更新处理器的 Mac,则很遗憾,您无法将 GPU 暴露给 Docker 实例。 在这种情况下,有两种选择:

  1. 像下面的“对于其他人”部分一样,完全在 CPU 上运行启动套件
  2. 在 Mac 上运行 Ollama 以获得更快的推理速度,并从 n8n 实例连接到它

如果您想在 Mac 上运行 Ollama,请查看 Ollama 主页 获取安装说明,并按如下方式运行启动套件:

git clone https://github.com/coleam00/ai-agents-masterclass.git
cd ai-agents-masterclass/local-ai-packaged
docker compose up

在您按照下面的快速入门设置进行操作后,通过使用 http://host.docker.internal:11434/ 作为主机来更改 Ollama 凭据。

对于其他人

git clone https://github.com/coleam00/ai-agents-masterclass.git
cd ai-agents-masterclass/local-ai-packaged
docker compose --profile cpu up

⚡️ 快速入门和使用

自托管 AI 启动套件的主要组件是一个 Docker Compose 文件,该文件已预先配置了网络和磁盘,因此您无需安装太多其他内容。 完成上述安装步骤后,请按照以下步骤开始操作。

  1. 在浏览器中打开 http://localhost:5678/ 以设置 n8n。 您只需执行一次此操作。 您不是在此设置中创建 n8n 帐户,它只是您实例的本地帐户!

  2. 打开包含的工作流: http://localhost:5678/workflow/vTN9y2dLXqTiDfPT

  3. 为每个服务创建凭据:

    Ollama URL: http://ollama:11434

    Postgres: 使用来自 .env 的 DB、用户名和密码。 主机是 postgres

    Qdrant URL: http://qdrant:6333 (API 密钥可以是任何内容,因为这是在本地运行)

    Google Drive: 按照 n8n 的本指南 进行操作。 不要对重定向 URI 使用 localhost,只需使用您拥有的另一个域,它仍然有效! 或者,您可以设置 本地文件触发器

  4. 选择 测试工作流 以开始运行工作流。

  5. 如果这是您第一次运行工作流,您可能需要等待 直到 Ollama 完成下载 Llama3.1。 您可以检查 Docker 控制台日志以检查进度。

  6. 确保将工作流切换为活动状态并复制“生产”Webhook URL!

  7. 在浏览器中打开 http://localhost:3000/ 以设置 Open WebUI。 您只需执行一次此操作。 您不是在此设置中创建 Open WebUI 帐户,它只是您实例的本地帐户!

  8. 转到工作区 -> 函数 -> 添加函数 -> 提供名称 + 描述,然后粘贴来自 n8n_pipe.py 的代码

    该函数也 published here on Open WebUI's site.

  9. 单击齿轮图标并将 n8n_url 设置为上一步中复制的 Webhook 的生产 URL。

  10. 切换函数,现在它将在左上角的模型下拉列表中可用!

要随时打开 n8n,请在浏览器中访问 http://localhost:5678/。 要随时打开 Open WebUI,请访问 http://localhost:3000/

通过您的 n8n 实例,您将可以访问 400 多个集成和一套基本和高级 AI 节点,例如 AI 代理文本分类器信息提取器 节点。 为了保持一切本地化,只需记住使用 Ollama 节点作为您的 语言模型和 Qdrant 作为您的向量存储。

[!NOTE] 此启动套件旨在帮助您开始使用自托管 AI 工作流。 虽然它没有针对生产环境进行完全优化,但它 结合了强大的组件,这些组件可以很好地协同工作以进行概念验证 项目。 您可以自定义它以满足您的特定需求

升级

对于 Nvidia GPU 用户

docker compose --profile gpu-nvidia pull
docker compose create && docker compose --profile gpu-nvidia up

对于 Mac / Apple Silicon 用户

docker compose pull
docker compose create && docker compose up

对于其他人

docker compose --profile cpu pull
docker compose create && docker compose up

👓 推荐阅读

n8n 包含大量有用的内容,可帮助您快速入门其 AI 概念 和节点。 如果您遇到问题,请转到 支持

🎥 视频演练

🛍️ 更多 AI 模板

有关更多 AI 工作流创意,请访问 官方 n8n AI 模板 画廊。 从每个工作流中, 选择 使用工作流 按钮以自动将工作流导入到 您的本地 n8n 实例。

学习 AI 关键概念

本地 AI 模板

提示和技巧

访问本地文件

自托管 AI 启动套件将创建一个共享文件夹(默认情况下, 位于同一目录中),该文件夹已挂载到 n8n 容器,并且 允许 n8n 访问磁盘上的文件。 n8n 容器中的此文件夹是 位于 /data/shared -- 这是您需要在节点中使用的路径 与本地文件系统交互。

与本地文件系统交互的节点

推荐服务器

Crypto Price & Market Analysis MCP Server

Crypto Price & Market Analysis MCP Server

一个模型上下文协议 (MCP) 服务器,它使用 CoinCap API 提供全面的加密货币分析。该服务器通过一个易于使用的界面提供实时价格数据、市场分析和历史趋势。 (Alternative, slightly more formal and technical translation): 一个模型上下文协议 (MCP) 服务器,利用 CoinCap API 提供全面的加密货币分析服务。该服务器通过用户友好的界面,提供实时价格数据、市场分析以及历史趋势数据。

精选
TypeScript
MCP PubMed Search

MCP PubMed Search

用于搜索 PubMed 的服务器(PubMed 是一个免费的在线数据库,用户可以在其中搜索生物医学和生命科学文献)。 我是在 MCP 发布当天创建的,但当时正在度假。 我看到有人在您的数据库中发布了类似的服务器,但还是决定发布我的服务器。

精选
Python
mixpanel

mixpanel

连接到您的 Mixpanel 数据。 从 Mixpanel 分析查询事件、留存和漏斗数据。

精选
TypeScript
Sequential Thinking MCP Server

Sequential Thinking MCP Server

这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。

精选
Python
Nefino MCP Server

Nefino MCP Server

为大型语言模型提供访问德国可再生能源项目新闻和信息的能力,允许按地点、主题(太阳能、风能、氢能)和日期范围进行筛选。

官方
Python
Vectorize

Vectorize

将 MCP 服务器向量化以实现高级检索、私有深度研究、Anything-to-Markdown 文件提取和文本分块。

官方
JavaScript
Mathematica Documentation MCP server

Mathematica Documentation MCP server

一个服务器,通过 FastMCP 提供对 Mathematica 文档的访问,使用户能够从 Wolfram Mathematica 检索函数文档和列出软件包符号。

本地
Python
kb-mcp-server

kb-mcp-server

一个 MCP 服务器,旨在实现便携性、本地化、简易性和便利性,以支持对 txtai “all in one” 嵌入数据库进行基于语义/图的检索。任何 tar.gz 格式的 txtai 嵌入数据库都可以被加载。

本地
Python
Research MCP Server

Research MCP Server

这个服务器用作 MCP 服务器,与 Notion 交互以检索和创建调查数据,并与 Claude Desktop Client 集成以进行和审查调查。

本地
Python
Cryo MCP Server

Cryo MCP Server

一个API服务器,实现了模型补全协议(MCP),用于Cryo区块链数据提取,允许用户通过任何兼容MCP的客户端查询以太坊区块链数据。

本地
Python