🤖 mcp-ollama-beeai
一个极简的自主代理应用,利用 BeeAI 框架,通过多个 MCP 服务器工具与 OLLAMA 模型进行交互。
tamdilip
README
🤖 mcp-ollama-beeai
一个最小化的客户端应用程序,用于与本地 OLLAMA 模型交互,利用多个 MCP 代理工具,并使用 BeeAI 框架。
以下是此客户端应用程序的示例视图,带有聊天界面,显示了使用 postgres 数据库的操作,以及 AI 为使用正确的 MCP 代理并使用 LLM 转换请求和响应而采取的思考步骤:
<video controls loop muted poster="https://raw.githubusercontent.com/tamdilip/mcp-ollama-beeai/docs/demo-pic.png" src="https://github.com/user-attachments/assets/618b76b5-111c-493f-a0fe-d974b915d619" title="Demo Video"></video>
用法
📋 前提条件
1. 本地 ollama 服务器
在您的本地机器上安装并运行 ollama,使用以下命令。
- 确保您的机器有足够的可用内存,至少 16GB RAM 用于模型运行。
- 如果您要使用远程服务器进行模型推理,请跳过在本地的安装。
$ curl -fsSL https://ollama.com/install.sh | sh
$ ollama serve
$ ollama pull llama3.1
2. MCP 服务器列表配置
将您的 MCP 代理添加到根文件夹中的 mcp-servers.json
文件中,以便应用程序能够识别并与 LLM 一起工作。
- 默认包含的服务器是 postgres 和 fetch。
请务必更新您的 postgres 连接 URL
- 可用于配置的其他 MCP 代理工具列表 - https://modelcontextprotocol.io/examples
3 .env
如果您想使用不同的 LLM 模型和 LLM 服务器,请在 npm start
之前覆盖以下属性
OLLAMA_CHAT_MODEL=llama3.1
OLLAMA_BASE_URL=http://localhost:11434/api
🎮 启动您的应用程序
$ git clone https://github.com/tamdilip/mcp-ollama-beeai.git
$ cd mcp-ollama-beeai
$ npm i
$ npm start
应用程序启动并运行后,在浏览器中访问 -> http://localhost:3000
补充说明:
- 默认情况下,在首次加载时,不会为问题引用任何 MCP 代理。
- 要用于问题的相应 MCP 代理可以从 UI 中的“服务器”和“工具”下拉列表中选择。
BeeAI
框架用于简化使用 MCP 工具设置ReAct
(Reason And Act) 代理。Markdown
JS 库用于以适当的可读视觉格式呈现响应。
编码愉快 :) !!
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
MCP Package Docs Server
促进大型语言模型高效访问和获取 Go、Python 和 NPM 包的结构化文档,通过多语言支持和性能优化来增强软件开发。
Claude Code MCP
一个实现了 Claude Code 作为模型上下文协议(Model Context Protocol, MCP)服务器的方案,它可以通过标准化的 MCP 接口来使用 Claude 的软件工程能力(代码生成、编辑、审查和文件操作)。
@kazuph/mcp-taskmanager
用于任务管理的模型上下文协议服务器。它允许 Claude Desktop(或任何 MCP 客户端)在基于队列的系统中管理和执行任务。
mermaid-mcp-server
一个模型上下文协议 (MCP) 服务器,用于将 Mermaid 图表转换为 PNG 图像。
Jira-Context-MCP
MCP 服务器向 AI 编码助手(如 Cursor)提供 Jira 工单信息。

Linear MCP Server
一个模型上下文协议(Model Context Protocol)服务器,它与 Linear 的问题跟踪系统集成,允许大型语言模型(LLM)通过自然语言交互来创建、更新、搜索和评论 Linear 问题。

Sequential Thinking MCP Server
这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。
Curri MCP Server
通过管理文本笔记、提供笔记创建工具以及使用结构化提示生成摘要,从而实现与 Curri API 的交互。