Obsidian MCP
这个项目实现了一个模型上下文协议(MCP)服务器,用于连接人工智能模型和 Obsidian 知识库。通过这个服务器,人工智能模型可以直接访问和操作 Obsidian 笔记,包括读取、创建、更新和删除笔记,以及管理文件夹结构。
README
Obsidian MCP (模型上下文协议) 服务器
English | 中文
这个项目实现了一个 Model Context Protocol (MCP) 服务器,用于连接 AI 模型与 Obsidian 知识库。通过这个服务器,AI 模型可以直接访问和操作 Obsidian 笔记,包括读取、创建、更新和删除笔记,以及管理文件夹结构。
功能特点
- 与 Obsidian 知识库的无缝集成
- 支持笔记的读取、创建、更新和删除
- 支持文件夹的创建、重命名、移动和删除
- 支持全文搜索功能
- 符合 Model Context Protocol 规范
前提条件
- Node.js (v16 或更高版本)
- Obsidian 桌面应用
- Obsidian Local REST API 插件 (需要在 Obsidian 中安装)
安装
- 克隆此仓库:
git clone https://github.com/newtype-01/obsidian-mcp.git
cd obsidian-mcp
- 安装依赖:
npm install
- 构建项目:
npm run build
配置
服务器通过环境变量进行配置:
OBSIDIAN_VAULT_PATH: Obsidian 知识库的路径OBSIDIAN_API_TOKEN: Obsidian Local REST API 插件的 API 令牌OBSIDIAN_API_PORT: Obsidian Local REST API 插件的端口号 (默认为 27123)
您可以通过以下方式设置环境变量:
- 复制
.env.example文件为.env并编辑其中的值:
cp .env.example .env
- 编辑
.env文件,填入您的实际配置:
OBSIDIAN_VAULT_PATH=/path/to/your/vault
OBSIDIAN_API_TOKEN=your_api_token_here
OBSIDIAN_API_PORT=27123
注意: .env 文件包含敏感信息,已被添加到 .gitignore 中,不会被提交到版本控制系统。
使用方法
直接使用
-
确保 Obsidian 正在运行,并且已安装和配置了 Local REST API 插件
-
启动 MCP 服务器:
npm start
- 服务器将通过标准输入/输出与 AI 模型通信
使用 Docker 部署
使用 Docker Compose (推荐)
-
确保已安装 Docker 和 Docker Compose
-
复制并配置环境文件:
cp .env.example .env
- 编辑
.env文件,填入您的实际配置:
OBSIDIAN_VAULT_PATH=/path/to/your/vault
OBSIDIAN_API_TOKEN=your_api_token_here
OBSIDIAN_API_PORT=27123
- 构建并启动容器:
docker-compose up -d
使用 Docker 命令
- 构建 Docker 镜像:
docker build -t obsidian-mcp .
- 运行容器:
docker run -d \
--name obsidian-mcp \
--env-file .env \
--network host \
-v $(OBSIDIAN_VAULT_PATH):$(OBSIDIAN_VAULT_PATH) \
obsidian-mcp
注意: 使用 Docker 部署时,Docker 容器需要访问主机上的 Obsidian 实例和知识库。确保在 .env 文件中设置了正确的路径和端口,并且使用 network_mode: "host" 或适当的端口映射。
在 MCP 客户端中配置
主流 MCP 客户端通常需要编辑配置文件来设置 MCP 服务器。以下是几种常见的配置方式:
使用 npx 方式
{
"mcpServers": {
"obsidian-mcp": {
"command": "npx",
"args": [
"obsidian-mcp"
],
"env": {
// 如果您已经在项目目录中设置了 .env 文件,则可以保留为空
// 或者您可以直接在这里设置环境变量:
// "OBSIDIAN_VAULT_PATH": "/path/to/your/vault",
// "OBSIDIAN_API_TOKEN": "your_api_token_here",
// "OBSIDIAN_API_PORT": "27123"
}
}
}
}
使用本地安装方式
{
"mcpServers": {
"obsidian-mcp": {
"command": "node",
"args": [
"/path/to/obsidian-mcp/build/index.js"
],
"env": {
// 如果您已经在项目目录中设置了 .env 文件,则可以保留为空
}
}
}
}
使用 Docker 方式
如果您已经使用 Docker 部署了 MCP 服务器,您可以通过以下方式配置 MCP 客户端:
{
"mcpServers": {
"obsidian-mcp": {
"command": "docker",
"args": [
"exec",
"-i",
"obsidian-mcp",
"npm",
"start"
],
"env": {
// Docker 容器已经通过 .env 文件或环境变量配置,此处可以保留为空
}
}
}
}
注意: 上述配置中的 env 部分可以保持为空,特别是当您已经通过 .env 文件或 Docker 环境变量配置了相关参数时。如果您想直接在客户端配置中指定环境变量,则可以在 env 部分填写相应的键值对。
测试
项目包含一个测试脚本,用于验证服务器功能:
node test-mcp.js
支持的工具
MCP 服务器提供以下工具:
list_notes: 列出知识库中的所有笔记read_note: 读取指定笔记的内容create_note: 创建新笔记update_note: 更新现有笔记search_vault: 在知识库中搜索内容delete_note: 删除笔记manage_folder: 管理文件夹 (创建、重命名、移动、删除)
开发
- 使用
npm run dev在开发模式下运行服务器 - 源代码位于
src目录中
许可证
ISC
贡献
欢迎提交 Pull Requests 和 Issues!
相关项目
推荐服务器
Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。
VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。