MCP-Ragdocs
一个模型上下文协议(MCP)服务器,它使用向量数据库(Qdrant)来实现文档的语义搜索和检索。 这个服务器允许你从URL或本地文件添加文档,然后使用自然语言查询来搜索它们。
README
MCP-Ragdocs
一个模型上下文协议 (MCP) 服务器,它使用向量数据库 (Qdrant) 实现文档的语义搜索和检索。此服务器允许您从 URL 或本地文件添加文档,然后使用自然语言查询搜索它们。
快速安装指南
-
全局安装包:
npm install -g @qpd-v/mcp-server-ragdocs
-
启动 Qdrant (使用 Docker):
docker run -p 6333:6333 -p 6334:6334 qdrant/qdrant
-
确保 Ollama 正在运行,并使用默认的嵌入模型:
ollama pull nomic-embed-text
-
添加到您的配置文件:
- 对于 Cline:
%AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json
- 对于 Roo-Code:
%AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.json
- 对于 Claude Desktop:
%AppData%\Claude\claude_desktop_config.json
{ "mcpServers": { "ragdocs": { "command": "node", "args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }
- 对于 Cline:
-
验证安装:
# 检查 Qdrant 是否正在运行 curl http://localhost:6333/collections # 检查 Ollama 是否有该模型 ollama list | grep nomic-embed-text
版本
当前版本:0.1.6
功能
- 从 URL 或本地文件添加文档
- 将文档存储在向量数据库中以进行语义搜索
- 使用自然语言搜索文档
- 列出所有文档来源
安装
使用 npm 全局安装:
npm install -g @qpd-v/mcp-server-ragdocs
这会将服务器安装到您的全局 npm 目录中,您需要在下面的配置步骤中使用它。
要求
- Node.js 16 或更高版本
- Qdrant (本地或云)
- 以下之一用于嵌入:
- 本地运行的 Ollama (默认,免费)
- OpenAI API 密钥 (可选,付费)
Qdrant 设置选项
选项 1:本地 Qdrant
- 使用 Docker (推荐):
docker run -p 6333:6333 -p 6334:6334 qdrant/qdrant
- 或者从 Qdrant 的网站 下载
选项 2:Qdrant Cloud
- 在 Qdrant Cloud 创建一个帐户
- 创建一个新的集群
- 从仪表板获取您的集群 URL 和 API 密钥
- 在您的配置中使用它们 (请参阅下面的配置部分)
配置
该服务器可以与 Cline/Roo 和 Claude Desktop 一起使用。它们之间的配置略有不同:
Cline 配置
添加到您的 Cline 设置文件 (%AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json
)
和/或
添加到您的 Roo-Code 设置文件 (%AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.json
):
- 使用 npm 全局安装 (推荐):
{
"mcpServers": {
"ragdocs": {
"command": "node",
"args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"],
"env": {
"QDRANT_URL": "http://127.0.0.1:6333",
"EMBEDDING_PROVIDER": "ollama",
"OLLAMA_URL": "http://localhost:11434"
}
}
}
}
对于使用 OpenAI 而不是 Ollama:
{
"mcpServers": {
"ragdocs": {
"command": "node",
"args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"],
"env": {
"QDRANT_URL": "http://127.0.0.1:6333",
"EMBEDDING_PROVIDER": "openai",
"OPENAI_API_KEY": "your-openai-api-key"
}
}
}
}
- 使用本地开发设置:
{
"mcpServers": {
"ragdocs": {
"command": "node",
"args": ["PATH_TO_PROJECT/mcp-ragdocs/build/index.js"],
"env": {
"QDRANT_URL": "http://127.0.0.1:6333",
"EMBEDDING_PROVIDER": "ollama",
"OLLAMA_URL": "http://localhost:11434"
}
}
}
}
Claude Desktop 配置
添加到您的 Claude Desktop 配置文件:
- Windows:
%AppData%\Claude\claude_desktop_config.json
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json
- Windows 设置,使用 Ollama (使用完整路径):
{
"mcpServers": {
"ragdocs": {
"command": "C:\\Program Files\\nodejs\\node.exe",
"args": [
"C:\\Users\\YOUR_USERNAME\\AppData\\Roaming\\npm\\node_modules\\@qpd-v/mcp-server-ragdocs\\build\\index.js"
],
"env": {
"QDRANT_URL": "http://127.0.0.1:6333",
"EMBEDDING_PROVIDER": "ollama",
"OLLAMA_URL": "http://localhost:11434"
}
}
}
}
Windows 设置,使用 OpenAI:
{
"mcpServers": {
"ragdocs": {
"command": "C:\\Program Files\\nodejs\\node.exe",
"args": [
"C:\\Users\\YOUR_USERNAME\\AppData\\Roaming\\npm\\node_modules\\@qpd-v/mcp-server-ragdocs\\build\\index.js"
],
"env": {
"QDRANT_URL": "http://127.0.0.1:6333",
"EMBEDDING_PROVIDER": "openai",
"OPENAI_API_KEY": "your-openai-api-key"
}
}
}
}
- macOS 设置,使用 Ollama:
{
"mcpServers": {
"ragdocs": {
"command": "/usr/local/bin/node",
"args": [
"/usr/local/lib/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"
],
"env": {
"QDRANT_URL": "http://127.0.0.1:6333",
"EMBEDDING_PROVIDER": "ollama",
"OLLAMA_URL": "http://localhost:11434"
}
}
}
}
Qdrant Cloud 配置
对于 Cline 或 Claude Desktop,当使用 Qdrant Cloud 时,修改 env 部分:
使用 Ollama:
{
"env": {
"QDRANT_URL": "https://your-cluster-url.qdrant.tech",
"QDRANT_API_KEY": "your-qdrant-api-key",
"EMBEDDING_PROVIDER": "ollama",
"OLLAMA_URL": "http://localhost:11434"
}
}
使用 OpenAI:
{
"env": {
"QDRANT_URL": "https://your-cluster-url.qdrant.tech",
"QDRANT_API_KEY": "your-qdrant-api-key",
"EMBEDDING_PROVIDER": "openai",
"OPENAI_API_KEY": "your-openai-api-key"
}
}
环境变量
Qdrant 配置
QDRANT_URL
(必需):您的 Qdrant 实例的 URL- 对于本地:http://localhost:6333
- 对于云:https://your-cluster-url.qdrant.tech
QDRANT_API_KEY
(云端必需):您的 Qdrant Cloud API 密钥
嵌入配置
EMBEDDING_PROVIDER
(可选):在 'ollama' (默认) 或 'openai' 之间选择EMBEDDING_MODEL
(可选):- 对于 Ollama:默认为 'nomic-embed-text'
- 对于 OpenAI:默认为 'text-embedding-3-small'
OLLAMA_URL
(可选):您的 Ollama 实例的 URL (默认为 http://localhost:11434)OPENAI_API_KEY
(如果使用 OpenAI 则必需):您的 OpenAI API 密钥
可用工具
-
add_documentation
- 从 URL 向 RAG 数据库添加文档
- 参数:
url
: 要获取的文档的 URL
-
search_documentation
- 搜索存储的文档
- 参数:
query
: 搜索查询limit
(可选):要返回的最大结果数 (默认值:5)
-
list_sources
- 列出当前存储的所有文档来源
- 无需参数
使用示例
在 Claude Desktop 或任何其他 MCP 兼容的客户端中:
- 添加文档:
Add this documentation: https://docs.example.com/api
- 搜索文档:
Search the documentation for information about authentication
- 列出来源:
What documentation sources are available?
开发
- 克隆存储库:
git clone https://github.com/qpd-v/mcp-server-ragdocs.git
cd mcp-server-ragdocs
- 安装依赖项:
npm install
- 构建项目:
npm run build
- 在本地运行:
npm start
许可证
MIT
故障排除
常见问题
-
Qdrant 连接错误
Error: Failed to connect to Qdrant at http://localhost:6333
- 检查 Docker 是否正在运行
- 验证 Qdrant 容器是否正在运行:
docker ps | grep qdrant
- 尝试重新启动容器
-
Ollama 模型缺失
Error: Model nomic-embed-text not found
- 运行:
ollama pull nomic-embed-text
- 验证模型是否已安装:
ollama list
- 运行:
-
配置路径问题
- Windows:将
YOUR_USERNAME
替换为您的实际 Windows 用户名 - 检查文件权限
- 验证路径是否存在
- Windows:将
-
npm 全局安装问题
- 尝试使用管理员权限安装
- 检查 npm 是否在 PATH 中:
npm -v
- 验证全局安装:
npm list -g @qpd-v/mcp-server-ragdocs
对于其他问题,请检查:
- Docker 日志:
docker logs $(docker ps -q --filter ancestor=qdrant/qdrant)
- Ollama 状态:
ollama list
- Node.js 版本:
node -v
(应为 16 或更高版本)
贡献
欢迎贡献!请随时提交 Pull Request。
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。
mcp-server-qdrant
这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。
AIO-MCP Server
🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。
https://github.com/Streen9/react-mcp
react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。
MCP Atlassian
适用于 Atlassian Cloud 产品(Confluence 和 Jira)的 Model Context Protocol (MCP) 服务器。此集成专为 Atlassian Cloud 实例设计,不支持 Atlassian Server 或 Data Center 部署。

any-chat-completions-mcp
将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。
Exa MCP Server
一个模型上下文协议服务器,它使像 Claude 这样的人工智能助手能够以安全和受控的方式,使用 Exa AI 搜索 API 执行实时网络搜索。