mcp-local-rag
本地运行的“原始” RAG 式网络搜索模型上下文协议服务器。✨ 无需 API ✨
README
<img src='images/rag.jpeg' width='200' height='200'>
mcp-local-rag
本地运行的“原始” RAG 式 Web 搜索模型上下文协议 (MCP) 服务器。✨ 无需 API ✨
<img src='images/flowchart.png' width='1000' height='500'>
安装说明
- 您需要安装
uv
:https://docs.astral.sh/uv/
如果您不想在第 2 步中克隆。
只需将其直接粘贴到 Claude 配置中。您可以在此处找到配置路径:https://modelcontextprotocol.io/quickstart/user
{
"mcpServers": {
"mcp-local-rag":{
"command": "uvx",
"args": [
"--python=3.10",
"--from",
"git+https://github.com/nkapila6/mcp-local-rag",
"mcp-local-rag"
]
}
}
}
否则:
- 克隆此 GitHub 存储库(可选,可以使用上面的配置跳过)
git clone https://github.com/nkapila6/mcp-local-rag
- 将以下内容添加到您的 Claude 配置中。您可以在此处找到配置路径:https://modelcontextprotocol.io/quickstart/user
{
"mcpServers": {
"mcp-local-rag": {
"command": "uv",
"args": [
"--directory",
"<此文件夹所在的路径>/mcp-local-rag/",
"run",
"src/mcp_local_rag/main.py"
]
}
}
}
使用示例
在提示中
当被要求获取/查找/搜索网络时,模型会提示您使用 MCP 服务器进行聊天。
在示例中,我询问了昨天发布的 Google 最新 Gemma 模型。这是 Claude 不知道的新信息。 <img src='images/mcp_prompted.png'>
结果
来自本地 rag_search
的结果有助于模型使用新信息进行回答。
<img src='images/mcp_result.png'>
推荐服务器

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。
Exa MCP Server
一个模型上下文协议服务器,它使像 Claude 这样的人工智能助手能够以安全和受控的方式,使用 Exa AI 搜索 API 执行实时网络搜索。
mcp-perplexity
Perplexity API 的 MCP 服务器。
MCP Web Research Server
一个模型上下文协议服务器,使 Claude 能够通过集成 Google 搜索、提取网页内容和捕获屏幕截图来进行网络研究。
PubMedSearch MCP Server
一个模型内容协议(Model Content Protocol)服务器,提供从 PubMed 数据库搜索和检索学术论文的工具。
mcp-codex-keeper
作为开发知识的守护者,为 AI 助手提供精心策划的最新文档和最佳实践访问权限。
Perplexity Deep Research MCP
一个服务器,它允许 AI 助手使用 Perplexity 的 sonar-deep-research 模型进行网络搜索,并提供引用支持。

Doc/docx-MCP
一个基于 FastMCP 的强大 Word 文档处理服务,使 AI 助手能够创建、编辑和管理 docx 文件,并提供完整的格式支持。在编辑内容时保留原始样式。
Jina AI
Contribute to JoeBuildsStuff/mcp-jina-ai development by creating an account on GitHub.