Files-DB-MCP
一个本地向量数据库系统,通过消息控制协议为 LLM 编码代理提供快速、高效的软件项目语义搜索能力。
README
Files-DB-MCP:代码项目的向量搜索
一个本地向量数据库系统,通过消息控制协议 (MCP) 为 LLM 编码代理提供快速、高效的软件项目搜索能力。
特性
- 零配置 - 自动检测项目结构,并采用合理的默认设置
- 实时监控 - 持续监视文件更改
- 向量搜索 - 用于查找相关代码的语义搜索
- MCP 接口 - 兼容 Claude Code 和其他 LLM 工具
- 开源模型 - 使用 Hugging Face 模型进行代码嵌入
安装
选项 1:克隆和设置(推荐)
# 使用 SSH(如果您已设置 GitHub SSH 密钥,则推荐使用)
git clone git@github.com:randomm/files-db-mcp.git ~/.files-db-mcp && bash ~/.files-db-mcp/install/setup.sh
# 使用 HTTPS(如果您未设置 SSH 密钥)
git clone https://github.com/randomm/files-db-mcp.git ~/.files-db-mcp && bash ~/.files-db-mcp/install/setup.sh
选项 2:自动安装脚本
curl -fsSL https://raw.githubusercontent.com/randomm/files-db-mcp/main/install/install.sh | bash
用法
安装后,在任何项目目录中运行:
files-db-mcp
该服务将:
- 检测您的项目文件
- 在后台开始索引
- 立即开始响应 MCP 搜索查询
要求
- Docker
- Docker Compose
配置
Files-DB-MCP 无需配置即可工作,但您可以使用环境变量进行自定义:
EMBEDDING_MODEL- 更改嵌入模型(默认:'jinaai/jina-embeddings-v2-base-code' 或项目特定模型)FAST_STARTUP- 设置为 'true' 以使用较小的模型来加快启动速度(默认:'false')QUANTIZATION- 启用/禁用量化(默认:'true')BINARY_EMBEDDINGS- 启用/禁用二进制嵌入(默认:'false')IGNORE_PATTERNS- 要忽略的文件/目录的逗号分隔列表
首次启动
首次运行时,Files-DB-MCP 将下载嵌入模型,这可能需要几分钟,具体取决于:
- 所选模型的大小(高质量模型为 300-500MB)
- 您的互联网连接速度
后续启动速度会快得多,因为模型缓存在持久性 Docker 卷中。 为了更快地进行初始启动,您可以:
# 使用更小、更快的模型 (90MB)
EMBEDDING_MODEL=sentence-transformers/all-MiniLM-L6-v2 files-db-mcp
# 或启用快速启动模式
FAST_STARTUP=true files-db-mcp
模型缓存
Files-DB-MCP 自动持久化下载的嵌入模型,因此您只需下载一次:
- 模型存储在名为
model_cache的 Docker 卷中 - 此卷在容器重启和不同项目之间保持不变
- 该缓存由您机器上使用 Files-DB-MCP 的所有项目共享
- 您无需为每个项目再次下载模型
Claude Code 集成
添加到您的 Claude Code 配置:
{
"mcpServers": {
"files-db-mcp": {
"command": "python",
"args": ["/path/to/src/claude_mcp_server.py", "--host", "localhost", "--port", "6333"]
}
}
}
有关详细信息,请参阅 Claude MCP 集成。
文档
仓库结构
/src- 源代码/tests- 单元和集成测试/docs- 文档/scripts- 实用程序脚本/install- 安装脚本/.docker- Docker 配置/config- 配置文件/ai-assist- AI 辅助文件
许可证
贡献
欢迎贡献! 请随时提交拉取请求。
推荐服务器
Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。
VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。