
DeepView MCP
一个模型上下文协议服务器,它使像 Cursor 和 Windsurf 这样的 IDE 能够利用 Gemini 广泛的上下文窗口来分析大型代码库。
README
DeepView MCP
DeepView MCP 是一个模型上下文协议服务器,它使像 Cursor 和 Windsurf 这样的 IDE 能够使用 Gemini 广泛的上下文窗口来分析大型代码库。
特性
- 从单个文本文件加载整个代码库(例如,使用像 repomix 这样的工具创建)
- 使用 Gemini 的大型上下文窗口查询代码库
- 连接到支持 MCP 协议的 IDE,例如 Cursor 和 Windsurf
- 可通过命令行参数配置 Gemini 模型选择
前提条件
- Python 3.13+
- 来自 Google AI Studio 的 Gemini API 密钥
安装
使用 pip
pip install deepview-mcp
用法
启动服务器
注意:您不需要手动启动服务器。这些参数在您的 IDE 的 MCP 设置中配置(见下文)。
# 具有默认设置的基本用法
deepview-mcp [path/to/codebase.txt]
# 指定不同的 Gemini 模型
deepview-mcp [path/to/codebase.txt] --model gemini-2.0-pro
# 更改日志级别
deepview-mcp [path/to/codebase.txt] --log-level DEBUG
代码库文件参数是可选的。如果未提供,您需要在进行查询时指定它。
命令行选项
--model MODEL
: 指定要使用的 Gemini 模型(默认:gemini-2.0-flash-lite)--log-level {DEBUG,INFO,WARNING,ERROR,CRITICAL}
: 设置日志记录级别(默认:INFO)
与 IDE (Cursor/Windsurf/...) 一起使用
- 打开 IDE 设置
- 导航到 MCP 配置
- 添加一个新的 MCP 服务器,配置如下:
{ "mcpServers": { "deepview": { "command": "/path/to/deepview-mcp", "args": [], "env": { "GEMINI_API_KEY": "your_gemini_api_key" } } } }
设置代码库文件是可选的。如果您正在使用相同的代码库,您可以使用以下配置设置默认代码库文件:
{
"mcpServers": {
"deepview": {
"command": "/path/to/deepview-mcp",
"args": ["/path/to/codebase.txt"],
"env": {
"GEMINI_API_KEY": "your_gemini_api_key"
}
}
}
}
以下是如何指定要使用的 Gemini 版本:
{
"mcpServers": {
"deepview": {
"command": "/path/to/deepview-mcp",
"args": ["--model", "gemini-2.5-pro-exp-03-25"],
"env": {
"GEMINI_API_KEY": "your_gemini_api_key"
}
}
}
}
- 重新加载 MCP 服务器配置
可用工具
服务器提供一个工具:
deepview
: 询问有关代码库的问题- 必需参数:
question
- 要询问的关于代码库的问题 - 可选参数:
codebase_file
- 在查询之前要加载的代码库文件的路径
- 必需参数:
准备您的代码库
DeepView MCP 需要一个包含您整个代码库的单个文件。您可以使用 repomix 以 AI 友好的格式准备您的代码库。
使用 repomix
- 基本用法: 在您的项目目录中运行 repomix 以创建默认输出文件:
# 确保您使用的是 Node.js 18.17.0 或更高版本
npx repomix
这将生成一个包含您的代码库的 repomix-output.xml
文件。
- 自定义配置: 创建一个配置文件以自定义要打包的文件和输出格式:
npx repomix --init
这将创建一个 repomix.config.json
文件,您可以编辑该文件以:
- 包含/排除特定文件或目录
- 更改输出格式(XML、JSON、TXT)
- 设置输出文件名
- 配置其他打包选项
repomix 配置示例
这是一个 repomix.config.json
文件的示例:
{
"include": [
"**/*.py",
"**/*.js",
"**/*.ts",
"**/*.jsx",
"**/*.tsx"
],
"exclude": [
"node_modules/**",
"venv/**",
"**/__pycache__/**",
"**/test/**"
],
"output": {
"format": "xml",
"filename": "my-codebase.xml"
}
}
有关 repomix 的更多信息,请访问 repomix GitHub 存储库。
许可证
MIT
作者
Dmitry Degtyarev (ddegtyarev@gmail.com)
推荐服务器

Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。