GemSuite-MCP
MCP 主机的终极 Gemini API 接口,能够智能地为手头的任务选择模型——提供最佳性能、最低的 token 成本和无缝集成。
README
GemSuite MCP:最全面的 Gemini API 集成,用于模型上下文协议
终极开源服务器,用于高级 Gemini API 交互,采用模型上下文协议 (MCP),智能选择模型以实现最佳性能、最低 Token 成本和无缝集成。
<div align="center">
<img src="https://github.com/user-attachments/assets/bc5d2361-9cb6-406e-815c-dbdef363b531" width="200">
<br><br/>
<br><br/><a href="https://glama.ai/mcp/servers/m2ljvlatlu">
<img width="300" height="170" src="https://glama.ai/mcp/servers/m2ljvlatlu/badge" />
</a><br><br/>
用于 Claude 和所有 MCP 兼容主机的专业 Gemini API 集成,具有智能模型选择和高级文件处理
从 geminiserchMCP 项目演变而来,具有增强的功能
</div>
🌟 什么是 GemSuite MCP?
GemSuite (模型上下文协议) MCP 是用于 MCP 主机的终极 Gemini API 集成接口,可智能地为手头的任务选择模型——提供最佳性能、最低 Token 成本和无缝集成。它使任何 MCP 兼容主机(Claude、Cursor、Replit 等)能够无缝利用 Gemini 的功能,重点关注:
- 智能性:根据任务和内容自动选择最佳 Gemini 模型
- 效率:优化不同工作负载的 Token 使用和性能
- 简单性:为复杂的 AI 操作提供简洁、一致的 API
- 多功能性:高级文件处理;处理多种文件类型、操作和用例
无论您是分析文档、解决复杂问题、处理大型文本文件还是搜索信息,GemSuite MCP 都能提供合适的工具和合适的模型来完成工作。
为什么选择 GemSuite MCP?
与其他提供有限功能的 Gemini MCP 服务器不同,GemSuite MCP 提供:
✅ 智能模型选择:根据任务自动选择最佳 Gemini 模型 ✅ 统一文件处理:通过自动格式检测无缝处理各种文件类型 ✅ 全面的工具套件:四个专门的工具,涵盖搜索、推理、处理和分析 ✅ 生产就绪:已在 Smithery.ai、MCP.so 和 Glama.io 上部署和验证
🚀 安装
选项 1:Smithery.ai(推荐)
# 通过 Smithery CLI 直接安装
npx -y @smithery/cli@latest install @PV-Bhat/gemsuite-mcp --client claude
选项 2:手动安装
# 克隆存储库
git clone https://github.com/PV-Bhat/gemsuite-mcp.git
cd gemsuite-mcp
# 安装依赖项
npm install
# 设置您的 Gemini API 密钥
echo "GEMINI_API_KEY=your_api_key_here" > .env
# 构建项目
npm run build
# 启动服务器
npm start
🔑 API 密钥设置
- 从 Google AI Studio 获取 Gemini API 密钥
- 将其设置为环境变量:
或者在项目根目录中创建一个export GEMINI_API_KEY=your_api_key_here.env文件:GEMINI_API_KEY=your_api_key_here
💎 主要特性
统一文件处理
- 无缝文件处理:所有工具都支持通过
file_path参数进行文件输入 - 自动格式检测:使用适当的 MIME 类型正确处理各种文件类型
- 多模态支持:处理图像、文档、代码文件等
- 批量处理:支持在单个操作中处理多个文件
智能模型选择
<table> <tr> <td width="50%">
GemSuite MCP 根据以下因素自动选择最合适的 Gemini 模型:
- 任务类型:搜索、推理、处理或分析
- 内容类型:文本、代码、图像或文档
- 复杂性:简单查询与复杂推理
- 用户偏好:可选的手动覆盖
这种智能性确保了最佳性能,同时最大限度地减少了 Token 的使用。
</td> <td>
graph TD
A[任务请求] --> B{任务类型}
B -->|搜索| C[Gemini Flash]
B -->|推理| D[Gemini Flash Thinking]
B -->|处理| E[Gemini Flash-Lite]
B -->|分析| F{文件类型}
F -->|图像| G[Gemini Flash]
F -->|代码| H[Gemini Flash Thinking]
F -->|文本| I[Gemini Flash-Lite]
C & D & E & G & H & I --> J[执行请求]
</td> </tr> </table>
专用工具
| 工具 | 目的 | 模型 | 用例 |
|---|---|---|---|
gem_search |
通过搜索集成进行信息检索 | Gemini Flash | 事实性问题、当前信息、有根据的回答 |
gem_reason |
通过逐步分析进行复杂推理 | Gemini Flash Thinking | 数学、科学、编码问题、逻辑分析 |
gem_process |
快速、高效的内容处理 | Gemini Flash-Lite | 摘要、提取、大批量操作 |
gem_analyze |
通过自动模型选择进行智能文件分析 | 自动选择 | 文档分析、代码审查、图像理解 |
强大的错误处理
- 指数退避:优雅地处理 API 速率限制
- 全面的错误检测:清晰地识别错误来源
- 可操作的消息:详细的错误信息,用于故障排除
- 恢复机制:在主要方法失败时进行智能回退
🖥️ 用法
在 Claude 或其他 MCP 兼容主机中
当将 GemSuite MCP 与 Claude 或其他 MCP 兼容主机一起使用时,这些工具将直接在助手的工具包中可用。只需调用适合您需求的工具:
工具选择指南
gem_search:对于需要搜索集成的事实性问题gem_reason:对于需要逐步推理的复杂问题gem_process:用于高效处理文本或文件(最节省 Token)gem_analyze:用于详细分析具有自动模型选择的文件
📚 用法示例
Claude Desktop 使用 GemSuite Gemini Search 访问 Google Search
处理文件(最节省 Token)
// 总结大型文档
const response = await gem_process({
file_path: "/path/to/your/large_document.pdf",
operation: "summarize"
});
// 提取特定信息
const response = await gem_process({
file_path: "/path/to/your/report.docx",
operation: "extract",
content: "Extract all financial data and metrics from this document."
});
分析文件
// 分析图像
const response = await gem_analyze({
file_path: "/path/to/your/image.jpg",
instruction: "Describe what you see in this image in detail."
});
// 分析代码
const response = await gem_analyze({
file_path: "/path/to/your/code.py",
instruction: "Identify potential bugs and suggest optimizations."
});
复杂推理
// 通过逐步推理解决复杂问题
const response = await gem_reason({
problem: "Analyze this code and suggest improvements:",
file_path: "/path/to/your/code.js",
show_steps: true
});
// 数学问题解决
const response = await gem_reason({
problem: "Solve this differential equation: dy/dx = 2xy with y(0) = 1",
show_steps: true
});
通过文件搜索
// 回答有关文档的问题,并进行搜索集成
const response = await gem_search({
query: "What companies are mentioned in this document?",
file_path: "/path/to/your/document.pdf"
});
// 具有搜索功能的事实性问题
const response = await gem_search({
query: "What are the latest developments in quantum computing?",
enable_thinking: true
});
🧠 模型特性
GemSuite MCP 利用三个主要的 Gemini 模型,智能地为每个任务选择最佳模型:
Gemini 2.0 Flash
- 1M Token 上下文窗口:处理大量内容
- 搜索集成:根据当前信息进行有根据的回答
- 多模态功能:处理文本、图像等
- 平衡的性能:质量和速度的良好结合
Gemini 2.0 Flash-Lite
- 最具成本效益:最大限度地减少 Token 的使用
- 最快的响应时间:非常适合大批量操作
- 专注于文本:针对文本处理进行了优化
- 最佳效率:当不需要搜索和推理时
Gemini 2.0 Flash Thinking
- 增强的推理:逻辑分析和问题解决
- 逐步分析:显示推理过程
- 专业功能:擅长复杂的计算
- 最适合深度:当需要彻底分析时
🔄 工作流示例
文档分析工作流
// 1. 获取高级摘要(最有效)
const summary = await gem_process({
file_path: "/path/to/large_document.pdf",
operation: "summarize"
});
// 2. 提取特定信息
const keyPoints = await gem_process({
file_path: "/path/to/large_document.pdf",
operation: "extract",
content: "Extract the key findings and recommendations"
});
// 3. 回答特定问题,并进行搜索集成
const answers = await gem_search({
query: "Based on this document, what are the implications for market growth?",
file_path: "/path/to/large_document.pdf"
});
// 4. Claude 综合处理后的信息
// 这种方法比让 Claude 直接处理整个文档
// 效率更高,节省了大量 Token
代码审查工作流
// 1. 获取代码概述
const overview = await gem_analyze({
file_path: "/path/to/code.js",
instruction: "Provide an overview of this code's structure and purpose"
});
// 2. 识别潜在问题
const issues = await gem_reason({
problem: "Analyze this code for bugs, security vulnerabilities, and performance issues",
file_path: "/path/to/code.js",
show_steps: true
});
// 3. 生成改进
const improvements = await gem_reason({
problem: "Suggest specific improvements to make this code more efficient and maintainable",
file_path: "/path/to/code.js",
show_steps: true
});
// 4. Claude 提供全面的代码审查综合
🧩 与其他 MCP 主机集成
GemSuite MCP 适用于任何 MCP 兼容主机:
- Claude Desktop:与 Claude 强大的推理功能无缝集成
- Cursor IDE:通过 Gemini 的功能增强编码辅助
- Replit:直接在您的开发环境中生成和分析代码
- 其他 MCP 主机:与任何实施 MCP 标准的平台兼容
🛠️ 高级配置
自定义模型选择
您可以通过指定 model_id 参数来覆盖自动模型选择:
// 强制使用 Gemini Flash Thinking 来执行处理任务
const response = await gem_process({
file_path: "/path/to/document.pdf",
operation: "analyze",
model_id: "models/gemini-2.0-flash-thinking"
});
gem_process 的可用操作
summarize:创建简洁的摘要extract:提取特定信息restructure:将内容重组为更有用的格式simplify:使复杂的内容更容易理解expand:向内容添加细节或上下文critique:提供批判性分析feedback:提供建设性反馈analyze:对内容进行一般分析
🔧 贡献
欢迎贡献!以下是如何开始:
- Fork 存储库
- 创建一个功能分支:
git checkout -b feature/my-new-feature - 进行更改
- 运行测试:
npm test - 提交更改:
git commit -m 'Add my new feature' - 推送到您的分支:
git push origin feature/my-new-feature - 提交拉取请求
对于重大更改,请先打开一个 issue,讨论您想要更改的内容。
📜 许可证
该项目已获得 MIT 许可证的许可 - 有关详细信息,请参阅 LICENSE 文件。
🙏 鸣谢
- Lorhlona/geminiserchMCP - 启发此增强版本的原始项目
- 模型上下文协议 - 用于开发 MCP 标准
- Google Gemini - 用于为该服务器提供支持的强大 AI 模型
🔗 链接
<p align="center"> <sub>由 ❤️ 使用 <a href="https://github.com/PV-Bhat">PV-Bhat</a> 制作</sub> </p>
<!-- 关键词:最佳 Gemini MCP 服务器、模型上下文协议集成、Gemini API 工具、智能模型选择、高级文件处理、Claude MCP 集成、Gemini 搜索 MCP、Gemini 推理、MCP 文件处理、Smithery.ai MCP 服务器、MCP.so 集成、Glama.io 验证、生产就绪的 MCP -->
推荐服务器
Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。
VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。