Deep Thinking Assistant

Deep Thinking Assistant

一个基于 OpenAI API 的 MCP 服务器,提供深度思考和分析能力,并与 AI 编辑器模型集成,以提供全面的见解和实用的解决方案。

Category
访问服务器

README

深度思考助手 - Gemini MCP 服务器

这是一个基于 Gemini API 的 MCP 服务器,旨在提供深度思考和分析。 它与 AI 编辑器的模型协同工作,以提供更深入的分析和洞察。

特点

  • 来自多角度的的问题分析
  • 批判性思维和创造性思维的整合
  • 实践性和具体性的建议
  • 现有知识的整合和新视角的提供
  • 根据上下文调整适当的详细程度
  • 对提出的解决方案进行批判性分析和改进建议

项目结构

dive_deep/
├── logs/                   # 日志文件目录
├── dive_deep_server.py     # 主服务器文件
├── logger_config.py        # 日志配置
├── prompts.py             # 提示词定义
├── requirements.txt       # 依赖关系
├── .env                   # 环境变量设置
└── README.md             # 文档

设置

  1. 安装依赖:
pip install -r requirements.txt
  1. 设置环境变量: 创建 .env 文件并设置以下内容:
GEMINI_API_KEY=your_api_key_here
GEMINI_MODEL=gemini-2.0-flash

使用方法

启动服务器:

python dive_deep_server.py

可用工具

deep_thinking_agent

加深问题解决的思考过程,并提出着眼点。该工具提供对问题的深入理解和多角度分析,并提供指导方针以得出更好的解决方案。

参数:

  • instructions: 用户指令(必需)
  • context: 思考过程的上下文(必需)
  • model: 使用的模型名称(默认: "gemini-2.0-flash")

enhancement_agent

分析代码的改进点,并提出具体建议。该工具从代码质量、性能、可维护性等角度进行全面分析,并提供实用的改进建议。

参数:

  • instructions: 对审查代码的指示(必需)
  • code: 代码列表(必需)
  • model: 使用的模型名称(默认: "gemini-2.0-flash")
  • temperature: 生成时的温度参数(默认: 0.7)

final_review_agent

进行最终代码审查并提出改进点。该工具批判性地分析提出的更改和改进,并识别潜在的问题和进一步优化的机会。

参数:

  • instructions: 对审查代码的指示(必需)
  • code: 代码列表(必需)
  • model: 使用的模型名称(默认: "gemini-2.0-flash")
  • temperature: 生成时的温度参数(默认: 0.7)

使用例

  1. 加深思考过程:
response = deep_thinking_agent(
    instructions="请考虑如何优化此算法",
    context="当前实现的时间复杂度为O(n^2)",
    model="gemini-2.0-flash"
)
  1. 代码改进建议:
response = enhancement_agent(
    instructions="请改进此代码的性能",
    code=["def example():\n    # 代码内容"],
    model="gemini-2.0-flash"
)
  1. 最终审查:
response = final_review_agent(
    instructions="请最终确认已实施的改进方案",
    code=["def improved_example():\n    # 改进后的代码"],
    model="gemini-2.0-flash"
)

默认系统提示

思考辅助提示

服务器基于以下原则辅助思考:

  1. 问题理解和结构化思考

    • 通过系统思考把握整体情况
    • 通过 MECE 分解问题
    • 因果关系分析(Why-Why 分析、特性要因图)
    • 利益相关者分析和需求整理
  2. 解决方案的设计和评估

    • 应用设计模式和架构原则
    • 权衡的定量评估(成本 vs. 收益)
    • 风险分析和对策(FMEA 手法)
    • 可行性验证(PoC 战略)
  3. 追求技术卓越

    • 干净架构的原则 ・低耦合和高内聚 ・依赖关系的适当方向 ・接口的抽象化
    • 代码质量的优化 ・可读性和可维护性 ・性能和可扩展性 ・安全性和健壮性
    • 测试策略的设计 ・测试金字塔的考虑 ・边界值和边缘情况 ・自动化和持续验证
  4. 创新和创造性思考

    • 利用横向思维
    • 通过 SCAMPER 方法展开想法
    • 利用约束进行创造性问题解决
    • 新技术和遗留系统的集成
  5. 优化实施和部署

    • 阶段性实施策略
    • 技术债务的管理和偿还计划
    • 变更的影响分析
    • 最小化部署风险
  6. 持续改进和学习

    • KPI 和指标的设置
    • 建立反馈循环
    • 知识的系统化和共享
    • 实践 PDCA 循环
  7. 沟通与协作

    • 明确技术说明
    • 文档的结构化
    • 团队间的知识共享
    • 促进审查和反馈

回答分析提示

从以下角度分析回答:

  1. 逻辑一致性和完整性

    • 前提条件和约束的妥当性
    • 逻辑展开的一致性
    • 结论的推导过程
    • 识别被忽略的要素
    • 验证可证伪性
  2. 技术可行性和最优性

    • 算法和数据结构的适当性
    • 系统架构的健壮性
    • 性能和可扩展性
    • 安全性和可靠性
    • 可维护性和可扩展性
  3. 实施和运营

    • 开发效率和生产力
    • 运营负荷和成本
    • 监控和故障应对
    • 版本管理和部署
    • 团队协作的有效性
  4. 风险和挑战

    • 技术制约和局限
    • 安全漏洞
    • 性能瓶颈
    • 依赖关系的复杂性
    • 潜在的技术债务
  5. 商业价值和影响

    • 开发・运营成本
    • 上市时间
    • 对用户体验的影响
    • 与业务需求的整合
    • 对竞争优势的贡献

分析结果的构成:

  1. 提案的优势

    • 技术优势
    • 实施效率
    • 商业价值
    • 创新要素
  2. 需要改进的领域

    • 技术挑战
    • 实施上的风险
    • 运营上的担忧
    • 可扩展性的限制
  3. 具体改进建议

    • 短期改进
    • 中长期优化
    • 替代方法
    • 应用最佳实践
  4. 附加的考虑事项

    • 边缘情况和异常处理
    • 未来的可扩展性
    • 安全考虑事项
    • 性能优化
  5. 实施路线图

    • 任务的优先级排序
    • 里程碑的设置
    • 成功指标(KPI)的定义
    • 风险缓解策略

推荐服务器

Baidu Map

Baidu Map

百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。

官方
精选
JavaScript
Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。

官方
精选
本地
TypeScript
Audiense Insights MCP Server

Audiense Insights MCP Server

通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

官方
精选
本地
TypeScript
VeyraX

VeyraX

一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

官方
精选
本地
graphlit-mcp-server

graphlit-mcp-server

模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。

官方
精选
TypeScript
Kagi MCP Server

Kagi MCP Server

一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

官方
精选
Python
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选