Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP

Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP

一个模型上下文协议服务器,它结合了 DeepSeek R1 的推理能力和 Claude 3.5 Sonnet 的响应生成能力,从而实现两阶段 AI 处理:DeepSeek 的结构化推理增强 Claude 的最终输出。

Category
访问服务器

Tools

generate_response

Generate a response using DeepSeek's reasoning and Claude's response generation through OpenRouter.

check_response_status

Check the status of a response generation task

README

Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP

smithery badge

一个模型上下文协议 (MCP) 服务器,它通过 OpenRouter 结合了 DeepSeek R1 的推理能力和 Claude 3.5 Sonnet 的响应生成能力。此实现使用两阶段过程,其中 DeepSeek 提供结构化推理,然后将其合并到 Claude 的响应生成中。

特性

  • 两阶段处理

    • 使用 DeepSeek R1 进行初始推理(5 万字符上下文)
    • 使用 Claude 3.5 Sonnet 进行最终响应(60 万字符上下文)
    • 通过 OpenRouter 的统一 API 访问两个模型
    • 将 DeepSeek 的推理令牌注入到 Claude 的上下文中
  • 智能对话管理

    • 使用文件修改时间检测活动对话
    • 处理多个并发对话
    • 自动过滤已结束的对话
    • 支持在需要时清除上下文
  • 优化参数

    • 模型特定的上下文限制:
      • DeepSeek:50,000 个字符用于集中推理
      • Claude:600,000 个字符用于全面响应
    • 推荐设置:
      • temperature:0.7 用于平衡创造力
      • top_p:1.0 用于完整概率分布
      • repetition_penalty:1.0 防止重复

安装

通过 Smithery 安装

要通过 Smithery 为 Claude Desktop 自动安装 DeepSeek Thinking with Claude 3.5 Sonnet,请执行以下操作:

npx -y @smithery/cli install @newideas99/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP --client claude

手动安装

  1. 克隆存储库:
git clone https://github.com/yourusername/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP.git
cd Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP
  1. 安装依赖项:
npm install
  1. 创建一个包含您的 OpenRouter API 密钥的 .env 文件:
# 必需:DeepSeek 和 Claude 模型的 OpenRouter API 密钥
OPENROUTER_API_KEY=your_openrouter_api_key_here

# 可选:模型配置(显示以下默认值)
DEEPSEEK_MODEL=deepseek/deepseek-r1  # 用于推理的 DeepSeek 模型
CLAUDE_MODEL=anthropic/claude-3.5-sonnet:beta  # 用于响应的 Claude 模型
  1. 构建服务器:
npm run build

与 Cline 一起使用

添加到您的 Cline MCP 设置(通常在 ~/.vscode/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json 中):

{
  "mcpServers": {
    "deepseek-claude": {
      "command": "/path/to/node",
      "args": ["/path/to/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP/build/index.js"],
      "env": {
        "OPENROUTER_API_KEY": "your_key_here"
      },
      "disabled": false,
      "autoApprove": []
    }
  }
}

工具使用

该服务器提供了两个用于生成和监控响应的工具:

generate_response

用于生成响应的主要工具,具有以下参数:

{
  "prompt": string,           // 必需:问题或提示
  "showReasoning"?: boolean, // 可选:显示 DeepSeek 的推理过程
  "clearContext"?: boolean,  // 可选:清除对话历史记录
  "includeHistory"?: boolean // 可选:包含 Cline 对话历史记录
}

check_response_status

用于检查响应生成任务状态的工具:

{
  "taskId": string  // 必需:来自 generate_response 的任务 ID
}

响应轮询

服务器使用轮询机制来处理长时间运行的请求:

  1. 初始请求:

    • generate_response 立即返回一个任务 ID
    • 响应格式:{"taskId": "uuid-here"}
  2. 状态检查:

    • 使用 check_response_status 轮询任务状态
    • 注意: 响应可能需要长达 60 秒才能完成
    • 状态进展:pending → reasoning → responding → complete

在 Cline 中的示例用法:

// 初始请求
const result = await use_mcp_tool({
  server_name: "deepseek-claude",
  tool_name: "generate_response",
  arguments: {
    prompt: "What is quantum computing?",
    showReasoning: true
  }
});

// 从结果中获取 taskId
const taskId = JSON.parse(result.content[0].text).taskId;

// 轮询状态(可能需要在 ~60 秒内进行多次检查)
const status = await use_mcp_tool({
  server_name: "deepseek-claude",
  tool_name: "check_response_status",
  arguments: { taskId }
});

// 完成时的示例状态响应:
{
  "status": "complete",
  "reasoning": "...",  // 如果 showReasoning 为 true
  "response": "..."    // 最终响应
}

开发

对于具有自动重建功能的开发:

npm run watch

工作原理

  1. 推理阶段 (DeepSeek R1)

    • 使用 OpenRouter 的推理令牌功能
    • 修改提示以在捕获推理时输出“done”
    • 从响应元数据中提取推理
  2. 响应阶段 (Claude 3.5 Sonnet)

    • 接收原始提示和 DeepSeek 的推理
    • 生成包含推理的最终响应
    • 维护对话上下文和历史记录

许可证

MIT 许可证 - 有关详细信息,请参见 LICENSE 文件。

鸣谢

基于 Skirano 的 RAT(检索增强思维)概念,该概念通过结构化推理和知识检索来增强 AI 响应。

此实现专门结合了 DeepSeek R1 的推理能力和 Claude 3.5 Sonnet 的响应生成能力,通过 OpenRouter 的统一 API 实现。

推荐服务器

Baidu Map

Baidu Map

百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。

官方
精选
JavaScript
Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。

官方
精选
本地
TypeScript
Audiense Insights MCP Server

Audiense Insights MCP Server

通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

官方
精选
本地
TypeScript
VeyraX

VeyraX

一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

官方
精选
本地
Kagi MCP Server

Kagi MCP Server

一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

官方
精选
Python
graphlit-mcp-server

graphlit-mcp-server

模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。

官方
精选
TypeScript
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选