RAT MCP Server (Retrieval Augmented Thinking)
🧠 MCP 服务器,实现了 RAT(检索增强思维)—— 结合了 DeepSeek 的推理能力和 GPT-4/Claude/Mistral 的回复,并在交互之间保持对话上下文。
newideas99
README
Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP
一个模型上下文协议 (MCP) 服务器,它通过 OpenRouter 将 DeepSeek R1 的推理能力与 Claude 3.5 Sonnet 的响应生成相结合。此实现使用两阶段过程,其中 DeepSeek 提供结构化推理,然后将其合并到 Claude 的响应生成中。
特性
-
两阶段处理:
- 使用 DeepSeek R1 进行初始推理(5 万字符上下文)
- 使用 Claude 3.5 Sonnet 进行最终响应(60 万字符上下文)
- 通过 OpenRouter 的统一 API 访问两个模型
- 将 DeepSeek 的推理令牌注入到 Claude 的上下文中
-
智能对话管理:
- 使用文件修改时间检测活动对话
- 处理多个并发对话
- 自动过滤掉已结束的对话
- 支持在需要时清除上下文
-
优化参数:
- 模型特定的上下文限制:
- DeepSeek:50,000 个字符用于集中推理
- Claude:600,000 个字符用于全面响应
- 推荐设置:
- temperature: 0.7 用于平衡创造力
- top_p: 1.0 用于完整概率分布
- repetition_penalty: 1.0 用于防止重复
- 模型特定的上下文限制:
安装
通过 Smithery 安装
要通过 Smithery 自动为 Claude Desktop 安装 DeepSeek Thinking with Claude 3.5 Sonnet,请执行以下操作:
npx -y @smithery/cli install @newideas99/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP --client claude
手动安装
- 克隆存储库:
git clone https://github.com/yourusername/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP.git
cd Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP
- 安装依赖项:
npm install
- 创建一个包含您的 OpenRouter API 密钥的
.env
文件:
# 必需:DeepSeek 和 Claude 模型的 OpenRouter API 密钥
OPENROUTER_API_KEY=your_openrouter_api_key_here
# 可选:模型配置(显示以下默认值)
DEEPSEEK_MODEL=deepseek/deepseek-r1 # 用于推理的 DeepSeek 模型
CLAUDE_MODEL=anthropic/claude-3.5-sonnet:beta # 用于响应的 Claude 模型
- 构建服务器:
npm run build
与 Cline 一起使用
添加到您的 Cline MCP 设置(通常在 ~/.vscode/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json
中):
{
"mcpServers": {
"deepseek-claude": {
"command": "/path/to/node",
"args": ["/path/to/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP/build/index.js"],
"env": {
"OPENROUTER_API_KEY": "your_key_here"
},
"disabled": false,
"autoApprove": []
}
}
}
工具使用
服务器提供两个工具来生成和监控响应:
generate_response
用于生成响应的主要工具,具有以下参数:
{
"prompt": string, // 必需:问题或提示
"showReasoning"?: boolean, // 可选:显示 DeepSeek 的推理过程
"clearContext"?: boolean, // 可选:清除对话历史记录
"includeHistory"?: boolean // 可选:包含 Cline 对话历史记录
}
check_response_status
用于检查响应生成任务状态的工具:
{
"taskId": string // 必需:来自 generate_response 的任务 ID
}
响应轮询
服务器使用轮询机制来处理长时间运行的请求:
-
初始请求:
generate_response
立即返回一个任务 ID- 响应格式:
{"taskId": "uuid-here"}
-
状态检查:
- 使用
check_response_status
轮询任务状态 - 注意: 响应可能需要长达 60 秒才能完成
- 状态进展:pending → reasoning → responding → complete
- 使用
在 Cline 中的示例用法:
// 初始请求
const result = await use_mcp_tool({
server_name: "deepseek-claude",
tool_name: "generate_response",
arguments: {
prompt: "What is quantum computing?",
showReasoning: true
}
});
// 从结果中获取 taskId
const taskId = JSON.parse(result.content[0].text).taskId;
// 轮询状态(可能需要在 ~60 秒内进行多次检查)
const status = await use_mcp_tool({
server_name: "deepseek-claude",
tool_name: "check_response_status",
arguments: { taskId }
});
// 完成时的示例状态响应:
{
"status": "complete",
"reasoning": "...", // 如果 showReasoning 为 true
"response": "..." // 最终响应
}
开发
对于具有自动重建功能的开发:
npm run watch
工作原理
-
推理阶段 (DeepSeek R1):
- 使用 OpenRouter 的推理令牌功能
- 修改提示以在捕获推理时输出“done”
- 从响应元数据中提取推理
-
响应阶段 (Claude 3.5 Sonnet):
- 接收原始提示和 DeepSeek 的推理
- 生成包含推理的最终响应
- 维护对话上下文和历史记录
许可证
MIT 许可证 - 有关详细信息,请参见 LICENSE 文件。
鸣谢
基于 Skirano 的 RAT(检索增强思维)概念,该概念通过结构化推理和知识检索来增强 AI 响应。
此实现专门将 DeepSeek R1 的推理能力与 Claude 3.5 Sonnet 的响应生成通过 OpenRouter 的统一 API 相结合。
推荐服务器

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。
mcp-server-qdrant
这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。
AIO-MCP Server
🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。
Knowledge Graph Memory Server
为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。
Hyperbrowser
欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:
https://github.com/Streen9/react-mcp
react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。

any-chat-completions-mcp
将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。
Exa MCP Server
一个模型上下文协议服务器,它使像 Claude 这样的人工智能助手能够以安全和受控的方式,使用 Exa AI 搜索 API 执行实时网络搜索。