Deepseek R1 MCP Server
一个 Node.js/TypeScript 实现的 Model Context Protocol (模型上下文协议) 服务器,专为 Deepseek R1 语言模型设计,针对大上下文窗口的推理任务进行了优化,并与 Claude Desktop 完全集成。
Tools
deepseek_r1
Generate text using DeepSeek R1 model
README
Deepseek R1 MCP 服务器
Deepseek R1 语言模型的模型上下文协议 (MCP) 服务器实现。 Deepseek R1 是一款强大的语言模型,针对具有 8192 个 token 上下文窗口的推理任务进行了优化。
为什么选择 Node.js? 此实现使用 Node.js/TypeScript,因为它提供了与 MCP 服务器最稳定的集成。 Node.js SDK 提供了更好的类型安全、错误处理以及与 Claude Desktop 的兼容性。
<a href="https://glama.ai/mcp/servers/qui5thpyvu"><img width="380" height="200" src="https://glama.ai/mcp/servers/qui5thpyvu/badge" alt="Deepseek R1 Server MCP server" /></a>
快速开始
手动安装
# 克隆并安装
git clone https://github.com/66julienmartin/MCP-server-Deepseek_R1.git
cd deepseek-r1-mcp
npm install
# 设置环境
cp .env.example .env # 然后添加你的 API 密钥
# 构建并运行
npm run build
前提条件
- Node.js (v18 或更高版本)
- npm
- Claude Desktop
- Deepseek API 密钥
模型选择
默认情况下,此服务器使用 deepseek-R1 模型。 如果你想使用 DeepSeek-V3,请修改 src/index.ts
中的模型名称:
// 对于 DeepSeek-R1 (默认)
model: "deepseek-reasoner"
// 对于 DeepSeek-V3
model: "deepseek-chat"
项目结构
deepseek-r1-mcp/
├── src/
│ ├── index.ts # 主要服务器实现
├── build/ # 编译后的文件
│ ├── index.js
├── LICENSE
├── README.md
├── package.json
├── package-lock.json
└── tsconfig.json
配置
- 创建一个
.env
文件:
DEEPSEEK_API_KEY=your-api-key-here
- 更新 Claude Desktop 配置:
{
"mcpServers": {
"deepseek_r1": {
"command": "node",
"args": ["/path/to/deepseek-r1-mcp/build/index.js"],
"env": {
"DEEPSEEK_API_KEY": "your-api-key"
}
}
}
}
开发
npm run dev # 监听模式
npm run build # 构建用于生产环境
功能特性
- 使用 Deepseek R1 进行高级文本生成 (8192 token 上下文窗口)
- 可配置的参数 (max_tokens, temperature)
- 强大的错误处理,提供详细的错误消息
- 完整的 MCP 协议支持
- Claude Desktop 集成
- 支持 DeepSeek-R1 和 DeepSeek-V3 模型
API 用法
{
"name": "deepseek_r1",
"arguments": {
"prompt": "Your prompt here",
"max_tokens": 8192, // 要生成的最大 token 数
"temperature": 0.2 // 控制随机性
}
}
温度参数
temperature
的默认值为 0.2。
Deepseek 建议根据你的具体用例设置 temperature
:
用例 | 温度 | 示例 |
---|---|---|
编码 / 数学 | 0.0 | 代码生成,数学计算 |
数据清洗 / 数据分析 | 1.0 | 数据处理任务 |
一般对话 | 1.3 | 聊天和对话 |
翻译 | 1.3 | 语言翻译 |
创意写作 / 诗歌 | 1.5 | 故事写作,诗歌生成 |
错误处理
服务器为常见问题提供详细的错误消息:
- API 身份验证错误
- 无效参数
- 速率限制
- 网络问题
贡献
欢迎贡献! 请随时提交 Pull Request。
许可证
MIT
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。
mcp-server-qdrant
这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。
AIO-MCP Server
🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。
https://github.com/Streen9/react-mcp
react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。
MCP Atlassian
适用于 Atlassian Cloud 产品(Confluence 和 Jira)的 Model Context Protocol (MCP) 服务器。此集成专为 Atlassian Cloud 实例设计,不支持 Atlassian Server 或 Data Center 部署。

any-chat-completions-mcp
将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。
Exa MCP Server
一个模型上下文协议服务器,它使像 Claude 这样的人工智能助手能够以安全和受控的方式,使用 Exa AI 搜索 API 执行实时网络搜索。