DeepSeek MCP Server
实现了 DeepSeek 语言模型与 MCP 兼容应用程序的集成,提供诸如聊天完成、自定义模型选择和参数控制等功能,以增强基于语言的交互。
Tools
chat_completion
multi_turn_chat
README
DeepSeek MCP 服务器
一个用于 DeepSeek API 的模型上下文协议 (MCP) 服务器,允许将 DeepSeek 强大的语言模型与 MCP 兼容的应用程序(如 Claude Desktop)无缝集成。
匿名 使用 DeepSeek API -- 对方只能看到代理
<a href="https://glama.ai/mcp/servers/asht4rqltn"><img width="380" height="200" src="https://glama.ai/mcp/servers/asht4rqltn/badge" alt="DeepSeek Server MCP server" /></a>
安装
通过 Smithery 安装
要通过 Smithery 为 Claude Desktop 自动安装 DeepSeek MCP Server,请执行以下操作:
npx -y @smithery/cli install @dmontgomery40/deepseek-mcp-server --client claude
手动安装
npm install -g deepseek-mcp-server
与 Claude Desktop 一起使用
将以下内容添加到您的 claude_desktop_config.json:
{
"mcpServers": {
"deepseek": {
"command": "npx",
"args": [
"-y",
"deepseek-mcp-server"
],
"env": {
"DEEPSEEK_API_KEY": "your-api-key"
}
}
}
}
特性
注意:服务器通过将这些自然语言请求映射到适当的配置更改来智能地处理它们。您还可以查询当前设置和可用模型:
- 用户:“有哪些可用模型?”
- 响应:通过模型资源显示可用模型及其功能的列表。
- 用户:“我有哪些配置选项?”
- 响应:通过 model-config 资源列出所有可用的配置选项。
- 用户:“当前的温度设置是多少?”
- 响应:显示当前的温度设置。
- 用户:“开始一个多轮对话。使用以下设置:model: 'deepseek-chat',不要太有创造力,并允许 8000 个 tokens。”
- 响应:使用指定的设置开始一个多轮对话。
如果 R1 宕机,自动模型回退
- 如果主模型 (R1) 宕机(在服务器中称为
deepseek-reasoner),服务器将自动尝试使用 v3(在服务器中称为deepseek-chat)
注意:您也可以随时切换,只需给出您的提示并说“使用
deepseek-reasoner”或“使用deepseek-chat”
- 建议将 V3 用于通用目的,而 R1 建议用于更技术和复杂的查询,这主要是由于速度和 token 使用量
可用模型和配置的资源发现:
- 自定义模型选择
- 温度控制 (0.0 - 2.0)
- 最大 token 限制
- Top P 采样 (0.0 - 1.0)
- Presence penalty (-2.0 - 2.0)
- Frequency penalty (-2.0 - 2.0)
增强的对话功能
多轮对话支持:
- 维护跨交换的完整消息历史记录和上下文
- 在整个对话过程中保留配置设置
- 自动处理复杂的对话流程和后续链
此功能对于以下两个关键用例特别有价值:
-
训练和微调: 由于 DeepSeek 是开源的,因此许多用户都在训练自己的版本。多轮支持提供了正确格式化的对话数据,这对于训练高质量的对话模型至关重要。
-
复杂交互: 对于生产用途,这有助于管理更长的对话,其中上下文至关重要:
- 多步骤推理问题
- 交互式故障排除会话
- 详细的技术讨论
- 任何早期消息中的上下文会影响后续响应的场景
该实现处理幕后的所有上下文管理和消息格式,让您专注于实际交互,而不是维护对话状态的技术细节。
使用 MCP Inspector 进行测试
您可以使用 MCP Inspector 工具在本地测试服务器:
-
构建服务器:
npm run build -
使用 MCP Inspector 运行服务器:
# 确保指定已构建服务器的完整路径 npx @modelcontextprotocol/inspector node ./build/index.js
检查器将在您的浏览器中打开,并通过 stdio 传输连接到服务器。您可以:
- 查看可用工具
- 使用不同的参数测试聊天完成
- 调试服务器响应
- 监控服务器性能
注意:服务器默认使用 DeepSeek 的 R1 模型 (deepseek-reasoner),该模型为推理和一般任务提供最先进的性能。
许可证
MIT
推荐服务器
VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。
AIO-MCP Server
🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。
Knowledge Graph Memory Server
为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。
Hyperbrowser
欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:
https://github.com/Streen9/react-mcp
react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。
any-chat-completions-mcp
将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。
Exa MCP Server
一个模型上下文协议服务器,它使像 Claude 这样的人工智能助手能够以安全和受控的方式,使用 Exa AI 搜索 API 执行实时网络搜索。