Deepseek R1 MCP Server

Deepseek R1 MCP Server

镜子 (jìng zi)

MCP-Mirror

研究与数据
访问服务器

README

Deepseek R1 MCP 服务器

smithery badge

Deepseek R1 语言模型的模型上下文协议 (MCP) 服务器实现。 Deepseek R1 是一款强大的语言模型,针对具有 8192 个 token 上下文窗口的推理任务进行了优化。

为什么选择 Node.js? 此实现使用 Node.js/TypeScript,因为它提供了与 MCP 服务器最稳定的集成。 Node.js SDK 提供更好的类型安全、错误处理以及与 Claude Desktop 的兼容性。

快速开始

通过 Smithery 安装

要通过 Smithery 为 Claude Desktop 自动安装 Deepseek R1,请执行以下操作:

npx -y @smithery/cli install @66julienmartin/mcp-server-deepseek_r1 --client claude

手动安装

# 克隆并安装
git clone https://github.com/66julienmartin/MCP-server-Deepseek_R1.git
cd deepseek-r1-mcp
npm install

# 设置环境
cp .env.example .env  # 然后添加您的 API 密钥

# 构建并运行
npm run build

前提条件

  • Node.js (v18 或更高版本)
  • npm
  • Claude Desktop
  • Deepseek API 密钥

模型选择

默认情况下,此服务器使用 deepseek-R1 模型。 如果您想改用 DeepSeek-V3,请修改 src/index.ts 中的模型名称:

// 对于 DeepSeek-R1 (默认)
model: "deepseek-reasoner"

// 对于 DeepSeek-V3
model: "deepseek-chat"

项目结构

deepseek-r1-mcp/
├── src/
│   ├── index.ts             # 主要服务器实现
├── build/                   # 编译后的文件
│   ├── index.js
├── LICENSE
├── README.md
├── package.json
├── package-lock.json
└── tsconfig.json

配置

  1. 创建一个 .env 文件:
DEEPSEEK_API_KEY=your-api-key-here
  1. 更新 Claude Desktop 配置:
{
  "mcpServers": {
    "deepseek_r1": {
      "command": "node",
      "args": ["/path/to/deepseek-r1-mcp/build/index.js"],
      "env": {
        "DEEPSEEK_API_KEY": "your-api-key"
      }
    }
  }
}

开发

npm run dev     # 监听模式
npm run build   # 构建用于生产

特性

  • 使用 Deepseek R1 进行高级文本生成(8192 个 token 上下文窗口)
  • 可配置的参数(max_tokens、temperature)
  • 具有详细错误消息的强大错误处理
  • 完整的 MCP 协议支持
  • Claude Desktop 集成
  • 支持 DeepSeek-R1 和 DeepSeek-V3 模型

API 用法

{
  "name": "deepseek_r1",
  "arguments": {
    "prompt": "Your prompt here",
    "max_tokens": 8192,    // 要生成的最大 token 数
    "temperature": 0.2     // 控制随机性
  }
}

温度参数

temperature 的默认值为 0.2。

Deepseek 建议根据您的具体用例设置 temperature

用例 温度 示例
编码 / 数学 0.0 代码生成、数学计算
数据清理 / 数据分析 1.0 数据处理任务
一般对话 1.3 聊天和对话
翻译 1.3 语言翻译
创意写作 / 诗歌 1.5 故事写作、诗歌生成

错误处理

服务器为常见问题提供详细的错误消息:

  • API 身份验证错误
  • 无效参数
  • 速率限制
  • 网络问题

贡献

欢迎贡献! 请随时提交 Pull Request。

许可证

MIT

推荐服务器

Crypto Price & Market Analysis MCP Server

Crypto Price & Market Analysis MCP Server

一个模型上下文协议 (MCP) 服务器,它使用 CoinCap API 提供全面的加密货币分析。该服务器通过一个易于使用的界面提供实时价格数据、市场分析和历史趋势。 (Alternative, slightly more formal and technical translation): 一个模型上下文协议 (MCP) 服务器,利用 CoinCap API 提供全面的加密货币分析服务。该服务器通过用户友好的界面,提供实时价格数据、市场分析以及历史趋势数据。

精选
TypeScript
MCP PubMed Search

MCP PubMed Search

用于搜索 PubMed 的服务器(PubMed 是一个免费的在线数据库,用户可以在其中搜索生物医学和生命科学文献)。 我是在 MCP 发布当天创建的,但当时正在度假。 我看到有人在您的数据库中发布了类似的服务器,但还是决定发布我的服务器。

精选
Python
mixpanel

mixpanel

连接到您的 Mixpanel 数据。 从 Mixpanel 分析查询事件、留存和漏斗数据。

精选
TypeScript
Sequential Thinking MCP Server

Sequential Thinking MCP Server

这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。

精选
Python
Nefino MCP Server

Nefino MCP Server

为大型语言模型提供访问德国可再生能源项目新闻和信息的能力,允许按地点、主题(太阳能、风能、氢能)和日期范围进行筛选。

官方
Python
Vectorize

Vectorize

将 MCP 服务器向量化以实现高级检索、私有深度研究、Anything-to-Markdown 文件提取和文本分块。

官方
JavaScript
Mathematica Documentation MCP server

Mathematica Documentation MCP server

一个服务器,通过 FastMCP 提供对 Mathematica 文档的访问,使用户能够从 Wolfram Mathematica 检索函数文档和列出软件包符号。

本地
Python
kb-mcp-server

kb-mcp-server

一个 MCP 服务器,旨在实现便携性、本地化、简易性和便利性,以支持对 txtai “all in one” 嵌入数据库进行基于语义/图的检索。任何 tar.gz 格式的 txtai 嵌入数据库都可以被加载。

本地
Python
Research MCP Server

Research MCP Server

这个服务器用作 MCP 服务器,与 Notion 交互以检索和创建调查数据,并与 Claude Desktop Client 集成以进行和审查调查。

本地
Python
Cryo MCP Server

Cryo MCP Server

一个API服务器,实现了模型补全协议(MCP),用于Cryo区块链数据提取,允许用户通过任何兼容MCP的客户端查询以太坊区块链数据。

本地
Python