mcp-server-deepseek

mcp-server-deepseek

MCP 服务器为 LLM 提供对 DeepSeek-R1 推理能力的访问。

tizee

研究与数据
访问服务器

README

mcp-server-deepseek

一个 模型上下文协议 (MCP) 服务器,提供对 DeepSeek-R1 推理能力的访问,允许非推理模型生成具有增强思维的更好响应。

概述

此服务器充当 LLM 应用程序和 DeepSeek 推理能力之间的桥梁。它通过 MCP 工具公开 DeepSeek-R1 的推理内容,该工具可被任何 MCP 兼容的客户端使用。

该服务器特别适用于:

  • 增强来自没有原生推理能力的模型的响应
  • 访问 DeepSeek-R1 的思维过程以解决复杂问题
  • 将结构化推理添加到支持 MCP 的 Claude 或其他 LLM

特性

  • 访问 DeepSeek-R1: 连接到 DeepSeek 的 API 以利用他们的推理模型
  • 结构化思维: 以结构化的 <thinking> 格式返回推理
  • 与 MCP 集成: 完全兼容模型上下文协议
  • 错误处理: 具有详细日志记录的强大错误处理

安装

前提条件

  • Python 3.13 或更高版本
  • DeepSeek 的 API 密钥

设置

  1. 克隆存储库:

    git clone https://github.com/yourusername/mcp-server-deepseek.git
    cd mcp-server-deepseek
    
  2. 创建一个虚拟环境:

    python -m venv venv
    source venv/bin/activate  # 在 Windows 上:venv\Scripts\activate
    
  3. 安装软件包:

    pip install -e .
    
  4. 使用您的 DeepSeek API 凭据创建一个 .env 文件:

    cp .env.example .env
    
  5. 使用您的 API 密钥和模型详细信息编辑 .env 文件:

    MCP_SERVER_DEEPSEEK_MODEL_NAME=deepseek-reasoner
    MCP_SERVER_DEEPSEEK_API_KEY=your_api_key_here
    MCP_SERVER_DEEPSEEK_API_BASE_URL=https://api.deepseek.com
    

用法

运行服务器

您可以直接运行服务器:

mcp-server-deepseek

或者使用带有 MCP Inspector 的开发模式:

make dev

MCP 工具

服务器公开一个工具:

think_with_deepseek_r1

此工具将提示发送到 DeepSeek-R1 并返回其推理内容。

参数:

  • prompt (字符串): 要处理的完整用户提示

返回:

  • 包含 DeepSeek-R1 推理的字符串,包含在 <thinking> 标签中

使用示例

当与支持 MCP 的 Claude 或其他 LLM 一起使用时,您可以通过调用该工具来触发思维过程:

请使用 think_with_deepseek_r1 工具,提示如下:
"如何优化用于时间序列预测的神经网络?"

开发

测试

对于开发和测试,请使用 MCP Inspector:

npx @modelcontextprotocol/inspector uv run mcp-server-deepseek

日志记录

日志存储在 ~/.cache/mcp-server-deepseek/server.log

可以使用 LOG_LEVEL 环境变量配置日志级别(默认为 DEBUG)。

故障排除

常见问题

  • API 密钥问题: 确保您的 DeepSeek API 密钥在 .env 文件中正确设置
  • 超时错误: 复杂的提示可能会导致超时。 尝试简化您的提示
  • 缺少推理: 某些查询可能不会生成推理内容。 尝试重新措辞

错误日志

检查日志以获取详细的错误消息:

cat ~/.cache/mcp-server-deepseek/server.log

许可证

MIT

贡献

欢迎贡献! 请随时提交 Pull Request。

致谢

推荐服务器

Crypto Price & Market Analysis MCP Server

Crypto Price & Market Analysis MCP Server

一个模型上下文协议 (MCP) 服务器,它使用 CoinCap API 提供全面的加密货币分析。该服务器通过一个易于使用的界面提供实时价格数据、市场分析和历史趋势。 (Alternative, slightly more formal and technical translation): 一个模型上下文协议 (MCP) 服务器,利用 CoinCap API 提供全面的加密货币分析服务。该服务器通过用户友好的界面,提供实时价格数据、市场分析以及历史趋势数据。

精选
TypeScript
MCP PubMed Search

MCP PubMed Search

用于搜索 PubMed 的服务器(PubMed 是一个免费的在线数据库,用户可以在其中搜索生物医学和生命科学文献)。 我是在 MCP 发布当天创建的,但当时正在度假。 我看到有人在您的数据库中发布了类似的服务器,但还是决定发布我的服务器。

精选
Python
mixpanel

mixpanel

连接到您的 Mixpanel 数据。 从 Mixpanel 分析查询事件、留存和漏斗数据。

精选
TypeScript
Sequential Thinking MCP Server

Sequential Thinking MCP Server

这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。

精选
Python
Nefino MCP Server

Nefino MCP Server

为大型语言模型提供访问德国可再生能源项目新闻和信息的能力,允许按地点、主题(太阳能、风能、氢能)和日期范围进行筛选。

官方
Python
Vectorize

Vectorize

将 MCP 服务器向量化以实现高级检索、私有深度研究、Anything-to-Markdown 文件提取和文本分块。

官方
JavaScript
Mathematica Documentation MCP server

Mathematica Documentation MCP server

一个服务器,通过 FastMCP 提供对 Mathematica 文档的访问,使用户能够从 Wolfram Mathematica 检索函数文档和列出软件包符号。

本地
Python
kb-mcp-server

kb-mcp-server

一个 MCP 服务器,旨在实现便携性、本地化、简易性和便利性,以支持对 txtai “all in one” 嵌入数据库进行基于语义/图的检索。任何 tar.gz 格式的 txtai 嵌入数据库都可以被加载。

本地
Python
Research MCP Server

Research MCP Server

这个服务器用作 MCP 服务器,与 Notion 交互以检索和创建调查数据,并与 Claude Desktop Client 集成以进行和审查调查。

本地
Python
Cryo MCP Server

Cryo MCP Server

一个API服务器,实现了模型补全协议(MCP),用于Cryo区块链数据提取,允许用户通过任何兼容MCP的客户端查询以太坊区块链数据。

本地
Python