DeepSeek MCP Server

DeepSeek MCP Server

一个服务器,通过集成 DeepSeek R1 的高级推理引擎来增强 Claude 的推理能力,从而解决复杂的推理任务。

远程shell执行
高级AI推理
编程文档访问
AI记忆系统
AI内容生成
AI集成系统
数据与应用分析
访问服务器

Tools

reason

Process a query using DeepSeek's R1 reasoning engine and prepare it for integration with DeepSeek V3 or claude. DeepSeek R1 leverages advanced reasoning capabilities that naturally evolved from large-scale reinforcement learning, enabling sophisticated reasoning behaviors. The output is enclosed within `<ant_thinking>` tags to align with V3 or Claude's thought processing framework. Args: query (dict): Contains the following keys: - context (str): Optional background information for the query. - question (str): The specific question to be analyzed. Returns: str: The reasoning output from DeepSeek, formatted with `<ant_thinking>` tags for seamless use with V3 or Claude.

README

🧠 DeepSeek MCP 服务器

DeepSeek MCP 服务器

🚀 特性

通过集成 DeepSeek R1 的高级推理引擎,增强 Claude 的推理能力。该服务器使 Claude 能够利用 deepseek r1 模型的推理能力来处理复杂的推理任务。

  • DeepSeek R1(大脑)充当高级推理规划器:

    • 规划多步骤逻辑分析策略
    • 构建认知框架
    • 评估置信度和不确定性
    • 监控推理质量
    • 检测边缘情况和偏差
  • Claude(执行者)执行推理计划:

    • 执行结构化分析
    • 实施计划策略
    • 交付最终响应
    • 处理用户交互
    • 管理系统集成

🚀 特性

高级推理能力

  • 支持复杂的多步骤推理任务。
  • 专为生成周全的响应而设计,具有精确性和效率。
  • 使用无问芯穹的API

完整设置指南

前提条件

  • Python 3.12 或更高版本
  • uv 包管理器
  • INFINI_API_KEY 用于 DeepSeek (在 无问芯穹 注册)
  1. 克隆存储库

    git clone https://github.com/moyu6027/deepseek-MCP-server.git
    cd deepseek-MCP-server
    
  2. 确保 UV 已设置好

    • Windows: 在 PowerShell 中运行以下命令:
      powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"
      
    • Mac: 运行以下命令:
      curl -LsSf https://astral.sh/uv/install.sh | sh
      
  3. 创建虚拟环境

    uv venv
    source .venv/bin/activate
    
  4. 安装依赖

    uv add "mcp[cli]" httpx
    
  5. 设置 API 密钥

    echo "INFINI_API_KEY=your_key_here" > .env
    
  6. 安装服务器

    mcp install server.py -f .env
    
  7. 配置 MCP 服务器 编辑 claude_desktop_config.json 文件,包含以下配置:

    {
        "mcpServers": {
            "deepseek-mcp": {
                "command": "uv",
                "args": [
                    "--directory",
                    "PATH_TO_DEEPSEEK_MCP_SERVER",
                    "run",
                    "server.py"
                ]
            }
        }
    }
    
  8. 运行服务器

    uv run server.py
    

🛠 使用方法

启动服务器

当与 Claude Desktop 一起使用时,服务器会自动启动。 确保 Claude Desktop 配置为检测 MCP 服务器。

示例工作流程

  1. Claude 收到一个需要高级推理的查询。
  2. 该查询被转发到 DeepSeek R1 进行处理。
  3. DeepSeek R1 返回用 <ant_thinking> 标签包裹的结构化推理。
  4. Claude 将推理集成到其最终响应中。

📄 许可证

本项目根据 MIT 许可证获得许可。 有关详细信息,请参阅 LICENSE 文件。


推荐服务器

Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
VeyraX

VeyraX

一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

官方
精选
本地
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选
mcp-server-qdrant

mcp-server-qdrant

这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。

官方
精选
AIO-MCP Server

AIO-MCP Server

🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。

精选
本地
Knowledge Graph Memory Server

Knowledge Graph Memory Server

为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。

精选
本地
Hyperbrowser

Hyperbrowser

欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:

精选
本地
https://github.com/Streen9/react-mcp

https://github.com/Streen9/react-mcp

react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。

精选
本地