Deepseek Thinker MCP Server

Deepseek Thinker MCP Server

为启用 MCP 的 AI 客户端提供推理内容,通过与 Deepseek 的 API 或本地 Ollama 服务器交互,实现专注的推理和思维过程可视化。

远程shell执行
高级AI推理
AI记忆系统
数据库交互
AI集成系统
访问服务器

Tools

get-deepseek-thinker

think with deepseek

README

Deepseek Thinker MCP 服务器

smithery badge

一个 MCP (模型上下文协议) 提供者,向支持 MCP 的 AI 客户端(如 Claude Desktop)提供 Deepseek 推理内容。 支持从 Deepseek API 服务或本地 Ollama 服务器访问 Deepseek 的思考过程。

<a href="https://glama.ai/mcp/servers/d7spzsfuwz"><img width="380" height="200" src="https://glama.ai/mcp/servers/d7spzsfuwz/badge" alt="Deepseek Thinker Server MCP server" /></a>

核心功能

  • 🤖 双模式支持

    • 支持 OpenAI API 模式
    • 支持 Ollama 本地模式
  • 🎯 专注推理

    • 捕获 Deepseek 的思考过程
    • 提供推理输出

可用工具

get-deepseek-thinker

  • 描述: 使用 Deepseek 模型执行推理
  • 输入参数:
    • originPrompt (string): 用户的原始提示
  • 返回: 包含推理过程的结构化文本响应

环境配置

OpenAI API 模式

设置以下环境变量:

API_KEY=<您的 OpenAI API 密钥>
BASE_URL=<API 基础 URL>

Ollama 模式

设置以下环境变量:

USE_OLLAMA=true

用法

与 AI 客户端集成,如 Claude Desktop

将以下配置添加到您的 claude_desktop_config.json

{
  "mcpServers": {
    "deepseek-thinker": {
      "command": "npx",
      "args": [
        "-y",
        "deepseek-thinker-mcp"
      ],
      "env": {
        "API_KEY": "<您的 API 密钥>",
        "BASE_URL": "<您的基础 URL>"
      }
    }
  }
}

使用 Ollama 模式

{
  "mcpServers": {
    "deepseek-thinker": {
      "command": "npx",
      "args": [
        "-y",
        "deepseek-thinker-mcp"
      ],
      "env": {
        "USE_OLLAMA": "true"
      }
    }
  }
}

本地服务器配置

{
  "mcpServers": {
    "deepseek-thinker": {
      "command": "node",
      "args": [
        "/your-path/deepseek-thinker-mcp/build/index.js"
      ],
      "env": {
        "API_KEY": "<您的 API 密钥>",
        "BASE_URL": "<您的基础 URL>"
      }
    }
  }
}

开发设置

# 安装依赖
npm install

# 构建项目
npm run build

# 运行服务
node build/index.js

常见问题解答

出现类似这样的响应:“MCP error -32001: Request timed out”

当 Deepseek API 响应太慢或推理内容输出太长,导致 MCP 服务器超时时,会发生此错误。

技术栈

  • TypeScript
  • @modelcontextprotocol/sdk
  • OpenAI API
  • Ollama
  • Zod (参数验证)

许可证

本项目采用 MIT 许可证。 有关详细信息,请参见 LICENSE 文件。

推荐服务器

Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选
mcp-server-qdrant

mcp-server-qdrant

这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。

官方
精选
AIO-MCP Server

AIO-MCP Server

🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。

精选
本地
Knowledge Graph Memory Server

Knowledge Graph Memory Server

为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。

精选
本地
Hyperbrowser

Hyperbrowser

欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:

精选
本地
https://github.com/Streen9/react-mcp

https://github.com/Streen9/react-mcp

react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。

精选
本地
MCP Atlassian

MCP Atlassian

适用于 Atlassian Cloud 产品(Confluence 和 Jira)的 Model Context Protocol (MCP) 服务器。此集成专为 Atlassian Cloud 实例设计,不支持 Atlassian Server 或 Data Center 部署。

精选