Deepseek Thinker MCP Server
为启用 MCP 的 AI 客户端提供推理内容,通过与 Deepseek 的 API 或本地 Ollama 服务器交互,实现专注的推理和思维过程可视化。
Tools
get-deepseek-thinker
think with deepseek
README
Deepseek Thinker MCP 服务器
一个 MCP (模型上下文协议) 提供者,向支持 MCP 的 AI 客户端(如 Claude Desktop)提供 Deepseek 推理内容。 支持从 Deepseek API 服务或本地 Ollama 服务器访问 Deepseek 的思考过程。
<a href="https://glama.ai/mcp/servers/d7spzsfuwz"><img width="380" height="200" src="https://glama.ai/mcp/servers/d7spzsfuwz/badge" alt="Deepseek Thinker Server MCP server" /></a>
核心功能
-
🤖 双模式支持
- 支持 OpenAI API 模式
- 支持 Ollama 本地模式
-
🎯 专注推理
- 捕获 Deepseek 的思考过程
- 提供推理输出
可用工具
get-deepseek-thinker
- 描述: 使用 Deepseek 模型执行推理
- 输入参数:
originPrompt(string): 用户的原始提示
- 返回: 包含推理过程的结构化文本响应
环境配置
OpenAI API 模式
设置以下环境变量:
API_KEY=<您的 OpenAI API 密钥>
BASE_URL=<API 基础 URL>
Ollama 模式
设置以下环境变量:
USE_OLLAMA=true
用法
与 AI 客户端集成,如 Claude Desktop
将以下配置添加到您的 claude_desktop_config.json:
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "<您的 API 密钥>",
"BASE_URL": "<您的基础 URL>"
}
}
}
}
使用 Ollama 模式
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"USE_OLLAMA": "true"
}
}
}
}
本地服务器配置
{
"mcpServers": {
"deepseek-thinker": {
"command": "node",
"args": [
"/your-path/deepseek-thinker-mcp/build/index.js"
],
"env": {
"API_KEY": "<您的 API 密钥>",
"BASE_URL": "<您的基础 URL>"
}
}
}
}
开发设置
# 安装依赖
npm install
# 构建项目
npm run build
# 运行服务
node build/index.js
常见问题解答
出现类似这样的响应:“MCP error -32001: Request timed out”
当 Deepseek API 响应太慢或推理内容输出太长,导致 MCP 服务器超时时,会发生此错误。
技术栈
- TypeScript
- @modelcontextprotocol/sdk
- OpenAI API
- Ollama
- Zod (参数验证)
许可证
本项目采用 MIT 许可证。 有关详细信息,请参见 LICENSE 文件。
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。
mcp-server-qdrant
这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。
AIO-MCP Server
🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。
Knowledge Graph Memory Server
为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。
Hyperbrowser
欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:
https://github.com/Streen9/react-mcp
react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。
MCP Atlassian
适用于 Atlassian Cloud 产品(Confluence 和 Jira)的 Model Context Protocol (MCP) 服务器。此集成专为 Atlassian Cloud 实例设计,不支持 Atlassian Server 或 Data Center 部署。