Qwen Max MCP Server
使用 Qwen Max 语言模型启用文本生成,具有可配置的参数,并通过模型上下文协议 (MCP) 与 Claude Desktop 无缝集成。
Tools
qwen_max
Generate text using Qwen Max model
README
Qwen Max MCP 服务器
一个用于 Qwen Max 语言模型的模型上下文协议 (MCP) 服务器实现。
<a href="https://glama.ai/mcp/servers/1v7po9oa9w"><img width="380" height="200" src="https://glama.ai/mcp/servers/1v7po9oa9w/badge" alt="Qwen Max Server MCP server" /></a>
为什么选择 Node.js? 此实现使用 Node.js/TypeScript,因为它目前与其他语言(如 Python)相比,提供了与 MCP 服务器最稳定和可靠的集成。Node.js 的 MCP SDK 提供了更好的类型安全、错误处理以及与 Claude Desktop 的兼容性。
前提条件
- Node.js (v18 或更高版本)
- npm
- Claude Desktop
- Dashscope API 密钥
安装
通过 Smithery 安装
要通过 Smithery 为 Claude Desktop 自动安装 Qwen Max MCP 服务器,请执行以下操作:
npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client claude
手动安装
git clone https://github.com/66julienmartin/mcp-server-qwen-max.git
cd Qwen_Max
npm install
模型选择
默认情况下,此服务器使用 Qwen-Max 模型。 Qwen 系列提供几种具有不同功能的商业模型:
Qwen-Max
提供最佳的推理性能,尤其适用于复杂和多步骤的任务。
上下文窗口:32,768 个 tokens
- 最大输入:30,720 个 tokens
- 最大输出:8,192 个 tokens
- 定价:$0.0016/1K tokens (输入), $0.0064/1K tokens (输出)
- 免费额度:100 万 tokens
可用版本:
- qwen-max (稳定版)
- qwen-max-latest (最新版)
- qwen-max-2025-01-25 (快照版,也称为 qwen-max-0125 或 Qwen2.5-Max)
Qwen-Plus
性能、速度和成本的平衡组合,非常适合中等复杂度的任务。
上下文窗口:131,072 个 tokens
- 最大输入:129,024 个 tokens
- 最大输出:8,192 个 tokens
- 定价:$0.0004/1K tokens (输入), $0.0012/1K tokens (输出)
- 免费额度:100 万 tokens
可用版本:
- qwen-plus (稳定版)
- qwen-plus-latest (最新版)
- qwen-plus-2025-01-25 (快照版,也称为 qwen-plus-0125)
Qwen-Turbo
速度快,成本低,适合简单的任务。
- 上下文窗口:1,000,000 个 tokens
- 最大输入:1,000,000 个 tokens
- 最大输出:8,192 个 tokens
- 定价:$0.00005/1K tokens (输入), $0.0002/1K tokens (输出)
- 免费额度:100 万 tokens
可用版本:
- qwen-turbo (稳定版)
- qwen-turbo-latest (最新版)
- qwen-turbo-2024-11-01 (快照版,也称为 qwen-turbo-1101)
要修改模型,请更新 src/index.ts 中的模型名称:
// 对于 Qwen-Max (默认)
model: "qwen-max"
// 对于 Qwen-Plus
model: "qwen-plus"
// 对于 Qwen-Turbo
model: "qwen-turbo"
有关可用模型的更多详细信息,请访问阿里云模型文档 https://www.alibabacloud.com/help/en/model-studio/getting-started/models?spm=a3c0i.23458820.2359477120.1.446c7d3f9LT0FY。
项目结构
qwen-max-mcp/
├── src/
│ ├── index.ts # 主要服务器实现
├── build/ # 编译后的文件
│ ├── index.js
├── LICENSE
├── README.md
├── package.json
├── package-lock.json
└── tsconfig.json
配置
- 在项目根目录中创建一个
.env文件:
DASHSCOPE_API_KEY=your-api-key-here
- 更新 Claude Desktop 配置:
{
"mcpServers": {
"qwen_max": {
"command": "node",
"args": ["/path/to/Qwen_Max/build/index.js"],
"env": {
"DASHSCOPE_API_KEY": "your-api-key-here"
}
}
}
}
开发
npm run dev # 监听模式
npm run build # 构建
npm run start # 启动服务器
功能特性
- 使用 Qwen 模型生成文本
- 可配置的参数 (max_tokens, temperature)
- 错误处理
- MCP 协议支持
- Claude Desktop 集成
- 支持所有 Qwen 商业模型 (Max, Plus, Turbo)
- 广泛的 token 上下文窗口
API 用法
// 工具调用示例
{
"name": "qwen_max",
"arguments": {
"prompt": "Your prompt here",
"max_tokens": 8192,
"temperature": 0.7
}
}
Temperature 参数
temperature 参数控制模型输出的随机性:
较低的值 (0.0-0.7):更集中和确定性的输出 较高的值 (0.7-1.0):更具创造性和多样性的输出
按任务推荐的 temperature 设置:
代码生成:0.0-0.3 技术写作:0.3-0.5 通用任务:0.7 (默认) 创意写作:0.8-1.0
错误处理
服务器为常见问题提供详细的错误消息:
API 身份验证错误 无效参数 速率限制 网络问题 超出 Token 限制 模型可用性问题
贡献
欢迎贡献!请随时提交 Pull Request。
许可证
MIT
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
mcp-server-qdrant
这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。
AIO-MCP Server
🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。
https://github.com/Streen9/react-mcp
react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。
MCP Atlassian
适用于 Atlassian Cloud 产品(Confluence 和 Jira)的 Model Context Protocol (MCP) 服务器。此集成专为 Atlassian Cloud 实例设计,不支持 Atlassian Server 或 Data Center 部署。
any-chat-completions-mcp
将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。
MySQL MCP Server
允许人工智能助手通过受控界面列出表格、读取数据和执行 SQL 查询,从而使数据库探索和分析更安全、更有条理。
browser-use MCP server
一个由人工智能驱动的浏览器自动化服务器,它实现了模型上下文协议,从而能够使用自然语言控制网页浏览器,以执行诸如导航、表单填写和视觉交互等任务。
mcp-codex-keeper
作为开发知识的守护者,为 AI 助手提供精心策划的最新文档和最佳实践访问权限。