Qwen Max MCP Server

Qwen Max MCP Server

使用 Qwen Max 语言模型启用文本生成,具有可配置的参数,并通过模型上下文协议 (MCP) 与 Claude Desktop 无缝集成。

AI集成系统
访问服务器

Tools

qwen_max

Generate text using Qwen Max model

README

Qwen Max MCP 服务器

一个用于 Qwen Max 语言模型的模型上下文协议 (MCP) 服务器实现。

smithery badge

<a href="https://glama.ai/mcp/servers/1v7po9oa9w"><img width="380" height="200" src="https://glama.ai/mcp/servers/1v7po9oa9w/badge" alt="Qwen Max Server MCP server" /></a>

为什么选择 Node.js? 此实现使用 Node.js/TypeScript,因为它目前与其他语言(如 Python)相比,提供了与 MCP 服务器最稳定和可靠的集成。Node.js 的 MCP SDK 提供了更好的类型安全、错误处理以及与 Claude Desktop 的兼容性。

前提条件

  • Node.js (v18 或更高版本)
  • npm
  • Claude Desktop
  • Dashscope API 密钥

安装

通过 Smithery 安装

要通过 Smithery 为 Claude Desktop 自动安装 Qwen Max MCP 服务器,请执行以下操作:

npx -y @smithery/cli install @66julienmartin/mcp-server-qwen_max --client claude

手动安装

git clone https://github.com/66julienmartin/mcp-server-qwen-max.git
cd Qwen_Max
npm install

模型选择

默认情况下,此服务器使用 Qwen-Max 模型。 Qwen 系列提供几种具有不同功能的商业模型:

Qwen-Max

提供最佳的推理性能,尤其适用于复杂和多步骤的任务。

上下文窗口:32,768 个 tokens

  • 最大输入:30,720 个 tokens
  • 最大输出:8,192 个 tokens
  • 定价:$0.0016/1K tokens (输入), $0.0064/1K tokens (输出)
  • 免费额度:100 万 tokens

可用版本:

  • qwen-max (稳定版)
  • qwen-max-latest (最新版)
  • qwen-max-2025-01-25 (快照版,也称为 qwen-max-0125 或 Qwen2.5-Max)

Qwen-Plus

性能、速度和成本的平衡组合,非常适合中等复杂度的任务。

上下文窗口:131,072 个 tokens

  • 最大输入:129,024 个 tokens
  • 最大输出:8,192 个 tokens
  • 定价:$0.0004/1K tokens (输入), $0.0012/1K tokens (输出)
  • 免费额度:100 万 tokens

可用版本:

  • qwen-plus (稳定版)
  • qwen-plus-latest (最新版)
  • qwen-plus-2025-01-25 (快照版,也称为 qwen-plus-0125)

Qwen-Turbo

速度快,成本低,适合简单的任务。

  • 上下文窗口:1,000,000 个 tokens
  • 最大输入:1,000,000 个 tokens
  • 最大输出:8,192 个 tokens
  • 定价:$0.00005/1K tokens (输入), $0.0002/1K tokens (输出)
  • 免费额度:100 万 tokens

可用版本:

  • qwen-turbo (稳定版)
  • qwen-turbo-latest (最新版)
  • qwen-turbo-2024-11-01 (快照版,也称为 qwen-turbo-1101)

要修改模型,请更新 src/index.ts 中的模型名称:

// 对于 Qwen-Max (默认)
model: "qwen-max"

// 对于 Qwen-Plus
model: "qwen-plus"

// 对于 Qwen-Turbo
model: "qwen-turbo"

有关可用模型的更多详细信息,请访问阿里云模型文档 https://www.alibabacloud.com/help/en/model-studio/getting-started/models?spm=a3c0i.23458820.2359477120.1.446c7d3f9LT0FY。

项目结构

qwen-max-mcp/
├── src/
│   ├── index.ts             # 主要服务器实现
├── build/                   # 编译后的文件
│   ├── index.js
├── LICENSE
├── README.md
├── package.json
├── package-lock.json
└── tsconfig.json

配置

  1. 在项目根目录中创建一个 .env 文件:
DASHSCOPE_API_KEY=your-api-key-here
  1. 更新 Claude Desktop 配置:
{
  "mcpServers": {
    "qwen_max": {
      "command": "node",
      "args": ["/path/to/Qwen_Max/build/index.js"],
      "env": {
        "DASHSCOPE_API_KEY": "your-api-key-here"
      }
    }
  }
}

开发

npm run dev     # 监听模式
npm run build   # 构建
npm run start   # 启动服务器

功能特性

  • 使用 Qwen 模型生成文本
  • 可配置的参数 (max_tokens, temperature)
  • 错误处理
  • MCP 协议支持
  • Claude Desktop 集成
  • 支持所有 Qwen 商业模型 (Max, Plus, Turbo)
  • 广泛的 token 上下文窗口

API 用法

// 工具调用示例
{
  "name": "qwen_max",
  "arguments": {
    "prompt": "Your prompt here",
    "max_tokens": 8192,
    "temperature": 0.7
  }
}

Temperature 参数

temperature 参数控制模型输出的随机性:

较低的值 (0.0-0.7):更集中和确定性的输出 较高的值 (0.7-1.0):更具创造性和多样性的输出

按任务推荐的 temperature 设置:

代码生成:0.0-0.3 技术写作:0.3-0.5 通用任务:0.7 (默认) 创意写作:0.8-1.0

错误处理

服务器为常见问题提供详细的错误消息:

API 身份验证错误 无效参数 速率限制 网络问题 超出 Token 限制 模型可用性问题

贡献

欢迎贡献!请随时提交 Pull Request。

许可证

MIT

推荐服务器

Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
mcp-server-qdrant

mcp-server-qdrant

这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。

官方
精选
AIO-MCP Server

AIO-MCP Server

🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。

精选
本地
https://github.com/Streen9/react-mcp

https://github.com/Streen9/react-mcp

react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。

精选
本地
MCP Atlassian

MCP Atlassian

适用于 Atlassian Cloud 产品(Confluence 和 Jira)的 Model Context Protocol (MCP) 服务器。此集成专为 Atlassian Cloud 实例设计,不支持 Atlassian Server 或 Data Center 部署。

精选
any-chat-completions-mcp

any-chat-completions-mcp

将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。

精选
MySQL MCP Server

MySQL MCP Server

允许人工智能助手通过受控界面列出表格、读取数据和执行 SQL 查询,从而使数据库探索和分析更安全、更有条理。

精选
browser-use MCP server

browser-use MCP server

一个由人工智能驱动的浏览器自动化服务器,它实现了模型上下文协议,从而能够使用自然语言控制网页浏览器,以执行诸如导航、表单填写和视觉交互等任务。

精选
mcp-codex-keeper

mcp-codex-keeper

作为开发知识的守护者,为 AI 助手提供精心策划的最新文档和最佳实践访问权限。

精选