OpenRouter MCP Server

OpenRouter MCP Server
精选

提供与 OpenRouter.ai 的集成,允许通过统一的界面访问各种 AI 模型。

远程shell执行
高级AI推理
数据库交互
AI内容生成
AI集成系统
数据与应用分析
访问服务器

Tools

chat_completion

Send a message to OpenRouter.ai and get a response

search_models

Search and filter OpenRouter.ai models based on various criteria

get_model_info

Get detailed information about a specific model

validate_model

Check if a model ID is valid

README

OpenRouter MCP 服务器

MCP Server Version TypeScript License

一个模型上下文协议 (MCP) 服务器,提供与 OpenRouter.ai 多样化模型生态系统的无缝集成。 通过统一的、类型安全的接口访问各种 AI 模型,该接口具有内置的缓存、速率限制和错误处理功能。

<a href="https://glama.ai/mcp/servers/xdnmf8yei0"><img width="380" height="200" src="https://glama.ai/mcp/servers/xdnmf8yei0/badge" alt="OpenRouter Server MCP server" /></a>

特性

  • 模型访问

    • 直接访问所有 OpenRouter.ai 模型
    • 自动模型验证和能力检查
    • 默认模型配置支持
  • 性能优化

    • 智能模型信息缓存(1 小时过期)
    • 自动速率限制管理
    • 失败请求的指数退避
  • 统一的响应格式

    • 所有响应都具有一致的 ToolResult 结构
    • 使用 isError 标志清晰地识别错误
    • 具有上下文的结构化错误消息

安装

pnpm install @mcpservers/openrouterai

配置

前提条件

  1. OpenRouter Keys 获取您的 OpenRouter API 密钥
  2. 选择一个默认模型(可选)

环境变量

OPENROUTER_API_KEY=your-api-key-here
OPENROUTER_DEFAULT_MODEL=optional-default-model

设置

添加到您的 MCP 设置配置文件 (cline_mcp_settings.jsonclaude_desktop_config.json):

{
  "mcpServers": {
    "openrouterai": {
      "command": "npx",
      "args": ["@mcpservers/openrouterai"],
      "env": {
        "OPENROUTER_API_KEY": "your-api-key-here",
        "OPENROUTER_DEFAULT_MODEL": "optional-default-model"
      }
    }
  }
}

响应格式

所有工具都以标准化的结构返回响应:

interface ToolResult {
  isError: boolean;
  content: Array<{
    type: "text";
    text: string; // JSON 字符串或错误消息
  }>;
}

成功示例:

{
  "isError": false,
  "content": [{
    "type": "text",
    "text": "{\"id\": \"gen-123\", ...}"
  }]
}

错误示例:

{
  "isError": true,
  "content": [{
    "type": "text",
    "text": "Error: Model validation failed - 'invalid-model' not found"
  }]
}

可用工具

chat_completion

向 OpenRouter.ai 模型发送消息:

interface ChatCompletionRequest {
  model?: string;
  messages: Array<{role: "user"|"system"|"assistant", content: string}>;
  temperature?: number; // 0-2
}

// Response: ToolResult with chat completion data or error

search_models

搜索和过滤可用模型:

interface ModelSearchRequest {
  query?: string;
  provider?: string;
  minContextLength?: number;
  capabilities?: {
    functions?: boolean;
    vision?: boolean;
  };
}

// Response: ToolResult with model list or error

get_model_info

获取有关特定模型的详细信息:

{
  model: string;           // 模型标识符
}

validate_model

检查模型 ID 是否有效:

interface ModelValidationRequest {
  model: string;
}

// Response: 
// Success: { isError: false, valid: true }
// Error: { isError: true, error: "Model not found" }

错误处理

服务器提供具有上下文信息的结构化错误:

// Error response structure
{
  isError: true,
  content: [{
    type: "text";
    text: "Error: [Category] - Detailed message"
  }]
}

常见错误类别:

  • Validation Error: 无效的输入参数
  • API Error: OpenRouter API 通信问题
  • Rate Limit: 请求节流检测
  • Internal Error: 服务器端处理失败

处理响应:

async function handleResponse(result: ToolResult) {
  if (result.isError) {
    const errorMessage = result.content[0].text;
    if (errorMessage.startsWith('Error: Rate Limit')) {
      // 处理速率限制
    }
    // 其他错误处理
  } else {
    const data = JSON.parse(result.content[0].text);
    // 处理成功响应
  }
}

开发

有关详细信息,请参见 CONTRIBUTING.md

  • 开发设置
  • 项目结构
  • 功能实现
  • 错误处理指南
  • 工具使用示例
# 安装依赖
pnpm install

# 构建项目
pnpm run build

# 运行测试
pnpm test

更新日志

请参阅 CHANGELOG.md 以获取最新更新,包括:

  • 统一的响应格式实现
  • 增强的错误处理系统
  • 类型安全的接口改进

许可证

该项目已获得 Apache License 2.0 的许可 - 有关详细信息,请参见 LICENSE 文件。

推荐服务器

Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
VeyraX

VeyraX

一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

官方
精选
本地
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选
mcp-server-qdrant

mcp-server-qdrant

这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。

官方
精选
AIO-MCP Server

AIO-MCP Server

🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。

精选
本地
Knowledge Graph Memory Server

Knowledge Graph Memory Server

为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。

精选
本地
Hyperbrowser

Hyperbrowser

欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:

精选
本地
https://github.com/Streen9/react-mcp

https://github.com/Streen9/react-mcp

react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。

精选
本地