
OpenRouter MCP Server 精选
提供与 OpenRouter.ai 的集成,允许通过统一的界面访问各种 AI 模型。
Tools
chat_completion
Send a message to OpenRouter.ai and get a response
search_models
Search and filter OpenRouter.ai models based on various criteria
get_model_info
Get detailed information about a specific model
validate_model
Check if a model ID is valid
README
OpenRouter MCP 服务器
一个模型上下文协议 (MCP) 服务器,提供与 OpenRouter.ai 多样化模型生态系统的无缝集成。 通过统一的、类型安全的接口访问各种 AI 模型,该接口具有内置的缓存、速率限制和错误处理功能。
<a href="https://glama.ai/mcp/servers/xdnmf8yei0"><img width="380" height="200" src="https://glama.ai/mcp/servers/xdnmf8yei0/badge" alt="OpenRouter Server MCP server" /></a>
特性
-
模型访问
- 直接访问所有 OpenRouter.ai 模型
- 自动模型验证和能力检查
- 默认模型配置支持
-
性能优化
- 智能模型信息缓存(1 小时过期)
- 自动速率限制管理
- 失败请求的指数退避
-
统一的响应格式
- 所有响应都具有一致的
ToolResult
结构 - 使用
isError
标志清晰地识别错误 - 具有上下文的结构化错误消息
- 所有响应都具有一致的
安装
pnpm install @mcpservers/openrouterai
配置
前提条件
- 从 OpenRouter Keys 获取您的 OpenRouter API 密钥
- 选择一个默认模型(可选)
环境变量
OPENROUTER_API_KEY=your-api-key-here
OPENROUTER_DEFAULT_MODEL=optional-default-model
设置
添加到您的 MCP 设置配置文件 (cline_mcp_settings.json
或 claude_desktop_config.json
):
{
"mcpServers": {
"openrouterai": {
"command": "npx",
"args": ["@mcpservers/openrouterai"],
"env": {
"OPENROUTER_API_KEY": "your-api-key-here",
"OPENROUTER_DEFAULT_MODEL": "optional-default-model"
}
}
}
}
响应格式
所有工具都以标准化的结构返回响应:
interface ToolResult {
isError: boolean;
content: Array<{
type: "text";
text: string; // JSON 字符串或错误消息
}>;
}
成功示例:
{
"isError": false,
"content": [{
"type": "text",
"text": "{\"id\": \"gen-123\", ...}"
}]
}
错误示例:
{
"isError": true,
"content": [{
"type": "text",
"text": "Error: Model validation failed - 'invalid-model' not found"
}]
}
可用工具
chat_completion
向 OpenRouter.ai 模型发送消息:
interface ChatCompletionRequest {
model?: string;
messages: Array<{role: "user"|"system"|"assistant", content: string}>;
temperature?: number; // 0-2
}
// Response: ToolResult with chat completion data or error
search_models
搜索和过滤可用模型:
interface ModelSearchRequest {
query?: string;
provider?: string;
minContextLength?: number;
capabilities?: {
functions?: boolean;
vision?: boolean;
};
}
// Response: ToolResult with model list or error
get_model_info
获取有关特定模型的详细信息:
{
model: string; // 模型标识符
}
validate_model
检查模型 ID 是否有效:
interface ModelValidationRequest {
model: string;
}
// Response:
// Success: { isError: false, valid: true }
// Error: { isError: true, error: "Model not found" }
错误处理
服务器提供具有上下文信息的结构化错误:
// Error response structure
{
isError: true,
content: [{
type: "text";
text: "Error: [Category] - Detailed message"
}]
}
常见错误类别:
Validation Error
: 无效的输入参数API Error
: OpenRouter API 通信问题Rate Limit
: 请求节流检测Internal Error
: 服务器端处理失败
处理响应:
async function handleResponse(result: ToolResult) {
if (result.isError) {
const errorMessage = result.content[0].text;
if (errorMessage.startsWith('Error: Rate Limit')) {
// 处理速率限制
}
// 其他错误处理
} else {
const data = JSON.parse(result.content[0].text);
// 处理成功响应
}
}
开发
有关详细信息,请参见 CONTRIBUTING.md:
- 开发设置
- 项目结构
- 功能实现
- 错误处理指南
- 工具使用示例
# 安装依赖
pnpm install
# 构建项目
pnpm run build
# 运行测试
pnpm test
更新日志
请参阅 CHANGELOG.md 以获取最新更新,包括:
- 统一的响应格式实现
- 增强的错误处理系统
- 类型安全的接口改进
许可证
该项目已获得 Apache License 2.0 的许可 - 有关详细信息,请参见 LICENSE 文件。
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。
mcp-server-qdrant
这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。
AIO-MCP Server
🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。
Knowledge Graph Memory Server
为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。
Hyperbrowser
欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:
https://github.com/Streen9/react-mcp
react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。