MindBridge MCP Server

MindBridge MCP Server

一个 AI 路由器,可以将应用程序连接到多个 LLM 提供商(OpenAI、Anthropic、Google、DeepSeek、Ollama 等),并具备智能模型编排能力,从而能够针对不同的推理任务在模型之间进行动态切换。

Category
访问服务器

Tools

listProviders

List all configured LLM providers and their available models

listReasoningModels

List all available models that support reasoning capabilities

getSecondOpinion

Get responses from various LLM providers

README

MindBridge MCP 服务器 ⚡ 大脑决策的 AI 路由器

MindBridge 是你的 AI 指挥中心 — 一个模型上下文协议 (MCP) 服务器,旨在统一、组织和增强你的 LLM 工作流程。

忘记供应商锁定。忘记管理十几个 API。 MindBridge 将你的应用程序连接到任何模型,从 OpenAI 和 Anthropic 到 Ollama 和 DeepSeek — 并让它们像专家顾问团队一样相互交流。

需要原始速度?选择一个廉价的模型。 需要复杂的推理?将其路由给专家。 想要第二意见?MindBridge 内置了该功能。

这不仅仅是模型聚合。这是模型编排。


核心功能 🔥

功能 为什么你应该使用它
多 LLM 支持 立即在 OpenAI、Anthropic、Google、DeepSeek、OpenRouter、Ollama (本地模型) 和 OpenAI 兼容的 API 之间切换。
理解推理引擎 智能路由到为深度推理而构建的模型,如 Claude、GPT-4o、DeepSeek Reasoner 等。
getSecondOpinion 工具 询问多个模型相同的问题,以并排比较响应。
OpenAI 兼容的 API 层 将 MindBridge 放入任何期望 OpenAI 端点的工具中 (Azure、Together.ai、Groq 等)。
自动检测提供商 只需添加你的密钥。MindBridge 自动处理设置和发现。
极其灵活 通过环境变量、MCP 配置或 JSON 配置所有内容 — 由你决定。

为什么选择 MindBridge?

"每个 LLM 都擅长某些方面。MindBridge 使它们协同工作。"

非常适合:

  • 代理构建者
  • 多模型工作流程
  • AI 编排引擎
  • 推理繁重的任务
  • 构建更智能的 AI 开发环境
  • LLM 驱动的后端
  • 厌倦了供应商围墙花园的任何人

安装 🛠️

选项 1:从 npm 安装 (推荐)

# 全局安装
npm install -g @pinkpixel/mindbridge

# 使用 npx
npx @pinkpixel/mindbridge

选项 2:从源代码安装

  1. 克隆存储库:

    git clone https://github.com/pinkpixel-dev/mindbridge.git
    cd mindbridge
    
  2. 安装依赖项:

    chmod +x install.sh
    ./install.sh
    
  3. 配置环境变量:

    cp .env.example .env
    

    编辑 .env 并添加你要使用的提供商的 API 密钥。

配置 ⚙️

环境变量

服务器支持以下环境变量:

  • OPENAI_API_KEY: 你的 OpenAI API 密钥
  • ANTHROPIC_API_KEY: 你的 Anthropic API 密钥
  • DEEPSEEK_API_KEY: 你的 DeepSeek API 密钥
  • GOOGLE_API_KEY: 你的 Google AI API 密钥
  • OPENROUTER_API_KEY: 你的 OpenRouter API 密钥
  • OLLAMA_BASE_URL: Ollama 实例 URL (默认: http://localhost:11434)
  • OPENAI_COMPATIBLE_API_KEY: (可选) OpenAI 兼容服务的 API 密钥
  • OPENAI_COMPATIBLE_API_BASE_URL: OpenAI 兼容服务的 Base URL
  • OPENAI_COMPATIBLE_API_MODELS: 可用模型的逗号分隔列表

MCP 配置

为了与 MCP 兼容的 IDE (如 Cursor 或 Windsurf) 一起使用,你可以在 mcp.json 文件中使用以下配置:

{
  "mcpServers": {
    "mindbridge": {
      "command": "npx",
      "args": [
        "-y",
        "@pinkpixel/mindbridge"
      ],
      "env": {
        "OPENAI_API_KEY": "OPENAI_API_KEY_HERE",
        "ANTHROPIC_API_KEY": "ANTHROPIC_API_KEY_HERE",
        "GOOGLE_API_KEY": "GOOGLE_API_KEY_HERE",
        "DEEPSEEK_API_KEY": "DEEPSEEK_API_KEY_HERE",
        "OPENROUTER_API_KEY": "OPENROUTER_API_KEY_HERE"
      },
      "provider_config": {
        "openai": {
          "default_model": "gpt-4o"
        },
        "anthropic": {
          "default_model": "claude-3-5-sonnet-20241022"
        },
        "google": {
          "default_model": "gemini-2.0-flash"
        },
        "deepseek": {
          "default_model": "deepseek-chat"
        },
        "openrouter": {
          "default_model": "openai/gpt-4o"
        },
        "ollama": {
          "base_url": "http://localhost:11434",
          "default_model": "llama3"
        },
        "openai_compatible": {
          "api_key": "API_KEY_HERE_OR_REMOVE_IF_NOT_NEEDED",
          "base_url": "FULL_API_URL_HERE",
          "available_models": ["MODEL1", "MODEL2"],
          "default_model": "MODEL1"
        }
      },
      "default_params": {
        "temperature": 0.7,
        "reasoning_effort": "medium"
      },
      "alwaysAllow": [
        "getSecondOpinion",
        "listProviders",
        "listReasoningModels"
      ]
    }
  }
}

将 API 密钥替换为你的实际密钥。对于 OpenAI 兼容的配置,如果服务不需要身份验证,你可以删除 api_key 字段。

用法 💫

启动服务器

具有自动重新加载的开发模式:

npm run dev

生产模式:

npm run build
npm start

全局安装时:

mindbridge

可用工具

  1. getSecondOpinion

    {
      provider: string;  // LLM 提供商名称
      model: string;     // 模型标识符
      prompt: string;    // 你的问题或提示
      systemPrompt?: string;  // 可选的系统指令
      temperature?: number;   // 响应随机性 (0-1)
      maxTokens?: number;    // 最大响应长度
      reasoning_effort?: 'low' | 'medium' | 'high';  // 用于推理模型
    }
    
  2. listProviders

    • 列出所有已配置的提供商及其可用模型
    • 无需参数
  3. listReasoningModels

    • 列出针对推理任务优化的模型
    • 无需参数

用法示例 📝

// 从 GPT-4o 获取意见
{
  "provider": "openai",
  "model": "gpt-4o",
  "prompt": "数据库分片的关键考虑因素是什么?",
  "temperature": 0.7,
  "maxTokens": 1000
}

// 从 OpenAI 的 o1 模型获得一个经过推理的响应
{
  "provider": "openai",
  "model": "o1",
  "prompt": "解释数据库索引背后的数学原理",
  "reasoning_effort": "high",
  "maxTokens": 4000
}

// 从 DeepSeek 获得一个经过推理的响应
{
  "provider": "deepseek",
  "model": "deepseek-reasoner",
  "prompt": "微服务和单体架构之间的权衡是什么?",
  "reasoning_effort": "high",
  "maxTokens": 2000
}

// 使用 OpenAI 兼容的提供商
{
  "provider": "openaiCompatible",
  "model": "YOUR_MODEL_NAME",
  "prompt": "解释分布式系统中最终一致性的概念",
  "temperature": 0.5,
  "maxTokens": 1500
}

开发 🔧

  • npm run lint: 运行 ESLint
  • npm run format: 使用 Prettier 格式化代码
  • npm run clean: 清理构建工件
  • npm run build: 构建项目

贡献

欢迎 PR!帮助我们使 AI 工作流程不那么愚蠢。


许可证

MIT — 随便做什么,只要不做坏事。


用 ❤️ 由 Pink Pixel 制作

推荐服务器

Baidu Map

Baidu Map

百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。

官方
精选
JavaScript
Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。

官方
精选
本地
TypeScript
Audiense Insights MCP Server

Audiense Insights MCP Server

通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

官方
精选
本地
TypeScript
VeyraX

VeyraX

一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。

官方
精选
本地
graphlit-mcp-server

graphlit-mcp-server

模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。

官方
精选
TypeScript
Kagi MCP Server

Kagi MCP Server

一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

官方
精选
Python
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选