OmniLLM: Universal LLM Bridge for Claude

OmniLLM: Universal LLM Bridge for Claude

OmniLLM:一个模型上下文协议(MCP)服务器,使 Claude 能够访问和整合来自多个大型语言模型(LLM)的响应,包括 ChatGPT、Azure OpenAI 和 Google Gemini,从而创建一个统一的 AI 知识中心。

sabpap

研究与数据
访问服务器

README

OmniLLM:Claude 的通用 LLM 桥梁

OmniLLM 是一个 MCP 服务器,允许 Claude 查询和集成来自其他大型语言模型 (LLM) 的响应,例如 ChatGPT、Azure OpenAI 和 Google Gemini,从而为您的所有 AI 需求创建一个统一的访问点。

功能

  • 查询 OpenAI 的 ChatGPT 模型
  • 查询 Azure OpenAI 服务
  • 查询 Google 的 Gemini 模型
  • 获取来自所有 LLM 的响应以进行比较
  • 检查哪些 LLM 服务已配置且可用

设置说明

1. 前提条件

  • Python 3.10+
  • Claude 桌面应用程序
  • 您要使用的 LLM 的 API 密钥

2. 安装

# 克隆或下载此存储库
git clone https://github.com/yourusername/omnillm-mcp.git
cd omnillm-mcp

# 创建虚拟环境
python -m venv venv
source venv/bin/activate  # 在 Windows 上:venv\Scripts\activate

# 安装依赖项
pip install mcp[cli] httpx python-dotenv

3. 配置

在项目根目录中创建一个 .env 文件,其中包含您的 API 密钥:

OPENAI_API_KEY=your_openai_key_here
AZURE_OPENAI_API_KEY=your_azure_key_here
AZURE_OPENAI_ENDPOINT=your_azure_endpoint_here
GOOGLE_API_KEY=your_google_api_key_here

您只需要添加要使用的服务的密钥。

4. 与 Claude 桌面集成

  1. 打开 Claude 桌面
  2. 导航到 Settings > Developer > Edit Config
  3. 将服务器添加到您的 claude_desktop_config.json 文件:
{
  "mcpServers": {
    "omnillm": {
      "command": "python",
      "args": [
        "path/to/server.py"
      ],
      "env": {
        "PYTHONPATH": "path/to/omnillm-mcp"
      }
    }
  }
}

将 "path/to/server.py" 替换为您的 server.py 文件的实际路径。

  1. 保存配置文件并重启 Claude 桌面

使用示例

连接到 Claude 桌面后,您可以使用如下短语:

  • "如果想进行一次冒险的徒步旅行,最值得去的地方有哪些?咨询 ChatGPT"
  • "学习编程的最佳方法是什么?请 Gemini 发表他们的意见。"
  • "比较构建 Web 应用程序的不同框架,然后从 ChatGPT 和 Azure OpenAI 获取输入"

Claude 将自动检测何时使用 Multi-LLM Proxy 工具来增强其响应。

可用工具

  1. query_chatgpt - 使用自定义提示查询 OpenAI 的 ChatGPT
  2. query_azure_chatgpt - 使用自定义提示查询 Azure OpenAI 的 ChatGPT
  3. query_gemini - 查询 Google 的 Gemini
  4. query_all_llms - 查询所有可用的 LLM 并一起获取所有响应
  5. check_available_models - 检查哪些 LLM API 已正确配置

故障排除

  • 检查您的 API 密钥是否在 .env 文件中正确设置
  • 确保 Claude 桌面已使用服务器路径正确配置
  • 验证所有依赖项是否已安装在您的虚拟环境中
  • 检查 Claude 的日志中是否有任何连接或执行错误

许可证

MIT 许可证

推荐服务器

Crypto Price & Market Analysis MCP Server

Crypto Price & Market Analysis MCP Server

一个模型上下文协议 (MCP) 服务器,它使用 CoinCap API 提供全面的加密货币分析。该服务器通过一个易于使用的界面提供实时价格数据、市场分析和历史趋势。 (Alternative, slightly more formal and technical translation): 一个模型上下文协议 (MCP) 服务器,利用 CoinCap API 提供全面的加密货币分析服务。该服务器通过用户友好的界面,提供实时价格数据、市场分析以及历史趋势数据。

精选
TypeScript
MCP PubMed Search

MCP PubMed Search

用于搜索 PubMed 的服务器(PubMed 是一个免费的在线数据库,用户可以在其中搜索生物医学和生命科学文献)。 我是在 MCP 发布当天创建的,但当时正在度假。 我看到有人在您的数据库中发布了类似的服务器,但还是决定发布我的服务器。

精选
Python
mixpanel

mixpanel

连接到您的 Mixpanel 数据。 从 Mixpanel 分析查询事件、留存和漏斗数据。

精选
TypeScript
Sequential Thinking MCP Server

Sequential Thinking MCP Server

这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。

精选
Python
Nefino MCP Server

Nefino MCP Server

为大型语言模型提供访问德国可再生能源项目新闻和信息的能力,允许按地点、主题(太阳能、风能、氢能)和日期范围进行筛选。

官方
Python
Vectorize

Vectorize

将 MCP 服务器向量化以实现高级检索、私有深度研究、Anything-to-Markdown 文件提取和文本分块。

官方
JavaScript
Mathematica Documentation MCP server

Mathematica Documentation MCP server

一个服务器,通过 FastMCP 提供对 Mathematica 文档的访问,使用户能够从 Wolfram Mathematica 检索函数文档和列出软件包符号。

本地
Python
kb-mcp-server

kb-mcp-server

一个 MCP 服务器,旨在实现便携性、本地化、简易性和便利性,以支持对 txtai “all in one” 嵌入数据库进行基于语义/图的检索。任何 tar.gz 格式的 txtai 嵌入数据库都可以被加载。

本地
Python
Research MCP Server

Research MCP Server

这个服务器用作 MCP 服务器,与 Notion 交互以检索和创建调查数据,并与 Claude Desktop Client 集成以进行和审查调查。

本地
Python
Cryo MCP Server

Cryo MCP Server

一个API服务器,实现了模型补全协议(MCP),用于Cryo区块链数据提取,允许用户通过任何兼容MCP的客户端查询以太坊区块链数据。

本地
Python