MCP OpenAI Server

MCP OpenAI Server

一个模型上下文协议(MCP)服务器,让你可以直接从 Claude 无缝使用 OpenAI 的模型。

远程shell执行
高级AI推理
数据库交互
AI内容生成
AI集成系统
访问服务器

Tools

openai_chat

Use this tool when a user specifically requests to use one of OpenAI's models (gpt-4o, gpt-4o-mini, o1-preview, o1-mini). This tool sends messages to OpenAI's chat completion API using the specified model.

README

MCP OpenAI 服务器

一个模型上下文协议 (MCP) 服务器,让你可以直接从 Claude 无缝使用 OpenAI 的模型。

特性

  • 直接集成 OpenAI 的聊天模型
  • 支持多种模型,包括:
    • gpt-4o
    • gpt-4o-mini
    • o1-preview
    • o1-mini
  • 简单的消息传递接口
  • 基本的错误处理

前提条件

安装

首先,确保你已经安装了 Claude 桌面应用 并且已经申请了 OpenAI API 密钥

将以下条目添加到你的 claude_desktop_config.json 文件中(在 Mac 上,你可以在 ~/Library/Application\ Support/Claude/claude_desktop_config.json 找到它):

{
  "mcpServers": {
    "mcp-openai": {
      "command": "npx",
      "args": ["-y", "@mzxrai/mcp-openai@latest"],
      "env": {
        "OPENAI_API_KEY": "your-api-key-here (get one from https://platform.openai.com/api-keys)"
      }
    }
  }
}

这个配置让 Claude 桌面应用可以在你需要的时候启动 OpenAI MCP 服务器。

用法

只需开始与 Claude 聊天,当你想要使用 OpenAI 的模型时,让 Claude 使用它们。

例如,你可以说,

你能问问 o1 对这个问题有什么看法吗?

或者,

gpt-4o 对此有什么看法?

服务器目前支持以下模型:

  • gpt-4o (默认)
  • gpt-4o-mini
  • o1-preview
  • o1-mini

工具

  1. openai_chat
    • 向 OpenAI 的聊天完成 API 发送消息
    • 参数:
      • messages: 消息数组 (必需)
      • model: 使用哪个模型 (可选,默认为 gpt-4o)

问题

这是一个 alpha 软件,可能存在 bug。 如果你有问题,请查看 Claude 桌面应用的 MCP 日志:

tail -n 20 -f ~/Library/Logs/Claude/mcp*.log

开发

# 安装依赖
pnpm install

# 构建项目
pnpm build

# 监听更改
pnpm watch

# 在开发模式下运行
pnpm dev

要求

  • Node.js >= 18
  • OpenAI API 密钥

验证平台

  • [x] macOS
  • [ ] Linux

许可证

MIT

作者

mzxrai

推荐服务器

Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选
mcp-server-qdrant

mcp-server-qdrant

这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。

官方
精选
AIO-MCP Server

AIO-MCP Server

🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。

精选
本地
Knowledge Graph Memory Server

Knowledge Graph Memory Server

为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。

精选
本地
Hyperbrowser

Hyperbrowser

欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:

精选
本地
https://github.com/Streen9/react-mcp

https://github.com/Streen9/react-mcp

react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。

精选
本地
MCP Atlassian

MCP Atlassian

适用于 Atlassian Cloud 产品(Confluence 和 Jira)的 Model Context Protocol (MCP) 服务器。此集成专为 Atlassian Cloud 实例设计,不支持 Atlassian Server 或 Data Center 部署。

精选