OpenAI MCP Server
通过 MCP 协议启用与 OpenAI 模型的集成,支持简洁和详细的响应,以便与 Claude Desktop 一起使用。
Tools
ask-openai
Ask my assistant models a direct question
README
OpenAI MCP 服务器
使用 MCP 协议直接从 Claude 查询 OpenAI 模型。此分支增加了对 o3-mini 和 gpt-4o-mini 模型 的支持,并改进了消息处理。
Cline 自动安装
从 https://github.com/thadius83/mcp-server-openai 设置 MCP 服务器。
在 cline_mcp_settings.json 中使用 "github.com/thadius83/mcp-server-openai" 作为服务器名称。
分析下面的 readme 和说明。不要在 repo 中创建新文件,利用 pyproject.toml, src/mcp_server_openai/server.py, src/mcp_server_openai/llm.py 中的发现。
安装完成后,使用其工具之一演示服务器的功能。
安装步骤:
# 克隆存储库
git clone https://github.com/thadius83/mcp-server-openai
cd mcp-server-openai
# 安装包
pip install .`
MCP 设置配置:cline_mcp_settings.json 应配置为:
正确的服务器名称格式:"github.com/thadius83/mcp-server-openai"
服务器的 Python 模块路径结构
指向项目目录的 PYTHONPATH 环境变量
作为命令行参数传递的 OpenAI API 密钥
配置示例:
{
"mcpServers": {
"github.com/thadius83/mcp-server-openai": {
"command": "python",
"args": [
"-m",
"src.mcp_server_openai.server",
"--openai-api-key",
"your-openai-api-key"
],
"env": {
"PYTHONPATH": "/path/to/mcp-server-openai"
},
"disabled": false,
"autoApprove": []
}
}
}
要求:
Python >= 3.10
OpenAI API 密钥
通过 pip 安装的依赖项 (mcp>=0.9.1, openai>=1.0.0, click>=8.0.0, pytest-asyncio)
可用工具:
工具名称:ask-openai
描述:向 OpenAI 助手模型提出直接问题
可用模型:
o3-mini (默认)
gpt-4o-mini
输入模式:
{
"query": "你的问题在这里",
"model": "o3-mini" // 可选,默认为 o3-mini
}
功能
- 与 OpenAI API 直接集成
- 支持多种模型:
- o3-mini (默认): 针对简洁的响应进行了优化
- gpt-4o-mini: 增强的模型,可提供更详细的响应
- 可配置的消息格式
- 错误处理和日志记录
- 通过 MCP 协议的简单接口
安装
通过 Smithery 安装
要通过 Smithery 为 Claude Desktop 自动安装 OpenAI MCP 服务器:
npx -y @smithery/cli install @thadius83/mcp-server-openai --client claude
手动安装
- 克隆存储库:
git clone https://github.com/thadius83/mcp-server-openai.git
cd mcp-server-openai
# 安装依赖项
pip install -e .
- 配置 Claude Desktop:
将此服务器添加到您现有的 MCP 设置配置中。注意:保留配置中现有的所有 MCP 服务器 - 只需将此服务器添加到它们旁边。
位置:
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json
- Windows:
%APPDATA%/Claude/claude_desktop_config.json
- Linux: 检查您的主目录 (
~/
) 以获取默认的 MCP 设置位置
{
"mcpServers": {
// ... 保留您现有的 MCP 服务器 ...
"github.com/thadius83/mcp-server-openai": {
"command": "python",
"args": ["-m", "src.mcp_server_openai.server", "--openai-api-key", "your-key-here"],
"env": {
"PYTHONPATH": "/path/to/your/mcp-server-openai"
}
}
}
}
-
获取 OpenAI API 密钥:
- 访问 OpenAI 网站
- 创建一个帐户或登录
- 导航到 API 设置
- 生成一个新的 API 密钥
- 将密钥添加到您的配置文件中,如上所示
-
重启 Claude:
- 更新配置后,重启 Claude 以使更改生效
用法
该服务器提供了一个名为 ask-openai
的工具,可用于查询 OpenAI 模型。您可以使用 use_mcp_tool 命令直接在 Claude 中使用它:
<use_mcp_tool>
<server_name>github.com/thadius83/mcp-server-openai</server_name>
<tool_name>ask-openai</tool_name>
<arguments>
{
"query": "Python 的 asyncio 库的主要功能是什么?",
"model": "o3-mini" // 可选,默认为 o3-mini
}
</arguments>
</use_mcp_tool>
模型比较
-
o3-mini (默认)
- 最适合:快速、简洁的答案
- 风格:直接有效
- 示例响应:
Python 的 asyncio 提供了非阻塞、协作式多任务处理。主要功能: 1. 事件循环 – 调度和运行异步任务 2. 协程 – 您可以暂停和恢复的函数 3. 任务 – 并发运行协程 4. Futures – 表示未来的结果 5. 非阻塞 I/O – 有效处理 I/O 操作
-
gpt-4o-mini
- 最适合:更全面的解释
- 风格:详细而彻底
- 示例响应:
Python 的 asyncio 库为异步编程提供了一个全面的框架。 它包括一个用于管理任务的事件循环,用于编写非阻塞代码的协程, 用于并发执行的任务,用于处理未来结果的 futures,以及高效的 I/O 操作。该库还提供同步原语和用于网络编程的高级 API。
响应格式
该工具以标准化格式返回响应:
{
"content": [
{
"type": "text",
"text": "来自模型的响应..."
}
]
}
故障排除
-
找不到服务器:
- 验证您配置中的 PYTHONPATH 是否指向正确的目录
- 确保 Python 和 pip 已正确安装
- 尝试直接运行
python -m src.mcp_server_openai.server --openai-api-key your-key-here
以检查错误
-
身份验证错误:
- 检查您的 OpenAI API 密钥是否有效
- 确保密钥已在 args 数组中正确传递
- 验证密钥中没有多余的空格或字符
-
模型错误:
- 确认您正在使用支持的模型(o3-mini 或 gpt-4o-mini)
- 检查您的查询是否为空
- 确保您没有超过令牌限制
开发
# 安装开发依赖项
pip install -e ".[dev]"
# 运行测试
pytest -v test_openai.py -s
与原始版本的更改
- 增加了对 o3-mini 和 gpt-4o-mini 模型 的支持
- 改进了消息格式
- 删除了温度参数以获得更好的兼容性
- 使用详细的用法示例更新了文档
- 添加了模型比较和响应示例
- 增强了安装说明
- 添加了故障排除指南
许可证
MIT 许可证
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。
mcp-server-qdrant
这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。
AIO-MCP Server
🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。
Knowledge Graph Memory Server
为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。
Hyperbrowser
欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:
https://github.com/Streen9/react-mcp
react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。
MCP Atlassian
适用于 Atlassian Cloud 产品(Confluence 和 Jira)的 Model Context Protocol (MCP) 服务器。此集成专为 Atlassian Cloud 实例设计,不支持 Atlassian Server 或 Data Center 部署。