GPT-5 MCP Server
Enables GPT-5 inference via OpenAI API with configurable reasoning effort, verbosity levels, and optional web search integration. Supports per-call parameter overrides for flexible AI model interactions through MCP.
README
GPT-5 MCP Server (TypeScript)
An MCP server that exposes a gpt5_query tool for GPT-5 inference via OpenAI Responses API, with optional Web Search Preview. Supports per-call overrides for verbosity, reasoning effort, and other parameters.
Features
- TypeScript MCP server using
@modelcontextprotocol/sdk gpt5_querytoolweb_search_previewintegration (optional)verbosity(low|medium|high)reasoning.effort(low|medium|high)tool_choice(auto|none),parallel_tool_callssystemprompt,model,max_output_tokens
- Config via environment variables with per-call overrides
Quick Start
- Install dependencies
pnpm i # or npm i / yarn
- Configure environment
Create .env (or export env vars):
OPENAI_API_KEY=sk-...
OPENAI_MODEL=gpt-5
OPENAI_MAX_RETRIES=3
OPENAI_TIMEOUT_MS=60000
REASONING_EFFORT=medium
DEFAULT_VERBOSITY=medium
WEB_SEARCH_DEFAULT_ENABLED=false
WEB_SEARCH_CONTEXT_SIZE=medium
- Build and run
pnpm run build
pnpm start
For development (watch mode):
pnpm run dev
Using with MCP Clients (Claude Code, Claude Desktop)
This server speaks Model Context Protocol (MCP) over stdio and emits pure JSON to stdout, making it safe for Claude Code and Claude Desktop.
Prerequisites
- Node.js 18+
- OpenAI API key via
.envor environment variable
- Build
pnpm run build
- Run directly (recommended)
- Command:
node - Args:
dist/cli.js - CWD: repository root (required if you want
.envto be loaded)
Example:
node dist/cli.js
- Add to Claude Code (VS Code)
- Command Palette → "Claude: Manage MCP Servers"
- "Add server" with:
- Name:
gpt5-mcp - Command:
node(or absolute path, e.g.,/opt/homebrew/bin/node) - Args: ["/absolute/path/to/gpt5-mcp-server/dist/cli.js"] (or just
gpt5-mcp-serverif installed globally) - Env (choose one):
- Option A (ENV_FILE):
ENV_FILE=/absolute/path/to/gpt5-mcp-server/.env - Option B (explicit): set
OPENAI_API_KEY,OPENAI_MODEL,OPENAI_TIMEOUT_MS,DEFAULT_VERBOSITY,REASONING_EFFORT,WEB_SEARCH_DEFAULT_ENABLED,WEB_SEARCH_CONTEXT_SIZE
- Option A (ENV_FILE):
- Name:
- Add to Claude Desktop
Edit config (e.g., macOS:
~/Library/Application Support/Claude/claude_desktop_config.json) and add:
Option A: using ENV_FILE
{
"mcpServers": {
"gpt5-mcp": {
"command": "/opt/homebrew/bin/node",
"args": ["/absolute/path/to/gpt5-mcp-server/dist/cli.js"],
"env": {
"ENV_FILE": "/absolute/path/to/gpt5-mcp-server/.env"
}
}
}
}
Option B: explicit env vars
{
"mcpServers": {
"gpt5-mcp": {
"command": "/opt/homebrew/bin/node",
"args": ["/absolute/path/to/gpt5-mcp-server/dist/cli.js"],
"env": {
"OPENAI_API_KEY": "sk-...",
"OPENAI_MODEL": "gpt-5",
"OPENAI_TIMEOUT_MS": "120000",
"DEFAULT_VERBOSITY": "medium",
"REASONING_EFFORT": "low",
"WEB_SEARCH_DEFAULT_ENABLED": "false",
"WEB_SEARCH_CONTEXT_SIZE": "medium"
}
}
}
}
- CLI usage
- Package exposes bin(s).
- Local link:
npm link→ rungpt5-mcp-server - Global (after publish):
npm i -g gpt5-mcp-server→gpt5-mcp-server - Direct:
node /absolute/path/to/gpt5-mcp-server/dist/cli.js
- Local link:
- Web Search notes
- Due to OpenAI constraints,
web_search_previewcannot be combined withreasoning.effort = minimal. - This server automatically bumps effort to
mediumifweb_search.enabled = true. - If you need strict
minimal, setweb_search.enabled = false.
- Troubleshooting
- JSON parse error (Unexpected token ...)
- Likely extra logs on stdio. Use
node dist/cli.js, avoidnpx.
- Likely extra logs on stdio. Use
- Auth error
- Ensure
OPENAI_API_KEYis provided.
- Ensure
- Timeout
- Increase
OPENAI_TIMEOUT_MS(e.g., 120000).
- Increase
- 400 with Web Search
- Caused by
minimaleffort + web search. It's auto-bumped tomedium; alternatively setreasoning_effort=mediumor disableweb_search.
- Caused by
Tool: gpt5_query
Input schema (JSON):
{
"query": "string",
"model": "string?",
"system": "string?",
"reasoning_effort": "low|minimal|medium|high?",
"verbosity": "low|medium|high?",
"tool_choice": "auto|none?",
"parallel_tool_calls": "boolean?",
"max_output_tokens": "number?",
"web_search": {
"enabled": "boolean?",
"search_context_size": "low|medium|high?"
}
}
Example call (Inspector or client):
{
"method": "tools/call",
"params": {
"name": "gpt5_query",
"arguments": {
"query": "Summarize the latest on X.",
"verbosity": "low",
"web_search": { "enabled": true, "search_context_size": "medium" }
}
}
}
Defaults and behavior
- model: defaults to
OPENAI_MODEL(env). Example:gpt-5. - system: optional. Sent as
instructions. - reasoning_effort: accepts
low|minimal|medium|high. Internallylow→minimal。- Constraint: when
web_search.enabled=trueand effort isminimal, it is auto-bumped tomediumto satisfy OpenAI constraints.
- Constraint: when
- verbosity: defaults to
DEFAULT_VERBOSITY(env). Sent astext.verbosity. - tool_choice: default
auto. - parallel_tool_calls: default
true. - max_output_tokens: optional; omitted when not set.
- web_search.enabled: defaults to
WEB_SEARCH_DEFAULT_ENABLED(env). - web_search.search_context_size: defaults to
WEB_SEARCH_CONTEXT_SIZE(env). Allowed:low|medium|high.
Environment variable mapping
OPENAI_API_KEY(required)OPENAI_MODEL→ model defaultOPENAI_MAX_RETRIES→ OpenAI clientOPENAI_TIMEOUT_MS→ OpenAI clientREASONING_EFFORT→ reasoning_effort default (low|minimal|medium|high)DEFAULT_VERBOSITY→ verbosity default (low|medium|high)WEB_SEARCH_DEFAULT_ENABLED→ web_search.enabled default (true|false)WEB_SEARCH_CONTEXT_SIZE→ web_search.search_context_size default (low|medium|high)
Output shape
- On success:
content: [{ type: "text", text: string }] - On error:
isError: trueand atextitem withError: ...
Notes
- If the selected model does not support certain fields (e.g.,
verbosity), they are ignored. - Keep API keys out of logs. Ensure
.envis not committed.
License
MIT
日本語 (Japanese)
<a id="ja"></a>
ツール: gpt5_query
入力スキーマ (JSON):
{
"query": "string",
"model": "string?",
"system": "string?",
"reasoning_effort": "low|minimal|medium|high?",
"verbosity": "low|medium|high?",
"tool_choice": "auto|none?",
"parallel_tool_calls": "boolean?",
"max_output_tokens": "number?",
"web_search": {
"enabled": "boolean?",
"search_context_size": "low|medium|high?"
}
}
例 (Inspector など):
{
"method": "tools/call",
"params": {
"name": "gpt5_query",
"arguments": {
"query": "Summarize the latest on X.",
"verbosity": "low",
"web_search": { "enabled": true, "search_context_size": "medium" }
}
}
}
既定値と挙動
- model: 既定は
OPENAI_MODEL(環境変数)。例:gpt-5。 - system: 任意。OpenAI には
instructionsとして送信します。 - reasoning_effort:
low|minimal|medium|highを受け付け、内部的にlowはminimalとして扱われます。- 制約:
web_search.enabled=trueかつ effort=minimalの場合、OpenAI の制約に合わせて自動的にmediumに引き上げます。
- 制約:
- verbosity: 既定は
DEFAULT_VERBOSITY(環境変数)。OpenAI にはtext.verbosityとして送信します。 - tool_choice: 既定は
auto。 - parallel_tool_calls: 既定は
true。 - max_output_tokens: 任意。未指定の場合は送信しません。
- web_search.enabled: 既定は
WEB_SEARCH_DEFAULT_ENABLED(環境変数)。 - web_search.search_context_size: 既定は
WEB_SEARCH_CONTEXT_SIZE(環境変数)。許容値:low|medium|high。
環境変数マッピング
OPENAI_API_KEY(必須)OPENAI_MODEL→ model 既定OPENAI_MAX_RETRIES→ OpenAI クライアント設定OPENAI_TIMEOUT_MS→ OpenAI クライアント設定REASONING_EFFORT→ reasoning_effort 既定(low|minimal|medium|high)DEFAULT_VERBOSITY→ verbosity 既定(low|medium|high)WEB_SEARCH_DEFAULT_ENABLED→ web_search.enabled 既定(true|false)WEB_SEARCH_CONTEXT_SIZE→ web_search.search_context_size 既定(low|medium|high)
出力形式
- 成功時:
content: [{ type: "text", text: string }] - エラー時:
isError: trueとtextにError: ...
注意
- 選択したモデルが特定のフィールド(例:
verbosity)をサポートしない場合、それらは無視されます。 - API キーはログに出力しません。
.envはコミットしないでください。
MCP Serverの使い方
このサーバーは Model Context Protocol (MCP) の標準入出力(stdio)で動作します。純粋な JSON のみを stdout に出力する設計のため、MCP Inspector / Claude Code / Claude Desktop で安全に接続できます。
前提
- Node.js 18+
- OpenAI APIキーが
.envもしくは環境変数で設定されていること
- ビルド
pnpm run build
- 直接起動(推奨)
- コマンド:
node - 引数:
dist/cli.js - CWD: リポジトリのルート(
.envを読む場合は必須)
例:
node dist/cli.js
- Claude Code(VS Code 拡張)に追加
- VS Code のコマンドパレット → 「Claude: Manage MCP Servers」
- 「Add server」で次を入力:
- Name:
gpt5-mcp - Command:
node(絶対パス可) - Args:
["/絶対/パス/gpt5-mcp-server/dist/cli.js"](グローバル導入済みなら不要) - Env(どちらか一方):
- オプションA(ENV_FILE):
ENV_FILE=/絶対/パス/gpt5-mcp-server/.env - オプションB(明示指定):
OPENAI_API_KEY、OPENAI_MODEL、OPENAI_TIMEOUT_MS、DEFAULT_VERBOSITY、REASONING_EFFORT、WEB_SEARCH_DEFAULT_ENABLED、WEB_SEARCH_CONTEXT_SIZE
- オプションA(ENV_FILE):
- Name:
- Claude Desktop に追加
設定ファイル(例: macOS は
~/Library/Application Support/Claude/claude_desktop_config.json)を編集して以下を追記します。
オプションA: ENV_FILE を使う
{
"mcpServers": {
"gpt5-mcp": {
"command": "/opt/homebrew/bin/node",
"args": ["/絶対/パス/gpt5-mcp-server/dist/cli.js"],
"env": {
"ENV_FILE": "/絶対/パス/gpt5-mcp-server/.env"
}
}
}
}
オプションB: 環境変数を明示指定
{
"mcpServers": {
"gpt5-mcp": {
"command": "/opt/homebrew/bin/node",
"args": ["/絶対/パス/gpt5-mcp-server/dist/cli.js"],
"env": {
"OPENAI_API_KEY": "sk-...",
"OPENAI_MODEL": "gpt-5",
"OPENAI_TIMEOUT_MS": "120000",
"DEFAULT_VERBOSITY": "medium",
"REASONING_EFFORT": "low",
"WEB_SEARCH_DEFAULT_ENABLED": "false",
"WEB_SEARCH_CONTEXT_SIZE": "medium"
}
}
}
}
- CLI の利用
- パッケージには bin が含まれます。
- ローカルリンク:
npm link後にgpt5-mcp-server - グローバル(公開後):
npm i -g gpt5-mcp-server→gpt5-mcp-server - 直接実行:
node /絶対/パス/gpt5-mcp-server/dist/cli.js
- ローカルリンク:
- Web Search に関する注意
- OpenAI の制約により、
web_search_previewはreasoning.effort = minimalと併用できません。 - 本サーバーは
web_search.enabled = trueの場合、自動的に effort をmediumに引き上げて呼び出します。 - もし
minimalを厳格に使いたい場合は、web_search.enabled = falseにしてください。
- トラブルシューティング
- JSON パースエラー(Unexpected token ...)
- stdio に余計な出力が混ざっている可能性があります。
node dist/cli.jsを使い、npxは避けてください。 .env読み込みやライブラリのログは既に抑止済みです。
- stdio に余計な出力が混ざっている可能性があります。
- 認証エラー
OPENAI_API_KEYが正しく渡っているか確認。
- タイムアウト
OPENAI_TIMEOUT_MSを増やす(例: 120000)。
- Web Search で 400 エラー
reasoning.effort=minimalとweb_searchの併用不可が原因。自動的にmediumに上げますが、明示的にmediumを指定するか、web_searchを無効化してください。
推荐服务器
Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。
VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。