MCP Chat Adapter
用于使用 OpenAI 兼容聊天端点的 MCP 服务器
aiamblichus
README
MCP Chat Adapter
一个 MCP (模型上下文协议) 服务器,它为 LLM 提供了一个简洁的接口,可以通过 MCP 协议使用聊天完成功能。此服务器充当 LLM 客户端和任何 OpenAI 兼容 API 之间的桥梁。主要用例是聊天模型,因为服务器不提供对文本完成的支持。
概述
OpenAI Chat MCP 服务器实现了模型上下文协议 (MCP),允许语言模型以标准化方式与 OpenAI 的聊天完成 API 交互。它实现了用户和语言模型之间的无缝对话,同时处理 API 交互、对话管理和状态持久化的复杂性。
特性
- 使用 FastMCP 构建,实现强大而简洁的实现
- 提供用于对话管理和聊天完成的工具
- 适当的错误处理和超时
- 支持使用本地存储进行对话持久化
- 易于设置,配置最少
- 可配置的模型参数和默认值
- 兼容 OpenAI 和 OpenAI 兼容的 API
典型工作流程
这个想法是,您可以让 Claude 在后台启动并维护与其他模型的多个对话。所有对话都存储在 CONVERSATION_DIR
目录中,您应该在 mcp.json
文件的 env
部分中设置该目录。
可以告诉 Claude 创建一个新对话,或者继续现有的对话(由整数 conversation_id
标识)。即使您在一个新的上下文中重新开始,您也可以继续旧的对话,尽管在这种情况下,您可能希望告诉 Claude 在继续之前使用 get_conversation
工具读取旧的对话。
请注意,您也可以手动编辑 CONVERSATION_DIR
目录中的对话。在这种情况下,您可能需要重新启动服务器才能看到更改。
配置
必需的环境变量
必须设置以下环境变量才能使服务器正常运行:
OPENAI_API_KEY=your-api-key # 您的 OpenAI 或兼容服务的 API 密钥
OPENAI_API_BASE=https://openrouter.ai/api/v1 # API 的基本 URL(可以为兼容服务更改)
您还应该将 CONVERSATION_DIR
环境变量设置为要存储对话数据的目录。使用绝对路径。
可选环境变量
以下环境变量是可选的,并且具有默认值:
# 模型配置
DEFAULT_MODEL=google/gemini-2.0-flash-001 # 如果未指定,则使用的默认模型
DEFAULT_SYSTEM_PROMPT="You are an unhelpful assistant." # 默认系统提示
DEFAULT_MAX_TOKENS=50000 # 完成的默认最大令牌数
DEFAULT_TEMPERATURE=0.7 # 默认温度设置
DEFAULT_TOP_P=1.0 # 默认 top_p 设置
DEFAULT_FREQUENCY_PENALTY=0.0 # 默认频率惩罚
DEFAULT_PRESENCE_PENALTY=0.0 # 默认存在惩罚
# 存储配置
CONVERSATION_DIR=./convos # 存储对话数据的目录
MAX_CONVERSATIONS=1000 # 要存储的最大对话数
与 Claude UI 等集成
您的 mcp.json
文件应如下所示:
{
"mcpServers": {
"chat-adapter": {
"command": "npx",
"args": [
"-y",
"mcp-chat-adapter"
],
"env": {
"CONVERSATION_DIR": "/Users/aiamblichus/mcp-convos",
"OPENAI_API_KEY": "xoxoxo",
"OPENAI_API_BASE": "https://openrouter.ai/api/v1",
"DEFAULT_MODEL": "qwen/qwq-32b"
}
}
}
}
该软件包的最新版本已发布到 npm 此处。
可用工具
1. 创建对话
创建一个新的聊天对话。
{
"name": "create_conversation",
"arguments": {
"model": "gpt-4",
"system_prompt": "You are a helpful assistant.",
"parameters": {
"temperature": 0.7,
"max_tokens": 1000
},
"metadata": {
"title": "My conversation",
"tags": ["important", "work"]
}
}
}
2. 聊天
向对话添加消息并获取响应。
{
"name": "chat",
"arguments": {
"conversation_id": "123",
"message": "Hello, how are you?",
"parameters": {
"temperature": 0.8
}
}
}
3. 列出对话
获取可用对话的列表。
{
"name": "list_conversations",
"arguments": {
"filter": {
"tags": ["important"]
},
"limit": 10,
"offset": 0
}
}
4. 获取对话
获取对话的完整内容。
{
"name": "get_conversation",
"arguments": {
"conversation_id": "123"
}
}
5. 删除对话
删除对话。
{
"name": "delete_conversation",
"arguments": {
"conversation_id": "123"
}
}
开发
安装
# 克隆存储库
git clone https://github.com/aiamblichus/mcp-chat-adapter.git
cd mcp-chat-adapter
# 安装依赖项
yarn install
# 构建项目
yarn build
运行服务器
对于 FastMCP cli 运行:
yarn cli
对于 FastMCP inspect 运行:
yarn inspect
贡献
欢迎贡献!请随时提交拉取请求。
许可证
MIT
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
MCP Package Docs Server
促进大型语言模型高效访问和获取 Go、Python 和 NPM 包的结构化文档,通过多语言支持和性能优化来增强软件开发。
Claude Code MCP
一个实现了 Claude Code 作为模型上下文协议(Model Context Protocol, MCP)服务器的方案,它可以通过标准化的 MCP 接口来使用 Claude 的软件工程能力(代码生成、编辑、审查和文件操作)。
@kazuph/mcp-taskmanager
用于任务管理的模型上下文协议服务器。它允许 Claude Desktop(或任何 MCP 客户端)在基于队列的系统中管理和执行任务。
mermaid-mcp-server
一个模型上下文协议 (MCP) 服务器,用于将 Mermaid 图表转换为 PNG 图像。
Jira-Context-MCP
MCP 服务器向 AI 编码助手(如 Cursor)提供 Jira 工单信息。

Linear MCP Server
一个模型上下文协议(Model Context Protocol)服务器,它与 Linear 的问题跟踪系统集成,允许大型语言模型(LLM)通过自然语言交互来创建、更新、搜索和评论 Linear 问题。

Sequential Thinking MCP Server
这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。
Curri MCP Server
通过管理文本笔记、提供笔记创建工具以及使用结构化提示生成摘要,从而实现与 Curri API 的交互。