MCP LLM API Server
ianrichard
README
MCP LLM API 服务器
一个使用 Model-Call-Protocol 模式和 Pydantic AI 的 LLM API 服务器。
特性
- 用于 CLI 交互的终端界面
- 带有 WebSocket 流的 API 服务器
- Web 客户端演示
- 通过 MCP 支持工具调用
前提条件
- Python 3.9+
- 一个虚拟环境 (venv)
快速开始(本地开发)
- 复制
.env.example
到.env
并添加你的 API 密钥 - 创建并激活一个虚拟环境:
python3 -m venv .venv source .venv/bin/activate # 在 Linux/macOS 上 # 或 .venv\Scripts\activate # 在 Windows 上
- 安装依赖:
pip install -r requirements.txt
- 运行 CLI:
python src/main.py --mode cli
- 运行 API:
python src/main.py --mode api
Docker
构建 Docker 镜像
docker build -t mcp-llm-api-server .
运行 API 模式(默认)
docker run -p 8000:8000 --env-file .env mcp-llm-api-server
运行 CLI 模式(交互式)
docker run -it --env-file .env mcp-llm-api-server --mode cli
使用 Docker 进行开发,支持实时重新加载
# 运行并挂载卷,以便在开发期间实时重新加载代码
docker run -p 8000:8000 --env-file .env -v $(pwd):/app mcp-llm-api-server
使用 Docker Compose
# 启动 API 服务
docker-compose up
模型配置
本项目使用 Pydantic AI 进行 AI 模型集成。 你可以通过设置 BASE_MODEL
环境变量来配置要使用的模型。
格式遵循 Pydantic AI 约定:provider:model_name
示例:
openai:gpt-4o
anthropic:claude-3-opus-20240229
groq:llama-3.3-70b-versatile
请参阅支持模型的完整列表:https://ai.pydantic.dev/models/
API 密钥
对于每个提供商,你需要在你的 .env
文件中设置相应的 API 密钥:
# .env 配置示例
BASE_MODEL=groq:llama-3.3-70b-versatile
GROQ_API_KEY=your-groq-api-key
OPENAI_API_KEY=your-openai-api-key
ANTHROPIC_API_KEY=your-anthropic-api-key
API 密钥环境变量遵循以下模式:{PROVIDER_NAME}_API_KEY
API 文档
API 服务器运行后,请访问自动生成的 API 文档:
- Swagger UI: http://localhost:8000/docs
- ReDoc: http://localhost:8000/redoc
发起 API 调用
主要端点是 /chat
,它接受带有 JSON 格式请求体的 POST 请求,其中包含用户的消息。
使用 curl 的示例:
curl -X POST -H "Content-Type: application/json" -d '{"message": "Hello, agent!"}' http://localhost:8000/chat
对于流式响应,请使用 WebSocket 端点:
ws://localhost:8000/ws
Web 客户端
一个演示 Web 客户端包含在 /static
目录中。 请通过以下地址访问它:
http://localhost:8000/
重要提示
- 确保在运行客户端或服务器之前激活虚拟环境。
- API 服务器默认在端口 8000 上运行。
- CLI 界面和 API 服务器都使用相同的底层代理功能。
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
MCP Package Docs Server
促进大型语言模型高效访问和获取 Go、Python 和 NPM 包的结构化文档,通过多语言支持和性能优化来增强软件开发。
Claude Code MCP
一个实现了 Claude Code 作为模型上下文协议(Model Context Protocol, MCP)服务器的方案,它可以通过标准化的 MCP 接口来使用 Claude 的软件工程能力(代码生成、编辑、审查和文件操作)。
@kazuph/mcp-taskmanager
用于任务管理的模型上下文协议服务器。它允许 Claude Desktop(或任何 MCP 客户端)在基于队列的系统中管理和执行任务。
mermaid-mcp-server
一个模型上下文协议 (MCP) 服务器,用于将 Mermaid 图表转换为 PNG 图像。
Jira-Context-MCP
MCP 服务器向 AI 编码助手(如 Cursor)提供 Jira 工单信息。

Linear MCP Server
一个模型上下文协议(Model Context Protocol)服务器,它与 Linear 的问题跟踪系统集成,允许大型语言模型(LLM)通过自然语言交互来创建、更新、搜索和评论 Linear 问题。

Sequential Thinking MCP Server
这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。
Curri MCP Server
通过管理文本笔记、提供笔记创建工具以及使用结构化提示生成摘要,从而实现与 Curri API 的交互。