MCP LLM API Server

MCP LLM API Server

ianrichard

开发者工具
访问服务器

README

MCP LLM API 服务器

一个使用 Model-Call-Protocol 模式和 Pydantic AI 的 LLM API 服务器。

特性

  • 用于 CLI 交互的终端界面
  • 带有 WebSocket 流的 API 服务器
  • Web 客户端演示
  • 通过 MCP 支持工具调用

前提条件

  • Python 3.9+
  • 一个虚拟环境 (venv)

快速开始(本地开发)

  1. 复制 .env.example.env 并添加你的 API 密钥
  2. 创建并激活一个虚拟环境:
    python3 -m venv .venv
    source .venv/bin/activate  # 在 Linux/macOS 上
    # 或
    .venv\Scripts\activate  # 在 Windows 上
    
  3. 安装依赖:
    pip install -r requirements.txt
    
  4. 运行 CLI:
    python src/main.py --mode cli
    
  5. 运行 API:
    python src/main.py --mode api
    

Docker

构建 Docker 镜像

docker build -t mcp-llm-api-server .

运行 API 模式(默认)

docker run -p 8000:8000 --env-file .env mcp-llm-api-server

运行 CLI 模式(交互式)

docker run -it --env-file .env mcp-llm-api-server --mode cli

使用 Docker 进行开发,支持实时重新加载

# 运行并挂载卷,以便在开发期间实时重新加载代码
docker run -p 8000:8000 --env-file .env -v $(pwd):/app mcp-llm-api-server

使用 Docker Compose

# 启动 API 服务
docker-compose up

模型配置

本项目使用 Pydantic AI 进行 AI 模型集成。 你可以通过设置 BASE_MODEL 环境变量来配置要使用的模型。

格式遵循 Pydantic AI 约定:provider:model_name

示例:

  • openai:gpt-4o
  • anthropic:claude-3-opus-20240229
  • groq:llama-3.3-70b-versatile

请参阅支持模型的完整列表:https://ai.pydantic.dev/models/

API 密钥

对于每个提供商,你需要在你的 .env 文件中设置相应的 API 密钥:

# .env 配置示例
BASE_MODEL=groq:llama-3.3-70b-versatile
GROQ_API_KEY=your-groq-api-key
OPENAI_API_KEY=your-openai-api-key
ANTHROPIC_API_KEY=your-anthropic-api-key

API 密钥环境变量遵循以下模式:{PROVIDER_NAME}_API_KEY

API 文档

API 服务器运行后,请访问自动生成的 API 文档:

发起 API 调用

主要端点是 /chat,它接受带有 JSON 格式请求体的 POST 请求,其中包含用户的消息。

使用 curl 的示例:

curl -X POST -H "Content-Type: application/json" -d '{"message": "Hello, agent!"}' http://localhost:8000/chat

对于流式响应,请使用 WebSocket 端点:

ws://localhost:8000/ws

Web 客户端

一个演示 Web 客户端包含在 /static 目录中。 请通过以下地址访问它:

http://localhost:8000/

重要提示

  • 确保在运行客户端或服务器之前激活虚拟环境。
  • API 服务器默认在端口 8000 上运行。
  • CLI 界面和 API 服务器都使用相同的底层代理功能。

推荐服务器

Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。

官方
精选
本地
TypeScript
MCP Package Docs Server

MCP Package Docs Server

促进大型语言模型高效访问和获取 Go、Python 和 NPM 包的结构化文档,通过多语言支持和性能优化来增强软件开发。

精选
本地
TypeScript
Claude Code MCP

Claude Code MCP

一个实现了 Claude Code 作为模型上下文协议(Model Context Protocol, MCP)服务器的方案,它可以通过标准化的 MCP 接口来使用 Claude 的软件工程能力(代码生成、编辑、审查和文件操作)。

精选
本地
JavaScript
@kazuph/mcp-taskmanager

@kazuph/mcp-taskmanager

用于任务管理的模型上下文协议服务器。它允许 Claude Desktop(或任何 MCP 客户端)在基于队列的系统中管理和执行任务。

精选
本地
JavaScript
mermaid-mcp-server

mermaid-mcp-server

一个模型上下文协议 (MCP) 服务器,用于将 Mermaid 图表转换为 PNG 图像。

精选
JavaScript
Jira-Context-MCP

Jira-Context-MCP

MCP 服务器向 AI 编码助手(如 Cursor)提供 Jira 工单信息。

精选
TypeScript
Linear MCP Server

Linear MCP Server

一个模型上下文协议(Model Context Protocol)服务器,它与 Linear 的问题跟踪系统集成,允许大型语言模型(LLM)通过自然语言交互来创建、更新、搜索和评论 Linear 问题。

精选
JavaScript
Sequential Thinking MCP Server

Sequential Thinking MCP Server

这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。

精选
Python
Curri MCP Server

Curri MCP Server

通过管理文本笔记、提供笔记创建工具以及使用结构化提示生成摘要,从而实现与 Curri API 的交互。

官方
本地
JavaScript