
Selector AI FastMCP
一个模型上下文协议(MCP)服务器,它通过一个支持流式传输的服务器和一个基于 Docker 的客户端(通过 stdin/stdout 通信)来实现与 Selector AI 的实时、交互式 AI 聊天。
README
Selector AI FastMCP
本仓库提供了 Selector AI 的模型上下文协议 (MCP) 的完整实现。它包括一个支持流式传输的服务器和一个基于 Docker 的交互式客户端,它们通过 stdin/stdout 进行通信。
✨ 特性
✅ 服务器
兼容 FastMCP 且基于 Python 构建
实时 SSE 流式传输支持
与 Selector AI 的交互式 AI 聊天
最少的样板代码
内置的容器编排健康检查
请求/响应日志记录和重试
✅ 客户端
Python 客户端通过 Docker 启动服务器
支持 CLI 和程序化访问
通过 stdin 和 stdout 进行读写
使用 .env 进行环境变量配置
🚀 快速开始
前提条件
Python 3.8+
Docker
一个 Selector AI API 密钥
Selector API URL
⚙️ 安装
克隆仓库
git clone https://github.com/automateyournetwork/selector-mcp-server
cd selector-ai-mcp
安装 Python 依赖
pip install -r requirements.txt
设置环境变量 创建一个 .env 文件:
SELECTOR_URL=https://your-selector-api-url
SELECTOR_AI_API_KEY=your-api-key
🐳 Dockerfile
服务器在轻量级容器中运行,使用以下 Dockerfile:
FROM python:3.11-slim
WORKDIR /app
COPY requirements.txt .
RUN pip install -r requirements.txt
COPY . .
CMD ["python", "-u", "mcp_server.py"]
HEALTHCHECK --interval=30s --timeout=30s --start-period=5s
CMD python -c "import socket; s = socket.socket(socket.AF_UNIX, socket.SOCK_STREAM); s.connect('/tmp/mcp.sock'); s.send(b'{"tool_name": "ready"}\n'); data = s.recv(1024); s.close(); import json; result = json.loads(data); exit(0 if result.get('status') == 'ready' else 1)" || exit 1
构建 Docker 镜像
docker build -t selector-mcp .
🧠 使用客户端
启动客户端
这将启动 Docker 容器并打开一个交互式 shell。
python mcp_client.py
CLI 会话示例
You> 什么是 AIOps?
Selector> AIOps 指的是将 AI 应用于 IT 运维...
程序化访问
from selector_client import call_tool, spawn_server
proc = spawn_server()
call_tool(proc, "ready")
response = call_tool(proc, "ask_selector", {"content": "What is AIOps?"})
print(response)
🖥️ 与 Claude Desktop 一起使用
如果与 Claude Desktop 集成,您可以运行此服务器并在本地公开一个 socket 或 HTTP 端点:
使用 Docker 或本地方式运行服务器:
python mcp_server.py
从 Claude Desktop 的外部工具配置连接到 socket 或 HTTP 端点。
确保您的消息格式匹配:
{
"method": "tools/call",
"tool_name": "ask_selector",
"content": "What can you tell me about device S6?"
}
Claude Desktop 将通过 stdout 接收 AI 的结构化响应。
🛠️ 构建您自己的容器
要自定义此设置:
Fork 或克隆此仓库
修改 selector_fastmcp_server.py 以集成您首选的模型或路由逻辑
重建 Docker 镜像:
docker build -t my-custom-mcp .
更新客户端以启动 my-custom-mcp:
"docker", "run", "-i", "--rm", "my-custom-mcp"
📁 项目结构
selector-ai-mcp/
├── selector_fastmcp_server.py # 服务器:MCP + Selector AI 集成
├── selector_client.py # 客户端:Docker + stdin/stdout CLI
├── Dockerfile # 容器配置
├── requirements.txt # Python 依赖
├── .env # 环境变量密钥
└── README.md # 您在这里
✅ 要求
requirements.txt 中的依赖项:
requests
python-dotenv
📜 许可证
Apache License 2.0
推荐服务器

Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。