
MCP Gateway for RFK Jr Endpoints
一个模型上下文协议网关,连接到与小罗伯特·F·肯尼迪相关的端点,支持 STDIO 和 SSE 传输方法。
README
用于 Voitta 的 MCP 网关
此 MCP 服务器提供了一个通往 Voitta 库的网关,允许您通过模型上下文协议 (MCP) 使用 Voitta 的功能。它支持 STDIO 和 SSE 传输。
要求
- Python 3.10+
requirements.txt
中列出的依赖项(包括 voitta)
安装
- 克隆此存储库
- 安装依赖项:
pip install -r requirements.txt
配置
服务器从 YAML 文件读取 Voitta 配置。默认情况下,它会在 /Users/gregory/g/projects/llm/roma/voitta-example/config/voitta.yaml
查找该文件,但您可以使用 CONFIG_PATH
环境变量指定不同的路径。
配置文件应遵循 Voitta 库期望的格式。有关配置格式的详细信息,请参阅 Voitta 文档。
用法
使用 VSCode 运行
您可以使用提供的启动配置直接从 VSCode 运行服务器。
从命令行运行
使用以下命令运行服务器:
python server.py
对于 HTTP 模式(SSE 传输):
FASTMCP_HTTP=1 PORT=10000 python server.py
使用 MCP Inspector 进行测试
MCP Inspector 是一个用于测试和调试 MCP 服务器的有用工具。以下是如何将其与 Voitta Gateway 一起使用:
-
启动 MCP Inspector:
npx @modelcontextprotocol/inspector
-
在 http://localhost:5173 打开 inspector 控制台
-
对于 STDIO 传输(推荐用于测试),使用以下选项之一:
选项 1:直接使用 python
- 选择 "STDIO" 作为传输类型
- 将命令设置为:
python
(或python3
,具体取决于您的系统) - 将参数设置为:
server.py
选项 2:使用 uv
- 选择 "STDIO" 作为传输类型
- 将命令设置为:
uv
- 将参数设置为:
run --with fastmcp --with pyyaml --with voitta --with pydantic server.py
选项 3:使用带有完整路径的 fastmcp
- 选择 "STDIO" 作为传输类型
- 将命令设置为:
/path/to/your/fastmcp
(例如,/Users/gregory/g/projects/llm/roma/mcp-voitta-gateway/.venv/bin/fastmcp
) - 将参数设置为:
run /full/path/to/server.py
(例如,run /Users/gregory/g/projects/llm/roma/mcp-voitta-gateway/server.py
)
选项 4:使用 cd 和 fastmcp
- 选择 "STDIO" 作为传输类型
- 将命令设置为:
bash
(或您的 shell) - 将参数设置为:
-c "cd /Users/gregory/g/projects/llm/roma/mcp-voitta-gateway && fastmcp run server.py"
-
单击“连接”以建立与服务器的连接
-
连接后,您可以:
- 在“工具”选项卡下查看可用的工具
- 访问
voitta://tools
资源以查看所有 Voitta 工具 - 通过提供输入参数并执行它们来测试工具
- 在控制台输出中查看服务器日志
对于 HTTP/SSE 传输:
- 在 HTTP 模式下启动服务器:
FASTMCP_HTTP=1 PORT=10000 python server.py
- 在 MCP Inspector 中,选择 "SSE" 作为传输类型
- 将 URL 设置为:
http://localhost:10000
- 单击“连接”
可用工具和资源
服务器会自动注册 Voitta 库提供的所有工具。您可以使用 voitta://tools
资源获取可用工具的列表。
此外,服务器还提供以下 MCP 工具:
get_voitta_tool_info
:获取有关特定 Voitta 工具的详细信息,包括其参数和描述。
LLM 助手安装
为 Claude 安装
fastmcp install server.py --name "voitta-gateway"
为 Cline 安装
请按照 Cline 文档安装 MCP 服务器。
推荐服务器

Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。