Hippycampus
一个基于 LangChain 的服务器,支持动态加载 OpenAPI 规范,并通过服务器发送事件 (SSE) 传输实现与 Web 服务的自然语言交互。
cromwellian
README
Hippycampus
一个基于 LangChain 的 CLI 和 MCP 服务器,支持动态加载 OpenAPI 规范并与 Langflow 集成。
前提条件
- Python 3.12.9
- UV 包管理器
- Google AI Studio API 密钥
- Langflow (用于可视化工作流创建)
安装
# 如果您尚未安装 UV,请安装它
curl -LsSf https://astral.sh/uv/install.sh | sh
# 创建并激活虚拟环境
uv venv
source .venv/bin/activate # 在 Windows 上使用: .venv\Scripts\activate
# 安装 hippycampus 及其依赖项
uv pip install -e .
# 安装 langflow
uv pip install langflow
配置
Google AI Studio API 密钥
- 访问 Google AI Studio
- 点击右上角的 "创建 API 密钥"
- 复制生成的密钥并将其设置为环境变量:
export GOOGLE_API_KEY='your-api-key-here'
运行应用程序
CLI 模式 (无 MCP 服务器)
uv run hippycampus-cli
MCP 服务器模式 (SSE)
uv run hippycampus-server --transport sse --port 8000
Langflow 服务器
在启动 Langflow 之前,请确保 MCP 服务器正在运行。
- 设置组件路径环境变量:
# 获取当前工作目录
pwd
# 使用输出设置组件路径
export LANGFLOW_COMPONENTS_PATH="/output/from/pwd/langflow/components"
- 启动 Langflow 服务器 (添加 --dev 以进入开发模式):
uv run langflow run
- 打开浏览器并导航到
http://localhost:7860
在 Langflow 中使用自定义组件
-
在 Langflow UI 中,找到自定义组件:
- OpenApi Service: 用于加载 OpenAPI 规范
- Hippycampus MCP Server: 用于通过 SSE 连接到 MCP 服务器
-
配置组件:
- OpenApi Service: 使用
https://raw.githubusercontent.com/APIs-guru/unofficial_openapi_specs/master/xkcd.com/1.0.0/openapi.yaml
进行测试 - MCP Server: 使用
http://localhost:8000/sse
- OpenApi Service: 使用
请参阅截屏演示以获取可视化指南。 截屏演示
请注意,官方的 XKCD swagger 文件包含一个错误,并将 comic_id 字段指定为数字而不是整数,测试文件夹中有一个修复版本。
故障排除
- 身份验证错误:检查
GOOGLE_API_KEY
是否设置正确 - Langflow 中缺少组件:验证
LANGFLOW_COMPONENTS_PATH
是否指向正确的目录 - 连接问题:确保 MCP 服务器在通过 Langflow 连接之前正在运行
- 如果组件未出现在 Langflow 中,请尝试重新启动 Langflow 服务器
- 在 MCP/Langflow 中运行之前,使用 cli 调试 openapi_builder/spec_parser 和代理交互问题。
许可证
MIT 许可证
版权所有 (c) 2024 Ray Cromwell
特此授予任何人免费获得本软件及其相关文档文件(“软件”)副本的许可,以便不受限制地处理本软件,包括但不限于使用、复制、修改、合并、发布、分发、再许可和/或销售软件副本的权利,并允许向其提供本软件的人员这样做,但须符合以下条件:
上述版权声明和本许可声明应包含在所有副本或本软件的重要部分中。
本软件按“原样”提供,不提供任何形式的明示或暗示的保证,包括但不限于适销性、特定用途适用性和不侵权的保证。在任何情况下,作者或版权持有人均不对任何索赔、损害或其他责任负责,无论是在合同诉讼、侵权诉讼或其他诉讼中,因本软件或本软件的使用或其他交易而引起或与之相关的。
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
MCP Package Docs Server
促进大型语言模型高效访问和获取 Go、Python 和 NPM 包的结构化文档,通过多语言支持和性能优化来增强软件开发。
Claude Code MCP
一个实现了 Claude Code 作为模型上下文协议(Model Context Protocol, MCP)服务器的方案,它可以通过标准化的 MCP 接口来使用 Claude 的软件工程能力(代码生成、编辑、审查和文件操作)。
@kazuph/mcp-taskmanager
用于任务管理的模型上下文协议服务器。它允许 Claude Desktop(或任何 MCP 客户端)在基于队列的系统中管理和执行任务。
mermaid-mcp-server
一个模型上下文协议 (MCP) 服务器,用于将 Mermaid 图表转换为 PNG 图像。
Jira-Context-MCP
MCP 服务器向 AI 编码助手(如 Cursor)提供 Jira 工单信息。

Linear MCP Server
一个模型上下文协议(Model Context Protocol)服务器,它与 Linear 的问题跟踪系统集成,允许大型语言模型(LLM)通过自然语言交互来创建、更新、搜索和评论 Linear 问题。

Sequential Thinking MCP Server
这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。
Curri MCP Server
通过管理文本笔记、提供笔记创建工具以及使用结构化提示生成摘要,从而实现与 Curri API 的交互。