OpenAPITools SDK
你的 API,现在是 AI 工具。一分钟内构建 MCP 服务器。
kvssankar
README
OpenAPITools SDK
简介
OpenAPITools Python 包使开发者能够管理和执行跨多个 AI API 提供商的工具。它为在 Anthropic 的 Claude、OpenAI 的 GPT 模型和 LangChain 框架中使用工具提供了一个统一的接口。
使用 OpenAPITools,您可以:
- 创建具有标准化输入/输出的 Python 或 Bash 脚本作为工具
- 通过单个、一致的 SDK 访问这些工具
- 将工具与 Claude、GPT 和 LangChain 模型集成
- 构建可以使用工具解决复杂任务的交互式聊天机器人
安装
前提条件
- Python 3.8 或更高版本
- 至少一个受支持的 AI 提供商(Anthropic、OpenAI 或 LangChain)的访问密钥
- 从 设置 页面获取 OpenAPITools 的 API 密钥
从 PyPI 安装
pip install reacter-openapitools requests
如果您正在使用 LangChain 适配器,您还需要安装 langchain
和 langchain-core
:
pip install langchain langchain-core
工具执行细节
Python 工具
- Python 工具使用 Python 的
exec()
函数直接在当前进程中执行 - 优点:
- 没有解释器启动开销
- 完全隐私(代码在本地运行)
- 与子进程方法相比,执行速度更快
- Python 工具通过
input_json
字典接收参数,并且可以通过input_json["openv"]
访问环境变量
Bash 工具
- Bash 工具作为子进程执行
- 参数作为 JSON 传递到脚本的标准输入
- 推荐用于非 Python 环境,以获得更好的性能
- 注意:Bash 工具应在 Linux 环境或 WSL 中进行测试,因为它们可能无法在 Windows 中正常运行
使用模式
本地模式 (首选)
adapter = ToolsAdapter(folder_path="/path/to/tools")
API 模式 (有速率限制)
adapter = ToolsAdapter(api_key="your_api_key")
性能考虑
- Python 工具: 最适合 Python 环境,在进程内执行,开销最小
- Bash 工具: 更适合非 Python 服务器或需要隔离时
- 为了在非 Python 环境中获得最佳性能,请首选 Bash 工具
安全和隐私
- 所有工具执行都在您的环境中本地发生
- 没有代码被发送到外部服务器执行
- 环境变量可以安全地传递给工具
与 AI 模型集成
OpenAPITools 提供与以下内容的本机集成:
- Anthropic 的 Claude
- OpenAI 的 GPT 模型
- LangChain 框架
这使您可以构建可以利用工具执行复杂任务的 AI 助手。
访问 docs.openapitools.com 以获取有关如何使用 OpenAPITools SDK 的更多信息,包括详细示例和 API 参考。
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
MCP Package Docs Server
促进大型语言模型高效访问和获取 Go、Python 和 NPM 包的结构化文档,通过多语言支持和性能优化来增强软件开发。
Claude Code MCP
一个实现了 Claude Code 作为模型上下文协议(Model Context Protocol, MCP)服务器的方案,它可以通过标准化的 MCP 接口来使用 Claude 的软件工程能力(代码生成、编辑、审查和文件操作)。
@kazuph/mcp-taskmanager
用于任务管理的模型上下文协议服务器。它允许 Claude Desktop(或任何 MCP 客户端)在基于队列的系统中管理和执行任务。
mermaid-mcp-server
一个模型上下文协议 (MCP) 服务器,用于将 Mermaid 图表转换为 PNG 图像。
Jira-Context-MCP
MCP 服务器向 AI 编码助手(如 Cursor)提供 Jira 工单信息。

Linear MCP Server
一个模型上下文协议(Model Context Protocol)服务器,它与 Linear 的问题跟踪系统集成,允许大型语言模型(LLM)通过自然语言交互来创建、更新、搜索和评论 Linear 问题。

Sequential Thinking MCP Server
这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。
Curri MCP Server
通过管理文本笔记、提供笔记创建工具以及使用结构化提示生成摘要,从而实现与 Curri API 的交互。