Storm MCP Server with Sionic AI serverless RAG
镜子 (jìng zi)
MCP-Mirror
README
Storm MCP服务器与Sionic AI无服务器RAG
韩语 (한국어)
Storm MCP(模型上下文协议) 服务器
Storm MCP(模型上下文协议) 服务器是一个开放协议,旨在实现 LLM 应用程序与 RAG 数据源和工具之间的无缝集成。 它实现了 Anthropic 的 模型上下文协议,以便直接在 Claude Desktop 中使用 Storm Platform。
通过集成 Sionic AI 的 Storm Platform,您可以连接并使用自己强大的嵌入模型和向量数据库产品系列。 在 https://sionicstorm.ai 上以代理为单位注册,获取 API Token,即可立即创建 RAG 解决方案。
使用示例
API Key 请在 scripts/run.sh
中的 export STORM_API_KEY=''
中输入。
主要功能
- 上下文共享: 提供 LLM 和数据源之间交互的标准协议。
- 工具系统: 提供定义和调用工具的标准化方式(send_nonstream_chat、list_agents、list_buckets、upload_document_by_file 等)。
- 文件管理: 实现用于文件上传、读取和管理的文件系统操作。
- API 集成: 与 Storm 的 API 端点连接,提供各种功能。
项目结构
- main.py: 初始化 MCP 服务器并设置事件处理程序。
- core/file_manager.py: 实现用于文件操作的
FileSystemManager
类。 - core/internal_api.py: 包含与 Storm 的 REST API 端点交互的 API 客户端函数。
- tools/tool_definitions.py: 定义 MCP 服务器中可用的工具。
- tools/tool_handlers.py: 实现用于工具操作的处理程序。
- tools/tool_upload_file.py: 实现具有自身 MCP 处理程序的文件操作的单独文件服务器。
架构
MCP 采用三层结构设计,包括主机(LLM 应用程序)、客户端(协议实现)和服务器(功能提供者)。 Storm MCP 服务器实现其中的服务器部分,向 LLM 提供资源和工具。
开始使用
要在 Claude Desktop 环境中连接 MCP 服务器,您需要应用以下设置。
- 打开配置文件
code ~/Library/Application\ Support/Claude/claude_desktop_config.json
- 在 JSON 内部添加 MCP 服务器设置:
{
"mcpServers": {
"storm": {
"command": "sh",
"args": [
"/Users/sigridjineth/Desktop/work/storm-mcp-server/scripts/run.sh"
]
}
}
}
日语 (日本語)
Storm MCP(模型上下文协议) 服务器
Storm MCP(模型上下文协议) 服务器是一个开放协议,旨在实现 LLM 应用程序与 RAG 数据源和工具之间的无缝集成。 它实现了 Anthropic 的 模型上下文协议,以便直接在 Claude Desktop 中使用 Storm Platform。
通过集成 Sionic AI 的 Storm Platform,您可以连接并使用自己强大的嵌入模型和向量数据库产品系列。 在 https://sionicstorm.ai 上以代理为单位注册,获取 API Token,即可立即创建 RAG 解决方案。
使用示例
API Key 请在 scripts/run.sh
中的 export STORM_API_KEY=''
中输入。
主要功能
- 上下文共享: 提供 LLM 和数据源之间交互的标准协议。
- 工具系统: 提供定义和调用工具的标准化方式(send_nonstream_chat、list_agents、list_buckets、upload_document_by_file 等)。
- 文件管理: 实现用于文件上传、读取和管理的文件系统操作。
- API 集成: 与 Storm 的 API 端点连接,提供各种功能。
项目结构
- main.py: 初始化 MCP 服务器并设置事件处理程序。
- core/file_manager.py: 实现用于文件操作的
FileSystemManager
类。 - core/internal_api.py: 包含与 Storm 的 REST API 端点交互的 API 客户端函数。
- tools/tool_definitions.py: 定义 MCP 服务器中可用的工具。
- tools/tool_handlers.py: 实现用于工具操作的处理程序。
- tools/tool_upload_file.py: 实现具有自身 MCP 处理程序的文件操作的单独文件服务器。
架构
MCP 采用三层结构设计,包括主机(LLM 应用程序)、客户端(协议实现)和服务器(功能提供者)。 Storm MCP 服务器实现其中的服务器部分,向 LLM 提供资源和工具。
开始使用
要在 Claude Desktop 环境中连接 MCP 服务器,您需要应用以下设置。
- 打开配置文件
code ~/Library/Application\ Support/Claude/claude_desktop_config.json
- 在 JSON 内部添加 MCP 服务器设置:
{
"mcpServers": {
"storm": {
"command": "sh",
"args": [
"/Users/sigridjineth/Desktop/work/storm-mcp-server/scripts/run.sh"
]
}
}
}
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
MCP Package Docs Server
促进大型语言模型高效访问和获取 Go、Python 和 NPM 包的结构化文档,通过多语言支持和性能优化来增强软件开发。
Claude Code MCP
一个实现了 Claude Code 作为模型上下文协议(Model Context Protocol, MCP)服务器的方案,它可以通过标准化的 MCP 接口来使用 Claude 的软件工程能力(代码生成、编辑、审查和文件操作)。
@kazuph/mcp-taskmanager
用于任务管理的模型上下文协议服务器。它允许 Claude Desktop(或任何 MCP 客户端)在基于队列的系统中管理和执行任务。
mermaid-mcp-server
一个模型上下文协议 (MCP) 服务器,用于将 Mermaid 图表转换为 PNG 图像。
Jira-Context-MCP
MCP 服务器向 AI 编码助手(如 Cursor)提供 Jira 工单信息。

Linear MCP Server
一个模型上下文协议(Model Context Protocol)服务器,它与 Linear 的问题跟踪系统集成,允许大型语言模型(LLM)通过自然语言交互来创建、更新、搜索和评论 Linear 问题。

Sequential Thinking MCP Server
这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。
Curri MCP Server
通过管理文本笔记、提供笔记创建工具以及使用结构化提示生成摘要,从而实现与 Curri API 的交互。