MCP Server for OpenSearch
提供一个语义记忆层,将大型语言模型(LLMs)与 OpenSearch 集成,从而能够在 OpenSearch 引擎中存储和检索记忆。
README
mcp-server-opensearch: 一个 OpenSearch MCP 服务器
模型上下文协议 (MCP) 是一个开放协议,它实现了 LLM 应用程序与外部数据源和工具之间的无缝集成。 无论您是构建 AI 驱动的 IDE、增强聊天界面还是创建自定义 AI 工作流程,MCP 都提供了一种标准化的方式来将 LLM 与它们所需的上下文连接起来。
此存储库演示了如何为 OpenSearch 创建 MCP 服务器,OpenSearch 是一个分布式搜索和分析引擎。
正在建设中
当前障碍 - OpenSearch 的异步客户端无法安装
pip install opensearch-py[async]
zsh: no matches found: opensearch-py[async]
概述
一个基本的模型上下文协议服务器,用于在 OpenSearch 引擎中保存和检索记忆。 它充当 OpenSearch 数据库之上的语义记忆层。
组件
工具
search-openSearch
- 在 OpenSearch 数据库中存储记忆
- 输入:
query
(json): 准备好的 json 查询消息
- 返回:确认消息
安装
通过 Smithery 安装
要通过 Smithery 为 Claude Desktop 自动安装 mcp-server-opensearch:
npx -y @smithery/cli install @ibrooksSDX/mcp-server-opensearch --client claude
使用 uv (推荐)
当使用 uv
时,无需进行特定安装即可直接运行 mcp-server-opensearch。
uv run mcp-server-opensearch \
--opensearch-url "http://localhost:9200" \
--index-name "my_index" \
或者
uv run fastmcp run demo.py:main
测试 - 本地 Open Search 客户端
uv run python src/mcp-server-opensearch/test_opensearch.py
测试 - MCP 服务器连接到 Open Search 客户端
cd src/mcp-server-opensearch
uv run fastmcp dev demo.py
与 Claude Desktop 一起使用
要将此服务器与 Claude Desktop 应用程序一起使用,请将以下配置添加到 claude_desktop_config.json
的 "mcpServers" 部分:
{
"opensearch": {
"command": "uvx",
"args": [
"mcp-server-opensearch",
"--opensearch-url",
"http://localhost:9200",
"--opensearch-api-key",
"your_api_key",
"--index-name",
"your_index_name"
]
}, "Demo": {
"command": "uv",
"args": [
"run",
"--with",
"fastmcp",
"--with",
"opensearch-py",
"fastmcp",
"run",
"/Users/ibrooks/Documents/GitHub/mcp-server-opensearch/src/mcp-server-opensearch/demo.py"
]
}
}
或者使用 FastMCP UI 将服务器安装到 Claude
uv run fastmcp install demo.py
环境变量
服务器的配置也可以使用环境变量完成:
OPENSEARCH_HOST
: OpenSearch 服务器的 URL,例如http://localhost
OPENSEARCH_HOSTPORT
: OpenSearch 服务器的主机端口9200
INDEX_NAME
: 要使用的索引的名称
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。
mcp-server-qdrant
这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。
AIO-MCP Server
🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。
Knowledge Graph Memory Server
为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。
Hyperbrowser
欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:
https://github.com/Streen9/react-mcp
react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。
MCP Atlassian
适用于 Atlassian Cloud 产品(Confluence 和 Jira)的 Model Context Protocol (MCP) 服务器。此集成专为 Atlassian Cloud 实例设计,不支持 Atlassian Server 或 Data Center 部署。

any-chat-completions-mcp
将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。