MCP Server for OpenSearch

MCP Server for OpenSearch

提供一个语义记忆层,将大型语言模型(LLMs)与 OpenSearch 集成,从而能够在 OpenSearch 引擎中存储和检索记忆。

AI记忆系统
数据库交互
AI集成系统
访问服务器

README

mcp-server-opensearch: 一个 OpenSearch MCP 服务器

smithery badge

模型上下文协议 (MCP) 是一个开放协议,它实现了 LLM 应用程序与外部数据源和工具之间的无缝集成。 无论您是构建 AI 驱动的 IDE、增强聊天界面还是创建自定义 AI 工作流程,MCP 都提供了一种标准化的方式来将 LLM 与它们所需的上下文连接起来。

此存储库演示了如何为 OpenSearch 创建 MCP 服务器,OpenSearch 是一个分布式搜索和分析引擎。

正在建设中

image1 image2

当前障碍 - OpenSearch 的异步客户端无法安装

Open Search 异步客户端文档

pip install opensearch-py[async]
zsh: no matches found: opensearch-py[async]

概述

一个基本的模型上下文协议服务器,用于在 OpenSearch 引擎中保存和检索记忆。 它充当 OpenSearch 数据库之上的语义记忆层。

组件

工具

  1. search-openSearch
    • 在 OpenSearch 数据库中存储记忆
    • 输入:
      • query (json): 准备好的 json 查询消息
    • 返回:确认消息

安装

通过 Smithery 安装

要通过 Smithery 为 Claude Desktop 自动安装 mcp-server-opensearch:

npx -y @smithery/cli install @ibrooksSDX/mcp-server-opensearch --client claude

使用 uv (推荐)

当使用 uv 时,无需进行特定安装即可直接运行 mcp-server-opensearch

uv run mcp-server-opensearch \
  --opensearch-url "http://localhost:9200" \
  --index-name "my_index" \

或者

uv run fastmcp run demo.py:main

测试 - 本地 Open Search 客户端

image4

uv run python src/mcp-server-opensearch/test_opensearch.py

测试 - MCP 服务器连接到 Open Search 客户端

image1 image2

cd src/mcp-server-opensearch
uv run fastmcp dev demo.py

与 Claude Desktop 一起使用

要将此服务器与 Claude Desktop 应用程序一起使用,请将以下配置添加到 claude_desktop_config.json 的 "mcpServers" 部分:

{
  "opensearch": {
    "command": "uvx",
    "args": [
      "mcp-server-opensearch",
      "--opensearch-url",
      "http://localhost:9200",
      "--opensearch-api-key",
      "your_api_key",
      "--index-name",
      "your_index_name"
    ]
  }, "Demo": {
      "command": "uv",
      "args": [
        "run",
        "--with",
        "fastmcp",
        "--with",
        "opensearch-py",
        "fastmcp",
        "run",
        "/Users/ibrooks/Documents/GitHub/mcp-server-opensearch/src/mcp-server-opensearch/demo.py"
      ]
    }
}

或者使用 FastMCP UI 将服务器安装到 Claude

uv run fastmcp install demo.py

环境变量

服务器的配置也可以使用环境变量完成:

  • OPENSEARCH_HOST: OpenSearch 服务器的 URL,例如 http://localhost
  • OPENSEARCH_HOSTPORT: OpenSearch 服务器的主机端口 9200
  • INDEX_NAME: 要使用的索引的名称

推荐服务器

Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选
mcp-server-qdrant

mcp-server-qdrant

这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。

官方
精选
AIO-MCP Server

AIO-MCP Server

🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。

精选
本地
Knowledge Graph Memory Server

Knowledge Graph Memory Server

为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。

精选
本地
Hyperbrowser

Hyperbrowser

欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:

精选
本地
https://github.com/Streen9/react-mcp

https://github.com/Streen9/react-mcp

react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。

精选
本地
MCP Atlassian

MCP Atlassian

适用于 Atlassian Cloud 产品(Confluence 和 Jira)的 Model Context Protocol (MCP) 服务器。此集成专为 Atlassian Cloud 实例设计,不支持 Atlassian Server 或 Data Center 部署。

精选
any-chat-completions-mcp

any-chat-completions-mcp

将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。

精选