mcp-memory-libsql

mcp-memory-libsql

一个高性能的 MCP 服务器,利用 libSQL 实现持久内存和向量搜索功能,从而实现高效的实体管理和语义知识存储。

编程文档访问
AI记忆系统
数据库交互
访问服务器

Tools

create_entities

Create new entities with observations and optional embeddings

search_nodes

Search for entities and their relations using text or vector similarity

read_graph

Get recent entities and their relations

create_relations

Create relations between entities

delete_entity

Delete an entity and all its associated data (observations and relations)

delete_relation

Delete a specific relation between entities

README

mcp-memory-libsql

一个高性能、持久化的内存系统,用于模型上下文协议 (MCP),由 libSQL 驱动。该服务器提供向量搜索功能,并使用 libSQL 作为后端存储,实现高效的知识存储。

<a href="https://glama.ai/mcp/servers/22lg4lq768"> <img width="380" height="200" src="https://glama.ai/mcp/servers/22lg4lq768/badge" alt="Glama badge" /> </a>

特性

  • 🚀 使用 libSQL 的高性能向量搜索
  • 💾 实体和关系的持久化存储
  • 🔍 语义搜索功能
  • 🔄 知识图谱管理
  • 🌐 兼容本地和远程 libSQL 数据库
  • 🔒 远程数据库的安全令牌认证

配置

此服务器旨在用作 MCP 配置的一部分。以下是不同环境的示例:

Cline 配置

将其添加到您的 Cline MCP 设置中:

{
	"mcpServers": {
		"mcp-memory-libsql": {
			"command": "npx",
			"args": ["-y", "mcp-memory-libsql"],
			"env": {
				"LIBSQL_URL": "file:/path/to/your/database.db"
			}
		}
	}
}

Claude Desktop with WSL 配置

有关在 WSL 中设置此服务器与 Claude Desktop 一起使用的详细指南,请参阅 Getting MCP Server Working with Claude Desktop in WSL

将其添加到 WSL 环境的 Claude Desktop 配置中:

{
	"mcpServers": {
		"mcp-memory-libsql": {
			"command": "wsl.exe",
			"args": [
				"bash",
				"-c",
				"source ~/.nvm/nvm.sh && LIBSQL_URL=file:/path/to/database.db /home/username/.nvm/versions/node/v20.12.1/bin/npx mcp-memory-libsql"
			]
		}
	}
}

数据库配置

该服务器通过 LIBSQL_URL 环境变量支持本地 SQLite 和远程 libSQL 数据库:

对于本地 SQLite 数据库:

{
	"env": {
		"LIBSQL_URL": "file:/path/to/database.db"
	}
}

对于远程 libSQL 数据库(例如,Turso):

{
	"env": {
		"LIBSQL_URL": "libsql://your-database.turso.io",
		"LIBSQL_AUTH_TOKEN": "your-auth-token"
	}
}

注意:使用 WSL 时,请确保数据库路径使用 Linux 文件系统格式(例如,/home/username/...),而不是 Windows 格式。

默认情况下,如果没有提供 URL,它将在当前目录中使用 file:/memory-tool.db

API

该服务器实现了标准的 MCP 内存接口,并具有额外的向量搜索功能:

  • 实体管理
    • 创建/更新带有嵌入的实体
    • 删除实体
    • 按相似性搜索实体
  • 关系管理
    • 创建实体之间的关系
    • 删除关系
    • 查询相关实体

架构

该服务器使用具有以下模式的 libSQL 数据库:

  • Entities 表:存储实体信息和嵌入
  • Relations 表:存储实体之间的关系
  • 使用 libSQL 的内置向量操作实现的向量搜索功能

开发

发布

由于 npm 2FA 要求,发布需要手动完成:

  1. 创建一个 changeset(记录您的更改):
pnpm changeset
  1. 对包进行版本控制(更新版本和 CHANGELOG):
pnpm changeset version
  1. 发布到 npm(将提示输入 2FA 代码):
pnpm release

贡献

欢迎贡献!在提交 pull request 之前,请阅读我们的贡献指南。

许可证

MIT 许可证 - 有关详细信息,请参阅 LICENSE 文件。

致谢

推荐服务器

e2b-mcp-server

e2b-mcp-server

使用 MCP 通过 e2b 运行代码。

官方
精选
Neon MCP Server

Neon MCP Server

用于与 Neon 管理 API 和数据库交互的 MCP 服务器

官方
精选
Exa MCP Server

Exa MCP Server

模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。

官方
精选
mcp-server-qdrant

mcp-server-qdrant

这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。

官方
精选
AIO-MCP Server

AIO-MCP Server

🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。

精选
本地
Knowledge Graph Memory Server

Knowledge Graph Memory Server

为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。

精选
本地
Hyperbrowser

Hyperbrowser

欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:

精选
本地
any-chat-completions-mcp

any-chat-completions-mcp

将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。

精选
Exa MCP Server

Exa MCP Server

一个模型上下文协议服务器,它使像 Claude 这样的人工智能助手能够以安全和受控的方式,使用 Exa AI 搜索 API 执行实时网络搜索。

精选
BigQuery MCP Server

BigQuery MCP Server

这是一个服务器,可以让你的大型语言模型(LLM,比如Claude)直接与你的BigQuery数据对话!可以把它想象成一个友好的翻译器,它位于你的AI助手和数据库之间,确保它们可以安全高效地进行交流。

精选