
LND MCP Server
连接闪电网络节点,并支持使用自然语言查询通道信息,通过模型上下文协议提供人类可读的回复和结构化的 JSON 数据。
README
Lightning Network MCP 服务器
Lightning Network MCP 服务器允许大型语言模型 (LLM) 代理(例如在 Goose 中运行的代理)使用自然语言查询闪电网络节点数据。 它实现了 模型上下文协议 (MCP) 规范版本 2025-03-26
,并且完全兼容 MCP Inspector 1.7.0。
该服务器使用 gRPC 或闪电网络节点连接 (LNC) 连接到您的节点,并返回可读的摘要和机器可读的 JSON 输出。 它被设计为模块化、可测试和可扩展的,以支持其他节点类型,例如 Core Lightning 和 Eclair。
有关架构详细信息,请参阅 ARCHITECTURE.md。
功能
该系统解释自然语言提示,确定用户意图,评估领域逻辑,并查询您的闪电网络节点。 响应以纯语言和结构化的 JSON 形式返回。 它目前支持基本的通道查询,并且正在积极发展以覆盖更广泛的节点状态、发票和路由数据。
示例查询
用自然语言提问:
Show me my channels
获取人类可读的响应:
Your node has 5 channels with a total capacity of 0.05000000 BTC (5,000,000 sats).
4 channels are active and 1 is inactive.
Your channels:
1. ACINQ: 0.02000000 BTC (2,000,000 sats) (active)
2. Bitrefill: 0.01000000 BTC (1,000,000 sats) (active)
3. LightningTipBot: 0.00800000 BTC (800,000 sats) (active)
4. Wallet of Satoshi: 0.00700000 BTC (700,000 sats) (active)
5. LN+: 0.00500000 BTC (500,000 sats) (inactive)
以及用于应用程序的结构化 JSON 数据:
{
"channels": [
{
"remote_alias": "ACINQ",
"capacity": 2000000,
"local_balance": 800000,
"active": true
},
...
],
"summary": {
"total_capacity": 5000000,
"active_channels": 4,
"inactive_channels": 1,
"largest_channel_alias": "ACINQ",
"average_local_balance": 750000
}
}
JSON 输出提供了相同数据的结构化版本,并针对 LLM 代理、UI 层或下游应用程序的使用进行了优化。
支持的功能
目前,该系统支持基本的通道查询:
- “Show me my channels”
更强大的查询正在以下领域开发中:
-
通道 “What is the health of my channels?” “Do I have any inactive channels?”
-
发票 “How many invoices have I received this week?” “What was my last payment?”
-
节点 “What node am I connected to the most?” “What node did I last forward a payment to?”
-
路由 “How much have I routed in the last 24 hours?” “Which channels are doing most of the routing?”
快速开始
这提供了使用真实节点的零配置开发体验。
使用真实节点运行(通过 gRPC 或 LNC 的 LND)
cp .env.example .env
# 使用您的 LND 凭据配置 .env
npm run mcp:prod
通过 Tor 连接到 LND 节点
要连接到作为 Tor 隐藏服务运行的 LND 节点:
-
确保 Tor 已安装并在您的系统上运行:
# macOS (使用 Homebrew) brew install tor brew services start tor # Ubuntu/Debian sudo apt install tor sudo systemctl start tor
-
使用 Tor SOCKS 代理设置配置您的
.env
文件:CONNECTION_TYPE=lnd-direct LND_HOST=your-node-address.onion LND_PORT=10009 LND_TLS_CERT_PATH=/path/to/tls.pem # 使用 PEM 格式以获得更好的兼容性 LND_MACAROON_PATH=/path/to/admin.macaroon SOCKS_PROXY_HOST=localhost SOCKS_PROXY_PORT=9050
-
确保您的 TLS 证书为 PEM 格式(以
-----BEGIN CERTIFICATE-----
开头)。 如果您有原始证书,可以使用 extract-credentials.js 脚本将其转换为 PEM 格式。
使用凭据提取工具
如果您有 lndconnect URL(通常在移动应用程序中使用),您可以使用以下命令提取凭据:
# 从 lndconnect URL 提取凭据
node scripts/extract-credentials.js "lndconnect://your-node.onion:10009?cert=BASE64CERT&macaroon=BASE64MACAROON"
# 或者在您的 .env 文件中设置 LNDCONNECT_URL 并运行
node scripts/extract-credentials.js
此脚本将:
- 提取主机、端口、证书和 macaroon
- 将证书转换为 PEM 格式(连接所需的格式)
- 将文件保存到 test/fixtures 目录
- 打印要添加到您的 .env 文件的配置
使用 MCP Inspector 测试
要使用官方 MCP inspector 测试服务器:
npm install -g @modelcontextprotocol/inspector
npm run build
LOG_LEVEL=warn npx @modelcontextprotocol/inspector node scripts/inspect.js
兼容性
- MCP 规范版本
2025-03-26
- MCP Inspector 版本
1.7.0
- MCP 代理兼容性(例如,Goose)
- gRPC 支持直接节点访问
- LNC 支持安全远程访问
- JSON 和自然语言输出格式
贡献
有关设置、样式和测试指南,请参阅 CONTRIBUTING.md。
许可证
Apache License 2.0。 请参阅 LICENSE。
推荐服务器

Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。