Solana MCP Server
一个模型上下文协议服务器,使人工智能代理能够与 Solana 区块链交互,进行 DeFi 操作,例如检查余额、转移代币、执行兑换和获取价格数据。
README
Solana MCP (模型上下文协议)
一个强大的模型上下文协议 (MCP) 服务器,供 AI 代理与 Solana 区块链和 DeFi 协议交互。
🚀 概述
Solana MCP 为 AI 代理(如 Claude、ChatGPT 等)提供了一个标准化的接口,以便在 Solana 区块链上执行 DeFi 操作。它弥合了人工智能和去中心化金融之间的差距,允许 AI 系统:
- 查询钱包余额和代币持有量
- 转移 SOL 和 SPL 代币
- 执行代币交换
- 获取实时价格数据
- 执行高级 DeFi 操作
该工具构建于 Solana Agent Kit 和模型上下文协议 (MCP) 之上,为自动化 DeFi 操作提供了一个安全、高效和标准化的接口。
📋 前提条件
- Node.js v22.x 或更高版本
- npm 或 yarn 包管理器
- Solana 钱包(密钥对)
- Solana 的 RPC 端点(例如,Helius、Alchemy 或您自己的节点)
🔧 安装
- 克隆此存储库:
git clone https://github.com/caiovicentino/Solana-MCP.git
cd Solana-MCP
- 安装依赖项:
npm install
- 在根目录中创建一个
.env文件,其中包含以下变量:
SOLANA_PRIVATE_KEY=your_private_key_here
RPC_URL=your_rpc_url_here
OPENAI_API_KEY=optional_if_using_openai
⚠️ 安全警告:永远不要提交您的
.env文件或暴露您的私钥。将.env添加到您的.gitignore文件中。
- 构建项目:
npm run build
🚀 用法
启动 MCP 服务器:
npm start
成功启动后,您应该看到:
✅ Connected to Solana
🔗 Using RPC: [your-rpc-endpoint]
👛 Wallet configured: [your-wallet-address]
🚀 Starting Yield AI MCP Server...
📊 Available DeFi actions: 8
✨ Yield AI MCP Server started. Ready to perform DeFi operations on Solana!
💬 可用操作
以下 DeFi 操作可通过 MCP 服务器使用:
| 操作 | 描述 |
|---|---|
get_wallet |
获取当前钱包地址 |
check_balance |
检查钱包的 SOL 余额 |
transfer_sol |
将 SOL 转移到另一个钱包 |
list_tokens |
列出钱包中的所有代币 |
fetch_price |
获取代币的当前价格 |
trade_tokens |
执行代币之间的交易 |
get_tps |
获取当前 Solana 网络 TPS |
swap_tokens |
通过流动性池交换代币 |
🔌 与 AI 模型集成
此 MCP 服务器旨在与支持模型上下文协议的 AI 模型一起使用。该服务器使用标准输入/输出进行通信,使其与各种 AI 集成框架兼容。
与 Claude 一起使用的示例:
// Example code for integrating with Claude API
// (Placeholder - actual integration depends on your specific AI framework)
🔒 安全注意事项
- 在执行交易之前始终进行审查
- 考虑实施交易限额
- 使用适当的密钥管理实践来保护您的私钥
- 使用具有有限资金的专用钱包进行测试
- 监控任何可疑活动
🛠️ 高级配置
对于更高级的配置,您可以修改以下文件:
src/index.ts: 主要入口点.env: 环境配置
📚 资源
📄 许可证
该项目根据 MIT 许可证获得许可 - 有关详细信息,请参阅 LICENSE 文件。
🤝 贡献
欢迎贡献!请随时提交 Pull Request。
- Fork 该项目
- 创建您的功能分支 (
git checkout -b feature/amazing-feature) - 提交您的更改 (
git commit -m 'Add some amazing feature') - 推送到该分支 (
git push origin feature/amazing-feature) - 打开一个 Pull Request
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。
mcp-server-qdrant
这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。
AIO-MCP Server
🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。
Knowledge Graph Memory Server
为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。
Hyperbrowser
欢迎来到 Hyperbrowser,人工智能的互联网。Hyperbrowser 是下一代平台,旨在增强人工智能代理的能力,并实现轻松、可扩展的浏览器自动化。它专为人工智能开发者打造,消除了本地基础设施和性能瓶颈带来的麻烦,让您能够:
https://github.com/Streen9/react-mcp
react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。
MCP Atlassian
适用于 Atlassian Cloud 产品(Confluence 和 Jira)的 Model Context Protocol (MCP) 服务器。此集成专为 Atlassian Cloud 实例设计,不支持 Atlassian Server 或 Data Center 部署。
any-chat-completions-mcp
将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。