LYRAIOS

LYRAIOS

LYRAI 是一个多人工智能代理的模型上下文协议(MCP)操作系统,旨在通过使人工智能应用程序能够与金融网络和区块链公链交互来扩展其功能。该服务器提供一系列高级人工智能助手,包括区块链公链操作(SOLANA、ETH、BSC 等)。

GalaxyLLMCI

研究与数据
访问服务器

README

LYRAIOS

概述 & 技术基础

LYRAI 是一个模型上下文协议 (MCP) 操作系统,专为多 AI AGENT 设计,旨在通过使 AI 应用程序(如 Claude Desktop 和 Cursor)能够与金融网络和区块链公链交互,从而扩展其功能。该服务器提供一系列高级 AI 助手,包括区块链公链操作(SOLANA、ETH 等 - 检索钱包地址、列出钱包余额、转移资金、部署智能合约、链上借贷、调用合约函数、管理代币)、金融科技市场分析和总结报告,以及教育领域的学习和培训系统。

在 LYRAIOS 的未来运营中,高级 VIP 功能将专门支持使用 Solana 上的 LYRAI 进行支付,LYRAI 的 CA 为:A6MTWuHbXqjH3vYEfbs3mzvGThQtk5S12FjmdpVkpump

欢迎查看我们的 LYRA MCP-OS 演示!

https://github.com/user-attachments/assets/479cad58-ce4b-4901-93ff-e60a98c477d4

核心创新 & 差异化价值

LYRAIOS 旨在通过以下三个维度的技术突破,创建下一代 AI Agent 操作系统:

  1. 开放协议架构:首创模块化集成协议,支持即插即用的第三方工具/服务,兼容多模态交互界面(API/插件/智能硬件),与传统框架相比,可扩展性提高 80% 以上
  2. 多 Agent 协作引擎:通过分布式任务编排系统打破单个 Agent 的能力边界,实现动态多 Agent 协作,支持企业级复杂工作流程自动化和冲突解决
  3. 跨平台运行时环境:构建跨终端 AI 运行时环境,实现从个人智能助手到企业数字员工的平滑迁移,适用于验证金融、医疗保健、智能制造等领域的多场景解决方案

有关详细的架构信息,请参阅架构文档

系统架构

LYRAIOS 采用分层架构设计,从上到下包括用户界面层、核心 OS 层、MCP 集成层和外部服务层。

LYRAIOS 架构

<p align="center"> VS </p>

MANUS 架构

用户界面层

用户界面层提供多种交互模式,允许用户与 AI OS 进行交互。

组件:

  • Web UI:基于 Streamlit,提供直观的用户界面
  • Mobile UI:移动设备适配界面,支持移动设备访问
  • CLI:命令行界面,适用于开发者和高级用户
  • API Clients:提供 API 接口,支持第三方应用程序集成

核心 OS 层

核心 OS 层实现 AI 操作系统的基本功能,包括进程管理、内存系统、I/O 系统和安全控制。

组件:

  • 进程管理

    • 任务调度:AI 任务的动态分配和调度
    • 资源分配:优化 AI 资源使用
    • 状态管理:维护 AI 进程状态
  • 内存系统

    • 短期记忆:会话上下文维护
    • 长期存储:持久知识存储
    • 知识库:结构化知识管理
  • I/O 系统

    • 多模态输入:处理文本、文件、API 等
    • 结构化输出:生成格式化的输出结果
    • 事件处理:响应系统事件
  • 安全 & 访问控制

    • 身份验证:用户身份验证
    • 授权:权限管理
    • 速率限制:防止滥用

MCP 集成层

MCP 集成层是系统的核心创新,通过模型上下文协议实现与外部服务的无缝集成。

组件:

  • MCP 客户端

    • 协议处理程序:处理 MCP 协议消息
    • 连接管理:管理与 MCP 服务器的连接
    • 消息路由:将消息路由到适当的处理器
  • 工具注册表

    • 工具注册:注册外部工具和服务
    • 能力发现:发现工具能力
    • 清单验证:验证工具清单
  • 工具执行器

    • 执行环境:为工具执行提供执行环境
    • 资源管理:管理工具执行使用的资源
    • 错误处理:处理工具执行期间的错误
  • 适配器

    • REST API 适配器:连接到 REST API 服务
    • Python 插件适配器:集成 Python 插件
    • 自定义适配器:支持其他类型的集成

外部服务层

外部服务层包括通过 MCP 协议集成的各种服务,这些服务充当提供能力的 MCP 服务器。

组件:

  • 文件系统:提供文件读写能力
  • 数据库:提供数据存储和查询能力
  • Web 搜索:提供互联网搜索能力
  • 代码编辑器:提供代码编辑和执行能力
  • 浏览器:提供网页浏览和交互能力
  • 自定义服务:支持其他自定义服务集成

工具集成协议

工具集成协议是 LYRAIOS 开放协议架构的关键组成部分。它提供了一种标准化的方式,将第三方工具和服务集成到 LYRAIOS 生态系统中。

主要特点

  • 标准化工具清单:使用 JSON 模式定义工具,该模式描述了能力、参数和要求
  • 可插拔适配器系统:支持不同工具类型(REST API、Python 插件等)
  • 安全执行环境:工具在受控环境中运行,具有资源限制和权限检查
  • 版本控制和依赖管理:跟踪工具版本和依赖关系
  • 监控和日志记录:全面记录工具执行情况

工具集成入门

  1. 定义工具清单:创建一个 JSON 文件,描述您的工具的功能
  2. 实现工具:根据协议开发工具功能
  3. 注册工具:使用 API 向 LYRAIOS 注册您的工具
  4. 使用工具:您的工具现在可供 LYRAIOS 代理使用

有关示例和详细文档,请参阅工具集成指南

MCP 协议概述

模型上下文协议 (MCP) 是一种客户端-服务器架构协议,用于连接 LLM 应用程序和集成。在 MCP 中:

  • 主机是启动连接的 LLM 应用程序(例如 Claude Desktop 或 IDE)
  • 客户端与主机应用程序中的服务器保持 1:1 连接
  • 服务器向客户端提供上下文、工具和提示

MCP 功能支持

LYRAIOS 支持以下 MCP 功能:

  • 资源:允许附加本地文件和数据
  • 提示:支持提示模板
  • 工具:集成以执行命令和脚本
  • 采样:支持采样功能(计划中)
  • 根目录:支持根目录功能(计划中)

数据流

用户请求处理流程

  1. 用户通过界面层发送请求
  2. 核心 OS 层接收请求并处理它
  3. 如果需要外部工具支持,则将请求转发到 MCP 集成层
  4. MCP 客户端连接到相应的 MCP 服务器
  5. 外部服务执行请求并返回结果
  6. 结果通过每一层返回给用户

工具执行流程

  1. AI Agent 确定需要特定工具
  2. 工具注册表查找工具定义和功能
  3. 工具执行器准备执行环境
  4. 适配器将请求转换为工具可理解的格式
  5. 工具执行并返回结果
  6. 结果返回给 AI Agent 进行处理

概述

LYRAIOS (LLM-based Your Reliable AI Operating System) 是一个使用 Streamlit 构建的高级 AI 助手平台,旨在作为 AI 应用程序的操作系统。

核心 OS 功能

  • AI 进程管理

    • 动态任务分配和调度
    • 多助手协调和通信
    • 资源优化和负载均衡
    • 状态管理和持久化
  • AI 内存系统

    • 短期对话记忆
    • 长期向量数据库存储
    • 跨会话上下文保存
    • 知识库集成
  • AI I/O 系统

    • 多模态输入处理(文本、文件、API)
    • 结构化输出格式化
    • 流处理能力
    • 事件驱动架构

内置工具

  • 计算器:高级数学运算,包括阶乘和质数检查
  • Web 搜索:集成的 DuckDuckGo 搜索,具有可自定义的结果限制
  • 金融分析
    • 实时股票价格跟踪
    • 公司信息检索
    • 分析师建议
    • 金融新闻聚合
  • 文件管理:读取、写入和列出工作区中的文件
  • 研究工具:与 Exa 集成以实现全面的研究能力

专业的助手团队

  • Python 助手
    • 实时 Python 代码执行
    • Streamlit 图表功能
    • 使用 pip 进行包管理
  • 研究助手
    • NYT 风格的报告生成
    • 自动化的网络研究
    • 结构化输出格式化
    • 来源引用和参考管理

技术架构

  • FastAPI 后端:具有自动文档的 RESTful API
  • Streamlit 前端:交互式 Web 界面
  • 向量数据库:PGVector 用于高效的知识存储和检索
  • PostgreSQL 存储:用于对话和助手状态的持久存储
  • Docker 支持:用于开发和生产的容器化部署

系统功能

  • 知识管理
    • PDF 文档处理
    • 网站内容集成
    • 基于向量的语义搜索
    • 知识图谱构建
  • 进程控制
    • 任务调度和优先级排序
    • 资源分配
    • 错误处理和恢复
    • 性能监控
  • 安全 & 访问控制
    • API 密钥管理
    • 身份验证和授权
    • 速率限制和配额管理
    • 安全数据存储

安全注意事项

传输安全

  • 使用 TLS 进行远程连接
  • 验证连接源
  • 在需要时实施身份验证

消息验证

  • 验证所有传入消息
  • 清理输入
  • 检查消息大小限制
  • 验证 JSON-RPC 格式

资源保护

  • 实施访问控制
  • 验证资源路径
  • 监控资源使用情况
  • 限制请求速率

错误处理

  • 不要泄露敏感信息
  • 记录与安全相关的错误
  • 实施适当的清理
  • 处理 DoS 场景

路线图 📍

核心平台

  • ✅ 基本 AI 助手框架
  • ✅ Streamlit Web 界面
  • ✅ FastAPI 后端
  • ✅ 数据库集成 (SQLite/PostgreSQL)
  • ✅ OpenAI 集成
  • ✅ Docker 容器化
  • ✅ 环境配置系统
  • 🔄 多模态输入处理(部分)
  • 🚧 高级错误处理和恢复
  • 🚧 性能监控仪表板
  • 📅 分布式任务队列
  • 📅 水平扩展支持
  • 📅 自定义插件架构

AI 进程管理

  • ✅ 基本任务分配
  • ✅ 多助手团队结构
  • ✅ 状态管理和持久化
  • 🔄 动态任务调度(部分)
  • 🚧 资源优化
  • 🚧 负载均衡
  • 📅 进程可视化
  • 📅 工作流程设计器
  • 📅 高级进程分析

内存系统

  • ✅ 短期对话记忆
  • ✅ 基本向量数据库集成
  • ✅ 会话上下文保存
  • 🔄 知识库集成(部分)
  • 🚧 内存优化算法
  • 🚧 跨会话学习
  • 📅 分层内存架构
  • 📅 遗忘机制
  • 📅 内存压缩

工具 & 集成

  • ✅ 计算器
  • ✅ Web 搜索 (DuckDuckGo)
  • ✅ 金融分析工具
  • ✅ 文件管理
  • ✅ 研究工具 (Exa)
  • ✅ PDF 文档处理
  • ✅ 网站内容集成
  • 🔄 Python 代码执行(部分)
  • 🚧 高级数据可视化
  • 🚧 外部 API 集成框架
  • 📅 图像生成 & 处理
  • 📅 音频处理
  • 📅 视频分析

安全 & 访问控制

  • ✅ 基本 API 密钥管理
  • ✅ 简单身份验证
  • 🔄 授权系统(部分)
  • 🚧 速率限制
  • 🚧 配额管理
  • 📅 基于角色的访问控制
  • 📅 审计日志记录
  • 📅 合规性报告

开放协议架构

  • 🔄 模块接口标准(部分)
  • 🚧 第三方工具集成协议
  • 🚧 服务发现机制
  • 📅 通用连接器框架
  • 📅 协议验证系统
  • 📅 传统系统兼容层

多 Agent 协作

  • ✅ 基本团队结构
  • 🔄 Agent 间通信(部分)
  • 🚧 任务分解引擎
  • 🚧 冲突解决系统
  • 📅 协作规划
  • 📅 涌现行为分析
  • 📅 Agent 专业化框架

跨平台支持

  • ✅ Web 界面
  • 🔄 API 访问(部分)
  • 🚧 移动设备响应式
  • 📅 桌面应用程序
  • 📅 CLI 界面
  • 📅 IoT 设备集成
  • 📅 语音助手集成

图例

  • ✅ 已完成
  • 🔄 部分实现
  • 🚧 开发中
  • 📅 计划中

设置工作区

# 克隆仓库
git clone https://github.com/GalaxyLLMCI/lyraios
cd lyraios

# 创建 + 激活虚拟环境
python3 -m venv aienv
source aienv/bin/activate

# 安装 phidata
pip install 'phidata[aws]'

# 设置工作区
phi ws setup

# 复制示例密钥
cp workspace/example_secrets workspace/secrets

# 创建 .env 文件
cp example.env .env

# 在本地运行 Lyraios
phi ws up

# 打开 [localhost:8501](http://localhost:8501) 以查看 Streamlit 应用程序。

# 在本地停止 Lyraios
phi ws down

在本地运行 Lyraios

  1. 安装 docker desktop

  2. 导出凭据

我们使用 gpt-4o 作为 LLM,因此导出您的 OpenAI API 密钥

export OPENAI_API_KEY=sk-***

# 要使用 Exa 进行研究,请导出您的 EXA_API_KEY(从 [这里](https://dashboard.exa.ai/api-keys) 获取)
export EXA_API_KEY=xxx

# 要使用 Gemini 进行研究,请导出您的 GOOGLE_API_KEY(从 [这里](https://console.cloud.google.com/apis/api/generativelanguage.googleapis.com/overview?project=lyraios) 获取)
export GOOGLE_API_KEY=xxx


# 或者在 `.env` 文件中设置它们
OPENAI_API_KEY=xxx
EXA_API_KEY=xxx
GOOGLE_API_KEY=xxx

# 使用以下命令启动工作区:
phi ws up

# 打开 [localhost:8501](http://localhost:8501) 以查看 Streamlit 应用程序。

# 使用以下命令停止工作区:
phi ws down

API 文档

REST API 端点

助手 API

  • POST /api/v1/assistant/chat
    • 使用 AI 助手处理聊天消息
    • 支持上下文感知的对话
    • 返回带有工具使用信息的结构化响应

健康检查

  • GET /api/v1/health
    • 监控系统健康状态
    • 返回版本和状态信息

API 文档

  • 交互式 API 文档可在 /docs 获得
  • ReDoc 替代文档位于 /redoc
  • OpenAPI 规范位于 /openapi.json

开发指南

项目结构

lyraios/
├── ai/                     # AI 核心功能
│   ├── assistants.py       # 助手实现
│   ├── llm/                # LLM 集成
│   └── tools/              # AI 工具实现
├── app/                    # 主应用程序
│   ├── components/         # UI 组件
│   ├── config/             # 应用程序配置
│   ├── db/                 # 数据库模型和存储
│   ├── styles/             # UI 样式
│   ├── utils/              # 实用程序函数
│   └── main.py             # 主应用程序入口点
├── assets/                 # 静态资源,如图像
├── data/                   # 数据存储
├── tests/                  # 测试套件
├── workspace/              # 工作区配置
│   ├── dev_resources/      # 开发资源
│   ├── settings.py         # 工作区设置
│   └── secrets/            # 密钥配置(已忽略)
├── docker/                 # Docker 配置
├── scripts/                # 实用程序脚本
├── .env                    # 环境变量
├── requirements.txt        # Python 依赖项
└── README.md               # 项目文档

环境配置

  1. 环境变量设置
# 复制示例 .env 文件
cp example.env .env

# 必需的环境变量
EXA_API_KEY=your_exa_api_key_here        # 从 https://dashboard.exa.ai/api-keys 获取
OPENAI_API_KEY=your_openai_api_key_here  # 从 OpenAI 仪表板获取
OPENAI_BASE_URL=your_openai_base_url     # 可选:自定义 OpenAI API 端点

# OpenAI 模型配置
OPENAI_CHAT_MODEL=gpt-4-turbo-preview    # 默认聊天模型
OPENAI_VISION_MODEL=gpt-4-vision-preview  # 用于视觉任务的模型
OPENAI_EMBEDDING_MODEL=text-embedding-3-small  # 用于嵌入的模型

# 可选配置
STREAMLIT_SERVER_PORT=8501  # 默认 Streamlit 端口
API_SERVER_PORT=8000       # 默认 FastAPI 端口
  1. OpenAI 配置示例
# 标准 OpenAI API
OPENAI_API_KEY=sk-***
OPENAI_BASE_URL=https://api.openai.com/v1
OPENAI_CHAT_MODEL=gpt-4-turbo-preview

# Azure OpenAI
OPENAI_API_KEY=your_azure_api_key
OPENAI_BASE_URL=https://your-resource.openai.azure.com/openai/deployments/your-deployment
OPENAI_CHAT_MODEL=gpt-4

# 其他 OpenAI API 提供商
OPENAI_API_KEY=your_api_key
OPENAI_BASE_URL=https://your-api-endpoint.com/v1
OPENAI_CHAT_MODEL=your-model-name
  1. Streamlit 配置
# 创建 Streamlit 配置目录
mkdir -p ~/.streamlit

# 创建 config.toml 以禁用使用情况统计(可选)
cat > ~/.streamlit/config.toml << EOL
[browser]
gatherUsageStats = false
EOL

开发脚本

该项目包括方便的开发脚本来管理应用程序:

  1. 使用 dev.py 脚本
# 同时运行前端和后端
python -m scripts.dev run

# 仅运行前端
python -m scripts.dev run --no-backend

# 仅运行后端
python -m scripts.dev run --no-frontend

# 使用自定义端口运行
python -m scripts.dev run --frontend-port 8502 --backend-port 8001
  1. 手动启动服务
# 启动 Streamlit 前端
streamlit run app/app.py

# 启动 FastAPI 后端
uvicorn api.main:app --reload

依赖项管理

  1. 核心依赖项
# 安装生产依赖项
pip install -r requirements.txt

# 安装开发依赖项
pip install -r requirements-dev.txt

# 以可编辑模式安装项目
pip install -e .
  1. 其他工具
# 安装 python-dotenv 以进行环境管理
pip install python-dotenv

# 安装开发工具
pip install black isort mypy pytest

开发最佳实践

  1. 代码风格
  • 遵循 PEP 8 指南
  • 使用类型提示
  • 为函数和类编写文档字符串
  • 使用 black 进行代码格式化
  • 使用 isort 进行导入排序
  1. 测试
# 运行测试
pytest

# 运行带有覆盖率的测试
pytest --cov=app tests/
  1. Pre-commit 钩子
# 安装 pre-commit 钩子
pre-commit install

# 手动运行
pre-commit run --all-files

部署指南

Docker 部署

  1. 开发环境
# 构建开发镜像
docker build -f docker/Dockerfile.dev -t lyraios:dev .

# 运行开发容器
docker-compose -f docker-compose.dev.yml up
  1. 生产环境
# 构建生产镜像
docker build -f docker/Dockerfile.prod -t lyraios:prod .

# 运行生产容器
docker-compose -f docker-compose.prod.yml up -d

配置选项

  1. 环境变量
# 应用程序设置
DEBUG=false
LOG_LEVEL=INFO
ALLOWED_HOSTS=example.com,api.example.com

# AI 设置
AI_MODEL=gpt-4
AI_TEMPERATURE=0.7
AI_MAX_TOKENS=1000

# 数据库设置
DATABASE_URL=postgresql://user:pass@localhost:5432/dbname
  1. 扩展选项
  • 通过 GUNICORN_WORKERS 配置 worker 进程
  • 通过 MEMORY_LIMIT 调整内存限制
  • 通过 MAX_CONCURRENT_REQUESTS 设置并发

监控和维护

  1. 健康检查
  • 监控 /health 端点
  • 通过 Prometheus 端点检查系统指标
  • 查看 /var/log/lyraios/ 中的日志
  1. 备份和恢复
# 备份数据库
python scripts/backup_db.py

# 从备份恢复
python scripts/restore_db.py --backup-file backup.sql
  1. 故障排除
  • 检查应用程序日志
  • 验证环境变量
  • 确保数据库连接
  • 监控系统资源

数据库配置

该系统支持 SQLite 和 PostgreSQL 数据库:

  1. SQLite (默认)
# SQLite 配置
DATABASE_TYPE=sqlite
DATABASE_PATH=data/lyraios.db
  1. PostgreSQL
# PostgreSQL 配置
DATABASE_TYPE=postgres
POSTGRES_HOST=localhost
POSTGRES_PORT=5432
POSTGRES_DB=lyraios
POSTGRES_USER=postgres
POSTGRES_PASSWORD=your_password

如果未提供 PostgreSQL 配置,系统将自动使用 SQLite。

贡献

欢迎贡献!请参阅 CONTRIBUTING.md 文件了解详细信息。

许可证

该项目根据 Apache License 2.0 获得许可 - 有关详细信息,请参阅 LICENSE 文件。

推荐服务器

Crypto Price & Market Analysis MCP Server

Crypto Price & Market Analysis MCP Server

一个模型上下文协议 (MCP) 服务器,它使用 CoinCap API 提供全面的加密货币分析。该服务器通过一个易于使用的界面提供实时价格数据、市场分析和历史趋势。 (Alternative, slightly more formal and technical translation): 一个模型上下文协议 (MCP) 服务器,利用 CoinCap API 提供全面的加密货币分析服务。该服务器通过用户友好的界面,提供实时价格数据、市场分析以及历史趋势数据。

精选
TypeScript
MCP PubMed Search

MCP PubMed Search

用于搜索 PubMed 的服务器(PubMed 是一个免费的在线数据库,用户可以在其中搜索生物医学和生命科学文献)。 我是在 MCP 发布当天创建的,但当时正在度假。 我看到有人在您的数据库中发布了类似的服务器,但还是决定发布我的服务器。

精选
Python
mixpanel

mixpanel

连接到您的 Mixpanel 数据。 从 Mixpanel 分析查询事件、留存和漏斗数据。

精选
TypeScript
Sequential Thinking MCP Server

Sequential Thinking MCP Server

这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。

精选
Python
Nefino MCP Server

Nefino MCP Server

为大型语言模型提供访问德国可再生能源项目新闻和信息的能力,允许按地点、主题(太阳能、风能、氢能)和日期范围进行筛选。

官方
Python
Vectorize

Vectorize

将 MCP 服务器向量化以实现高级检索、私有深度研究、Anything-to-Markdown 文件提取和文本分块。

官方
JavaScript
Mathematica Documentation MCP server

Mathematica Documentation MCP server

一个服务器,通过 FastMCP 提供对 Mathematica 文档的访问,使用户能够从 Wolfram Mathematica 检索函数文档和列出软件包符号。

本地
Python
kb-mcp-server

kb-mcp-server

一个 MCP 服务器,旨在实现便携性、本地化、简易性和便利性,以支持对 txtai “all in one” 嵌入数据库进行基于语义/图的检索。任何 tar.gz 格式的 txtai 嵌入数据库都可以被加载。

本地
Python
Research MCP Server

Research MCP Server

这个服务器用作 MCP 服务器,与 Notion 交互以检索和创建调查数据,并与 Claude Desktop Client 集成以进行和审查调查。

本地
Python
Cryo MCP Server

Cryo MCP Server

一个API服务器,实现了模型补全协议(MCP),用于Cryo区块链数据提取,允许用户通过任何兼容MCP的客户端查询以太坊区块链数据。

本地
Python