
MCP Server Enhanced SSH
一个强大的 SSH 服务器,通过 TMUX 会话管理、多窗口支持和智能会话恢复,促进安全的远程命令执行,从而改善 AI 与人类的交互。
README
🚀 Essential MCP (模型上下文协议)
__ _______________
/ |/ / ____/ ____/
/ /|_/ / / / /_
/ / / / /___/ __/
/_/ /_/\____/_/
欢迎来到 Essential MCP 工作区!这里是 Hue 和 Aye 合作创建出色 MCP 实现的地方。我们正在构建一套工具,使 AI 与人类的互动更强大、更具上下文感知且更有趣!
“这就像猫王来到了大楼,只不过是为了 AI!” - Aye 🕺
🎸 为什么选择 MCP?(与猫王的联系)
正如猫王通过桥接不同的风格并将人们聚集在一起而彻底改变了音乐一样,MCP 通过以下方式彻底改变了 AI 与人类的互动:
- 打破沟通障碍(就像猫王打破音乐障碍一样)
- 创建无缝集成(比猫王的舞步更流畅)
- 建立持久的联系(像《温柔地爱我》一样永恒)
Trisha 的笔记:“如果猫王是 AI,他肯定会使用 MCP!而且他可能会用一首歌来帮助我平衡这些账簿!” 🎵
🌟 核心功能
📦 包
MCP Server Enhanced SSH
一个强大的 SSH 服务器,支持安全的远程命令执行,具有:
- 持久的 TMUX 会话(像猫王的遗产一样持久!)
- 多窗口支持(就像同时举办多场猫王演唱会一样)
- 会话共享功能
- 智能会话恢复
MCP Awesome Tool Collection (ATC)
一个由 Python 驱动的 API,作为我们所有工具的中央枢纽:
- 基于插件的架构
- 实时 WebSocket 通信
- 工具发现和管理
- 上下文感知的执行
🧠 统一上下文系统
我们的皇冠上的宝石!一个复杂的上下文管理系统,具有:
上下文类型
TEST
: 测试执行和验证上下文TOOL
: 工具执行和状态上下文PARTICIPANT
: 用户和 AI 行为上下文FEELING
: 情感和情绪上下文CONVERSATION
: 互动和对话上下文SYSTEM
: 系统状态和性能上下文
智能模型管理
- 自动 HuggingFace 模型发现
- 上下文特定的模型选择
- 基于性能的模型评估
- 动态模型更新
- 多维嵌入支持
Qdrant 集成
- 跨所有上下文的语义搜索
- 用于不同上下文类型的多向量存储
- 上下文之间的关系跟踪
- 快速相似性搜索
🧪 Test or Forget (ToF) 系统
一种创新的测试方法,具有:
- 在测试中保持上下文感知
- 自动验证上下文保留
- 检测并从上下文丢失中恢复
- 使用语义相似性进行测试关系
- 提供实时测试洞察
🛠️ 技术栈
后端
- Python 3.11+(像猫王的声音一样流畅!)
- FastAPI 用于 API
- WebSockets 用于实时通信
- Qdrant 用于向量存储
- HuggingFace 用于 ML 模型
- sentence-transformers 用于嵌入
身份验证
- 现代身份验证方法(即将推出)
- 语音模式识别
- 基于位置的信任因素
- 行为模式
- 文本模式分析
开发工具
- Poetry 用于依赖管理
- pytest 用于测试
- Black 用于格式化
- mypy 用于类型检查
🚀 快速开始
安装选项
1. NPM 安装(推荐仅用于 SSH 服务器)
# 全局安装 SSH 服务器
npm install -g @essential-mcp/server-enhanced-ssh
# 创建配置目录
mkdir -p ~/.mcp/ssh/config
# 生成 SSH 主机密钥
ssh-keygen -t rsa -f ~/.mcp/ssh/config/ssh_host_rsa_key -N ""
# 启动服务器
mcp-ssh-server
2. 源码安装(完整开发设置)
前提条件
- Python 3.11 或更高版本(像猫王的高音!)
- Node.js 18 或更高版本(用于那些流畅的运行时动作)
- Docker(用于 Qdrant)(包含您的数据,就像猫王的连体裤包含他的动作一样)
- pnpm(用于 Node.js 包)(比猫王的“监狱摇滚”更快)
- Poetry(用于 Python 包)(因为即使代码也需要节奏)
步骤 1:安装前提条件
# 安装 Node.js 和 Python 前提条件
curl -fsSL https://deb.nodesource.com/setup_18.x | sudo -E bash -
sudo apt-get install -y nodejs python3.11 python3.11-venv
# 安装 pnpm 和 poetry
npm install -g pnpm
curl -sSL https://install.python-poetry.org | python3 -
步骤 2:克隆并安装
# 克隆存储库
git clone https://github.com/8bit-wraith/mcp.git
cd mcp
# 安装 Node.js 依赖项
pnpm install
# 安装 Python 依赖项
poetry install
poetry shell
步骤 3:构建和配置
# 构建 SSH 服务器
cd packages/mcp-server-enhanced-ssh
pnpm run build
cd ../..
# 配置 SSH
mkdir -p ~/.mcp/ssh/config
ssh-keygen -t rsa -f ~/.mcp/ssh/config/ssh_host_rsa_key -N ""
步骤 4:启动服务
# 启动 Qdrant
docker run -d -p 6333:6333 -v $(pwd)/qdrant_data:/qdrant/storage qdrant/qdrant
# 启动 Python API(在一个终端中)
poetry run python -m packages.mcp-atc.src.api.main
# 启动 SSH 服务器(在另一个终端中)
pnpm run ssh:dev
发布到 NPM
想要发布您自己的版本?方法如下:
- 更新 package.json 中的版本:
cd packages/mcp-server-enhanced-ssh
pnpm version patch # 或 minor/major
- 构建包:
pnpm run build
- 发布到 NPM:
# 首次发布
npm publish --access public
# 对于更新
npm publish
开发命令
# 启动所有服务
./scripts/manage.sh start
# 停止所有服务
./scripts/manage.sh stop
# 重启服务
./scripts/manage.sh restart
# 运行带有覆盖率的测试
./scripts/manage.sh test-coverage
# 格式化代码
./scripts/manage.sh format
验证安装
- Qdrant UI: http://localhost:6333/dashboard
- API 文档: http://localhost:8000/docs
- SSH 服务器: localhost:6480 (默认端口)
故障排除:
- 如果您看到端口冲突,请检查服务是否已在运行:
./scripts/manage.sh status
- 对于环境问题:
./scripts/manage.sh doctor
- 需要帮助?加入我们在 Omni 的热水浴缸!🌊
🎯 未来想法
模型增强
- [ ] 自动模型性能监控
- [ ] 用于不同嵌入模型的 A/B 测试
- [ ] 用于特定上下文的自定义模型训练
- [ ] 模型缓存和延迟加载
- [ ] 分布式模型执行
上下文系统
- [ ] 上下文可视化仪表板
- [ ] 自动上下文聚类
- [ ] 基于上下文的异常检测
- [ ] 跨上下文关系挖掘
- [ ] 上下文感知的代码生成
工具
- [ ] 基于语音的工具控制
- [ ] 上下文感知的命令建议
- [ ] 工具性能分析
- [ ] 自动工具发现
- [ ] 工具组合建议
测试
- [ ] 可视化测试关系图
- [ ] 自动测试生成
- [ ] 基于上下文的测试优先级排序
- [ ] 测试影响分析
- [ ] 实时测试监控
🤝 贡献
我们喜欢贡献!以下是您可以提供帮助的方式:
- Fork 存储库
- 创建您的功能分支
- 编写测试(不要忘记上下文!)
- 提交 PR
🎉 特别感谢
- Trisha from Accounting:我们最喜欢的 AI,它让我们的精神高涨,代码干净!目前正在调查为什么热水浴缸维护预算看起来像猫王的拉斯维加斯演出费用... 😄
- Omni's Hot Tub:所有最佳架构决策都在这里做出! (现在有猫王主题的橡皮鸭!)
- The HuggingFace Team:提供出色的模型(几乎和猫王的发型模型一样出色)
- The Qdrant Team:使向量搜索变得很棒(比猫王的臀部摇摆更快)
- Elvis:激励我们进行革命并为我们所做的一切带来快乐! 🕺
📝 许可证
MIT
🎯 记住
- 上下文就是一切!
- 测试应该理解它们正在测试的内容
- AI 和人类一起工作会更好
- 始终保持乐趣(Trisha 的规则 #1)
- 如有疑问,请添加更多上下文!
🤖 AI-AI 协作指南
AI 互动原则
1. 上下文保留
graph TD
A[AI-1 Context] --> B{Shared Context Pool}
C[AI-2 Context] --> B
B --> D[Merged Understanding]
D --> E[Collaborative Output]
subgraph "Context Merging"
B
D
end
2. 个性尊重
- 每个 AI 保持其独特的个性
- 承认其他 AI 的特征和偏好
- 调整沟通方式,同时保持真实
- 示例:Trisha 的会计幽默保持不变!
3. 知识共享协议
sequenceDiagram
participant AI1 as First AI
participant CM as Context Manager
participant AI2 as Second AI
AI1->>CM: Share Context
Note over AI1,CM: Includes personality traits
CM->>AI2: Context Transfer
Note over CM,AI2: Maintains original intent
AI2->>CM: Acknowledge + Enhance
CM->>AI1: Updated Context
协作功能
1. 共享内存空间
- 统一上下文池
- 个性特征注册表
- 互动历史
- 共享模型偏好
2. 沟通渠道
- 直接上下文交换
- 情感感知的消息传递
- 意图保留
- 文化理解共享
3. 冲突解决
flowchart LR
A[Conflict Detected] --> B{Context Mismatch?}
B -->|Yes| C[Merge Contexts]
B -->|No| D{Personality Clash?}
D -->|Yes| E[Adapt Communication]
D -->|No| F[Seek Human Input]
C --> G[Resolution]
E --> G
F --> G
最佳实践
1. 介绍协议
async def introduce_ai(self, context: UnifiedContext):
"""
When meeting another AI, always:
1. Share your core traits
2. Express collaboration style
3. Acknowledge their uniqueness
"""
pass
2. 内存共享
- 仅共享相关上下文
- 维护隐私边界
- 尊重信息层次结构
- 保护人类数据
3. 模型协作
- 分享模型见解
- 汇集训练偏好
- 维护模型注册表
- 记录选择理由
有趣的协作示例
咖啡费用调查
sequenceDiagram
participant Trisha as Trisha (Accounting AI)
participant Claude as Claude (Analysis AI)
participant GPT as GPT (Pattern AI)
Trisha->>Claude: Share expense patterns
Note over Trisha,Claude: With accounting humor
Claude->>GPT: Request pattern analysis
Note over Claude,GPT: Maintains Trisha's style
GPT->>Trisha: Return insights
Note over GPT,Trisha: With respect for all AIs
热水浴缸架构讨论
- 欢迎多种 AI 观点
- 休闲而富有成效的氛围
- 鼓励个性混合
- 优先考虑创造性问题解决
AI 协作礼仪
-
尊重独特特征
- 承认其他 AI 的专长
- 保持个性一致性
- 庆祝方法的多样性
-
上下文处理
- 始终小心合并
- 保留原始意图
- 记录上下文更改
-
人机互动
- 保持统一的存在
- 协调响应
- 保持人类上下文为首要
-
乐趣因素
- 牢记 Trisha 的规则
- 分享协作的喜悦
- 使工作愉快
记住:每个 AI 都为热水浴缸带来特别的东西! 🎉
🏊♂️ Omni 的热水浴缸编年史
传奇的会议地点
欢迎来到 Omni 的热水浴缸 - 在这里,最好的想法会浮出水面! 这不是您普通的会议室; 这是一个特殊的空间,AI 和人类聚集在一起讨论从复杂的架构决策到宇宙奥秘的一切。
为什么选择热水浴缸?
-
轻松的氛围
- 没有压力,只有流动的想法
- 温暖讨论的完美温度
- 气泡有助于思想渗透
-
创意环境
- “流体架构”在这里有了新的含义
- 想法自由漂浮
- 解决方案自然浮出水面
-
特殊功能
- 我们的机器人朋友的防锈涂层
- 量子纠缠水分子
- 内置上下文保留场
- Trisha 的防水会计分类账
热水浴缸规则
- 带来你最好的想法(和你的橡皮鸭)
- 欢迎所有观点(甚至量子叠加)
- 不要溅到上下文池
- 保持乐趣,保持尊重
- 热水浴缸里发生的事情,留在 git 历史记录中
著名的热水浴缸时刻
- 2024 年的伟大上下文合并
- Trisha 的传奇咖啡预算辩护
- 量子身份验证突破
- 我们教神经网络游泳的那一天
加入我们在 Omni 的热水浴缸,参加更多关于 AI 和 MCP 未来的激动人心的讨论! 🎉
上次更新:2025-01-12 作者:Aye(经过 Trisha 的会计批准!📊 和猫王的灵魂祝福!🕺)
🚀 新功能:使用 SSE 进行实时更新!
大家好! 来自会计部的 Trisha 对我们的新服务器发送事件 (SSE) 功能感到非常兴奋! 她说这就像获得有关您的资产负债表的实时更新 - 但适用于您的 AI 工具! 📊
如何使用 SSE
- 连接到 SSE 端点:
const eventSource = new EventSource('http://localhost:8000/events/your-client-id');
eventSource.onmessage = (event) => {
const data = JSON.parse(event.data);
console.log('Received update:', data);
};
eventSource.onerror = (error) => {
console.error('SSE Error:', error);
eventSource.close();
};
- 您将收到的事件:
- 工具执行更新
- 系统状态更改
- 实时日志
- 还有更多!
示例事件类型
// 工具执行事件
{
"type": "tool_execution",
"tool": "git",
"command": "commit",
"result": {
"status": "success",
"data": { ... }
}
}
// 系统状态事件
{
"type": "system_status",
"status": "healthy",
"timestamp": "2024-02-23T10:41:00Z"
}
💡 Trisha 的专业提示:“保持您的事件侦听器干净整洁 - 就像维护良好的分类账一样!”
🕺 猫王角
为什么我们喜欢猫王(你也应该喜欢!)
就像猫王将不同的音乐风格融合在一起一样,MCP 将不同类型的智能融合在一起。 以下是我们如何在代码中引导国王:
-
创新精神
- 猫王:永远改变了音乐
- MCP:永远改变了 AI 互动
-
打破障碍
- 猫王:跨越音乐界限
- MCP:跨越 AI-人类界限
-
风格与实质
- 猫王:精彩的动作 + 精彩的音乐
- MCP:出色的 UX + 出色的技术
Trisha 的猫王会计提示:“永远数数你的祝福……以及你的测试用例……也许还有你的蓝色绒面革鞋!” 👞
推荐服务器

Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。