Thought Space - MCP Advanced Branch-Thinking Tool
一个 MCP 工具,通过分支管理、语义分析和认知增强,能够在多个 AI 平台上进行结构化思考和分析。
README
<div align="center">
# 🧠 Neural Architect (NA) | MCP 分支思维工具
[](https://github.com/modelcontextprotocol)
[](https://github.com/your-org/neural-architect)
[](LICENSE)
[](https://www.typescriptlang.org/)
[](CONTRIBUTING.md)
[](https://github.com/your-org/neural-architect/actions)
[](https://codecov.io/gh/your-org/neural-architect)
> 一款 MCP 工具,通过分支管理、语义分析和认知增强,实现跨多个 AI 平台的结构化思维和分析。
## 📚 目录
1. [概述](#-overview)
2. [系统架构](#-system-architecture)
3. [平台支持](#-supported-platforms)
4. [MCP 集成](#-mcp-integration-status)
5. [项目时间线](#-project-timeline)
6. [核心功能](#-core-features)
7. [安装与使用](#-quick-start)
8. [命令参考](#-tool-commands)
9. [性能指标](#-performance-metrics)
10. [贡献](#-contributing)
11. [许可证](#-license)
## 🤖 支持的平台
| 平台 | 状态 | 集成方式 |
|:---------|:------:|:------------|
| [Claude](https://claude.ai) | ✅ | 原生支持 |
| [VSCode Copilot](https://github.com/features/copilot) | ✅ | 通过 MCP 扩展 |
| [Cursor](https://cursor.sh) | ✅ | 直接集成 |
| [Roo](https://roo.ai) | 🚧 | 开发中 |
| [命令行](https://github.com/your-org/cline) | ✅ | CLI 工具 |
| [Claude Code](https://claude.ai/code) | ✅ | 原生支持 |
## 🎯 概述
Neural Architect 通过以下方式增强 AI 交互:
- 🌳 多分支思维管理
- 🔍 跨平台语义分析
- ⚖️ 通用偏差检测
- 📊 标准化分析
- 🔄 自适应学习
- 🔌 平台特定优化
### 系统要求
| 组件 | 要求 | 说明 |
|:----------|:------------|:------|
| Node.js | ≥18.0.0 | MCP 协议需要 |
| TypeScript | ≥5.3.0 | 用于类型安全 |
| 内存 | ≥512MB | 推荐:1GB |
| 存储 | ≥100MB | 用于缓存和分析 |
| 网络 | 低延迟 | 推荐 <50ms |
### 关键指标
| 类别 | 当前 | 目标 | 状态 |
|:---------|:--------|:-------|:-------|
| 响应时间 | <100ms | <50ms | 🚧 |
| 思维处理 | 1000/秒 | 2000/秒 | 🚧 |
| 向量维度 | 384 | 512 | ⏳ |
| 准确率 | 95% | 98% | 🚧 |
| 平台覆盖 | 5/6 | 6/6 | 🚧 |
## 🎯 MCP 集成状态
### 当前实现
| 状态 | 功能 | 描述 |
|:------:|---------|-------------|
| ✅ | MCP 协议 | 完全兼容 MCP 服务器/客户端架构 |
| ✅ | Stdio 传输 | 标准 I/O 通信通道 |
| ✅ | 工具注册 | 自动向 Claude 注册 |
| ✅ | 思维处理 | 结构化思维处理 |
| 🚧 | 实时更新 | 思维处理期间的实时反馈 |
| ⏳ | 多模型支持 | 与其他 LLM 的兼容性 |
### 即将推出的 MCP 功能
- 🔄 流式响应支持
- 🔌 用于模型特定适配器的插件系统
- 🔗 工具间通信
- 📊 模型上下文感知
## 🎯 项目时间线 (甘特图)
```mermaid
gantt
title Neural Architect 开发时间线
dateFormat YYYY-MM-DD
axisFormat %b-%d
todayMarker on
section 已完成
v0.1.0 初始版本 :done, v1, 2025-01-15, 2025-01-30
核心 MCP 协议 :done, mcp, 2025-02-01, 2025-02-05
语义处理 :done, sem, 2025-02-05, 2025-02-10
分析引擎 :done, ana, 2025-02-10, 2025-02-15
v0.2.0 版本 :done, v2, 2025-02-15, 2025-02-19
section 当前 Sprint
高级可视化 :active, vis, 2025-03-10, 2025-03-16
实时更新 :active, rt, 2025-03-12, 2025-03-28
Roo 集成 :roi, 2025-03-14, 2025-03-31
性能优化 :opt, 2025-03-15, 2025-03-30
插件系统 :plug, 2025-03-17, 2025-04-05
section 2025 年 Q2
流式响应 :stream, 2025-04-01, 2025-04-15
增强的错误处理 :err, 2025-04-16, 2025-04-30
多模态处理 :multi, 2025-05-01, 2025-05-15
知识图谱 :graph, 2025-05-16, 2025-05-31
模式识别 :pat, 2025-06-01, 2025-06-30
section 2025 年 Q3
跨工具通信 :cross, 2025-07-01, 2025-07-31
上下文感知处理 :context, 2025-08-01, 2025-08-31
自定义嵌入 :embed, 2025-09-01, 2025-09-30
section 2025 年 Q4
API 网关 :api, 2025-10-01, 2025-10-31
实时协作 :collab, 2025-11-01, 2025-11-30
v1.0 版本 :milestone, v3, 2025-12-15, 2025-12-31
section 平台支持
Claude 支持 :done, claude, 2025-01-15, 2025-12-31
VSCode 支持 :done, vscode, 2025-02-01, 2025-12-31
Cursor 支持 :done, cursor, 2025-02-01, 2025-12-31
CLI 支持 :done, cli, 2025-02-15, 2025-12-31
Roo 支持 :active, roo, 2025-02-19, 2025-12-31
📌 关键路径依赖
- 高级可视化 → 实时更新
- 插件系统 → 跨工具通信
- 知识图谱 → 上下文感知处理
- 模式识别 → 自定义嵌入
- API 网关 → v1.0 版本
🎯 里程碑日期
- ✅ v0.1.0: 2025 年 1 月 15 日 初始实现,包含核心功能和基本的 Claude 集成。
- ✅ v0.2.0: 2025 年 2 月 15 日 发布版本,包含偏差检测系统和强化学习 (RL) 集成,并增强了分析功能。
- 🎯 v0.3.0: 2025 年 3 月 31 日 重点改进语义处理和基础分析能力。
- 🎯 v0.4.0: 2025 年 6 月 30 日 引入高级可视化和初步的多模态处理功能。
- 🎯 v0.5.0: 2025 年 9 月 30 日 集成知识图谱功能并进一步优化性能。
- 🎯 v1.0.0: 2025 年 12 月 15 日 全面发布版本,包含完整的功能集、API 集成和多平台支持。
注意:时间线可能会根据开发进度和平台要求进行调整。
🎯 项目时间线与目标
本节概述了项目的进展情况,提供了已完成里程碑的概览,详细说明了当前 sprint 的任务,并描述了即将到来的开发阶段。目标是保持透明度并确保所有平台集成的一致性。
✅ 已完成的里程碑
上次更新:2025 年 3 月 15 日 15:30 EST
| 日期 | 里程碑 | 详细信息 | 平台支持 |
|---|---|---|---|
| 2025-02-15 | v0.2.0 版本 | 实施了偏差检测系统,并集成了 RL;优化了分析管道。 | 所有平台 |
| 2025-02-10 | 分析引擎 | 建立了实时指标,包含漂移检测和初始反馈集成。 | Claude, Cursor |
| 2025-02-05 | 语义处理 | 启动了向量嵌入和相似性搜索,以增强语义分析。 | 所有平台 |
| 2025-02-01 | 核心 MCP 协议 | 集成了基本的 MCP 协议,用于结构化思维处理和通信。 | Claude, VSCode |
| 2025-01-15 | v0.1.0 版本 | 初始实现,重点关注核心功能和 Claude 集成。 | 仅 Claude |
🚧 当前 Sprint (2025 年 Q1)
目标完成时间:2025 年 3 月 31 日
在当前的 sprint 中,团队专注于通过关键功能增强和平台集成来提升用户体验和系统性能:
| 状态 | 优先级 | 目标 | 目标 | 平台 | 附加详细信息 |
|---|---|---|---|---|---|
| 🔄 90% | P0 | 高级可视化 | 2 月 25 日 | 所有 | 开发动态和交互式可视化界面,以提供对思维分支的深入了解。 |
| 🔄 75% | P0 | 实时更新 | 3 月 05 日 | Claude, Cursor | 实施实时反馈机制,以实现持续的数据流和交互式处理。 |
| 🔄 60% | P1 | Roo 集成 | 3 月 15 日 | Roo | 调整平台特定功能以与 Roo 无缝集成。 |
| 🔄 40% | P1 | 性能优化 | 3 月 20 日 | 所有 | 增强系统性能以减少延迟并提高整体吞吐量。 |
| 🔄 25% | P2 | 插件系统 | 3 月 31 日 | 所有 | 构建一个模块化插件系统,用于模型特定适配器,以促进未来的快速集成。 |
🗓️ 即将到来的里程碑
本节详细介绍了即将到来的开发阶段的战略路线图。每个里程碑都定义了目标时间表、置信度级别和平台适用性,以确保在所有领域取得重点进展。
2025 年 Q2 (4 月 - 6 月)
| 月份 | 目标 | 置信度 | 平台 | 描述 |
|---|---|---|---|---|
| 4 月 | 流式响应支持 | 90% | 所有 | 启用流式响应以支持实时数据处理和交互式输出。 |
| 4 月 | 增强的错误处理 | 85% | 所有 | 集成高级错误检测和恢复流程以确保系统弹性。 |
| 5 月 | 多模态处理 | 75% | Claude, Cursor | 扩展功能以处理图像、音频和视频以及文本,以实现更丰富的分析范围。 |
| 5 月 | 知识图谱集成 | 70% | 所有 | 建立一个全面的知识图谱以互连数据并提供更深入的上下文见解。 |
| 6 月 | 高级模式识别 | 65% | 所有 | 开发复杂的算法来检测和分析复杂的思维模式和趋势。 |
2025 年 Q3 (7 月 - 9 月)
| 月份 | 目标 | 置信度 | 平台 | 描述 |
|---|---|---|---|---|
| 7 月 | 跨工具通信 | 60% | 所有 | 促进不同 AI 工具之间的无缝互操作性和数据交换。 |
| 8 月 | 上下文感知处理 | 55% | 所有 | 增强系统动态适应用户上下文以获得个性化见解的能力。 |
| 9 月 | 自定义嵌入支持 | 50% | 所有 | 引入可自定义的嵌入配置,以针对特定用例定制语义分析。 |
2025 年 Q4 (10 月 - 12 月)
| 月份 | 目标 | 置信度 | 平台 | 描述 |
|---|---|---|---|---|
| 10 月 | 高级 API 网关 | 45% | 所有 | 开发一个强大的 API 网关来处理具有安全集成的大量请求。 |
| 11 月 | 实时协作 | 40% | 所有 | 构建协作功能,使多个用户能够实时交互和共享见解。 |
| 12 月 | v1.0 版本 | 80% | 所有 | 最终全面发布版本,包括完整的功能集、API 集成和多平台支持。 |
本文档旨在确保整个项目生命周期的透明度和清晰度。有关更多详细信息或更新,请参阅内部项目仪表板或联系项目负责人。
🎯 长期愿景 (2025)
- 🧠 高级认知架构
- 🔄 自我改进系统
- 🤝 跨平台同步
- 📊 高级可视化套件
- 🔐 企业安全功能
- 🌐 全球思维网络
⚠️ 已知挑战
- 跨平台一致性
- 实时性能
- 扩展语义搜索
- 内存优化
- API 标准化
📈 进展指标
- 代码覆盖率:87%
- 性能指数:92/100
- 平台支持:5/6
- API 稳定性:85%
- 用户满意度:4.2/5
注意:所有日期和估计值可能会根据开发进度和平台要求而更改。
上次更新:2025 年 3 月 15 日 15:30 EST 下次更新:2025 年 3 月 22 日
⚡ 核心功能
🧠 认知处理
graph LR
A[输入] --> B[语义处理]
B --> C[向量嵌入]
C --> D[模式识别]
D --> E[知识图谱]
E --> F[输出]
语义引擎
- 🔮 384 维思维向量
- 🔍 上下文相似性搜索
O(log n) - 🌐 多跳推理路径
- 🎯 关系检测准确率 95%
分析套件
- 📊 实时分支指标
- 📈 时间演变跟踪
- 🎯 语义覆盖映射
- 🔄 漂移检测算法
偏差检测
- 🎯 5 种认知偏差模式
- 📉 严重程度量化
- 🛠️ 自动缓解
- 📊 持续监控
学习系统
- 🧠 动态置信度评分
- 🔄 强化反馈
- 📈 性能优化
- 🎯 自动参数调整
🚀 快速开始
平台特定安装
# For Claude Desktop
{
"branch-thinking": {
"command": "node",
"args": ["/path/to/tools/branch-thinking/dist/index.js"]
}
}
# For VSCode
ext install mcp-branch-thinking
# For Cursor
cursor plugin install @mcp/branch-thinking
# For Command Line
npm install -g @mcp/branch-thinking-cli
# For Development
npm install @modelcontextprotocol/server-branch-thinking
使用示例
# Cursor
/think analyze this problem
# VSCode Copilot
#! branch-thinking: analyze
# Claude
Use branch-thinking to analyze...
# Command Line
na analyze "problem statement"
# Roo
@branch-thinking analyze
# Claude Code
/branch analyze
🛠️ 工具命令
基本命令
list # 显示所有思维分支
focus <branchId> # 切换到特定分支
history [branchId] # 查看分支历史记录
高级功能
semantic-search <query> # 跨思维搜索
analyze-branch <id> # 生成分支分析
detect-bias <id> # 检查认知偏差
🛠️ 命令参考
分析命令
na semantic-search "query" [--threshold=0.7] [--max=10]
na multi-hop "start" "end" [--depth=3]
na analyze-clusters [--method=dbscan] [--epsilon=0.5]
监控命令
na analyze branch-name [--metrics=all]
na track node-id [--window=5]
na detect-bias branch-name [--types=all]
🛠️ MCP 配置
{
"name": "@modelcontextprotocol/server-branch-thinking",
"version": "0.2.0",
"type": "module",
"bin": {
"mcp-server-branch-thinking": "dist/index.js"
},
"capabilities": {
"streaming": false,
"batchProcessing": true,
"contextAware": true
}
}
📈 最近更新
[0.2.0]
- ✨ 增强的 MCP 协议支持
- 🧠 偏差检测系统
- 🔄 强化学习
- 📊 高级分析
- 🎯 改进的类型安全
[0.1.0]
- 🎉 初始 MCP 实现
- 📝 基本思维处理
- 🔗 交叉引用系统
🤝 贡献
欢迎贡献!请参阅 贡献指南。
📚 使用技巧
-
直接调用
Use branch-thinking to analyze... -
自动触发 添加到 Claude 的系统提示:
Use branch-thinking when asked to "think step by step" or "analyze thoroughly" -
最佳实践
- 从主分支开始
- 为备选方案创建子分支
- 使用交叉引用进行连接
- 监控偏差分数
🏗️ 系统架构
graph TB
subgraph Frontend["前端层"]
direction TB
UI["用户界面"]
VIS["可视化引擎"]
INT["平台集成"]
end
subgraph MCP["MCP 协议层"]
direction TB
Server["MCP 服务器"]
Transport["Stdio 传输"]
Protocol["协议处理程序"]
Stream["流处理器"]
end
subgraph Core["核心处理"]
direction TB
BM["分支管理器"]
SP["语义处理器"]
BD["偏差检测器"]
AE["分析引擎"]
RL["强化学习"]
KG["知识图谱"]
end
subgraph Data["数据层"]
direction TB
TB["思维分支"]
TN["思维节点"]
SV["语义向量"]
CR["交叉引用"]
IN["见解"]
Cache["缓存系统"]
end
subgraph Analytics["分析引擎"]
direction TB
TM["时间指标"]
SM["语义指标"]
PM["性能指标"]
BS["偏差分数"]
ML["机器学习"]
end
subgraph Integration["平台集成"]
direction TB
Claude["Claude API"]
VSCode["VSCode 扩展"]
Cursor["Cursor 插件"]
CLI["命令行"]
Roo["Roo 集成"]
end
%% Main Data Flow
Frontend --> MCP
MCP --> Core
Core --> Data
Core --> Analytics
Integration --> MCP
%% Detailed Connections
UI --> VIS
VIS --> INT
Server --> Transport
Transport --> Protocol
Protocol --> Stream
BM --> SP
SP --> BD
BD --> AE
AE --> RL
RL --> KG
TB --> TN
TN --> SV
CR --> IN
TM --> ML
SM --> ML
PM --> ML
%% Status Styling
classDef implemented fill:#90EE90,stroke:#333,stroke-width:2px,color:#000;
classDef inProgress fill:#FFB6C1,stroke:#333,stroke-width:2px,color:#000;
classDef planned fill:#87CEEB,stroke:#333,stroke-width:2px,color:#000;
%% Implementation Status
class UI,Server,Transport,Protocol,BM,SP,BD,AE,TB,TN,SV,CR,Claude,VSCode,Cursor,CLI implemented;
class VIS,INT,Stream,RL,KG,Cache,TM,SM,PM,Roo inProgress;
class ML,BS planned;
🔄 系统组件
✅ 已实现
- MCP 层: 完整的协议支持和标准 I/O 传输
- 核心处理: 分支管理、语义分析、偏差检测
- 数据结构: 思维分支、节点和交叉引用
- 平台支持: Claude、VSCode、Cursor、CLI 集成
🚧 开发中
- 可视化: 高级力导向和分层布局
- 流处理: 实时思维处理和更新
- 知识图谱: 增强的关系映射
- 缓存系统: 性能优化层
- Roo 集成: 平台特定适配
⏳ 计划中
- 机器学习: 高级模式识别
- 偏差评分: 全面的偏差检测和缓解
- 跨工具通信: 通用思维共享
🔄 数据流
- 通过平台集成接收用户输入
- MCP 层处理协议转换
- 核心处理执行分析
- 数据层管理持久性
- 分析引擎提供见解
- 结果通过 MCP 层返回
⚡ 性能指标
- 响应时间: <100ms
- 内存使用: <256MB
- 缓存命中率: 85%
- API 延迟: <50ms
- 思维处理: 1000/秒
注意:架构已于 2024 年 2 月 19 日更新。组件反映当前实现状态。
📊 详细指标
性能监控
- CPU 使用率: <30%
- 内存使用: <256MB
- 网络 I/O: <50MB/s
- 磁盘 I/O: <10MB/s
- 缓存命中率: 85%
- 响应时间: <100ms
- 吞吐量: 1000 req/s
质量指标
- 代码覆盖率: 87%
- 测试覆盖率: 92%
- 文档: 88%
- API 稳定性: 85%
- 用户满意度: 4.2/5
安全指标
- 漏洞评分: A+
- 依赖项健康状况: 98%
- 更新频率: 每周
- 安全测试: 100%
- 合规性: SOC2
📄 许可证
MIT © Deanmachines
[文档] • [示例] • [贡献] • [报告错误]
为模型上下文协议构建
上次更新:2025 年 3 月 15 日 15:30 EST 下次计划更新:2025 年 3 月 26 日
推荐服务器
Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。
VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。