MCP Titan

MCP Titan

这个先进的内存服务器促进了基于神经记忆的序列学习和预测,通过状态维护和流形优化来增强代码生成和理解,其灵感来源于谷歌研究的框架。

AI记忆系统
AI内容生成
访问服务器

README

Titan Memory MCP 服务器

我知道它现在坏了,我会修复它的!理想情况下,它应该在 Cursor (或 Claude desktop) 中以 yolo 模式运行,无需人工干预,并创建一个独立于 LLM 版本的“大脑”。

一个用于 LLM 的神经记忆系统,可以学习和预测序列,同时通过记忆向量保持状态。此 MCP(模型上下文协议)服务器为 Claude 3.7 Sonnet 和其他 LLM 提供工具,以在交互过程中保持记忆状态。

特性

  • 完美适用于 Cursor: 既然 Cursor 自动以 yolo 模式运行 MCP,您就可以放手让 LLM 的新记忆发挥作用了
  • 神经记忆架构: 基于 Transformer 的记忆系统,可以学习和预测序列
  • 内存管理: 高效的张量运算,具有自动内存清理功能
  • MCP 集成: 完全兼容 Cursor 和其他 MCP 客户端
  • 文本编码: 将文本输入转换为张量表示
  • 记忆持久性: 在会话之间保存和加载记忆状态

安装

# 克隆仓库
git clone https://github.com/yourusername/titan-memory.git
cd titan-memory

# 安装依赖
npm install

# 构建项目
npm run build

# 启动服务器
npm start

可用工具

Titan Memory MCP 服务器提供以下工具:

help

获取有关可用工具的帮助。

参数:

  • tool (可选): 要获取帮助的特定工具名称
  • category (可选): 要浏览的工具类别
  • showExamples (可选): 包括使用示例
  • verbose (可选): 包括详细描述

init_model

使用自定义配置初始化 Titan Memory 模型。

参数:

  • inputDim: 输入维度大小 (默认: 768)
  • hiddenDim: 隐藏维度大小 (默认: 512)
  • memoryDim: 记忆维度大小 (默认: 1024)
  • transformerLayers: Transformer 层数 (默认: 6)
  • numHeads: 注意力头数 (默认: 8)
  • ffDimension: 前馈维度 (默认: 2048)
  • dropoutRate: Dropout 率 (默认: 0.1)
  • maxSequenceLength: 最大序列长度 (默认: 512)
  • memorySlots: 记忆槽数量 (默认: 5000)
  • similarityThreshold: 相似度阈值 (默认: 0.65)
  • surpriseDecay: 意外衰减率 (默认: 0.9)
  • pruningInterval: 剪枝间隔 (默认: 1000)
  • gradientClip: 梯度裁剪值 (默认: 1.0)

forward_pass

执行通过模型的前向传递以获得预测。

参数:

  • x: 输入向量或文本
  • memoryState (可选): 要使用的记忆状态

train_step

执行训练步骤以更新模型。

参数:

  • x_t: 当前输入向量或文本
  • x_next: 下一个输入向量或文本

get_memory_state

获取当前记忆状态和统计信息。

参数:

  • type (可选): 可选的记忆类型过滤器

manifold_step

沿流形方向更新记忆。

参数:

  • base: 基础记忆状态
  • velocity: 更新方向

prune_memory

删除不太相关的记忆以释放空间。

参数:

  • threshold: 剪枝阈值 (0-1)

save_checkpoint

将记忆状态保存到文件。

参数:

  • path: 检查点文件路径

load_checkpoint

从文件加载记忆状态。

参数:

  • path: 检查点文件路径

reset_gradients

重置累积的梯度以从训练问题中恢复。

参数:

在 Cursor 中与 Claude 3.7 Sonnet 一起使用

Titan Memory MCP 服务器旨在与 Cursor 中的 Claude 3.7 Sonnet 无缝协作。以下是如何使用它的示例:

// 初始化模型
const result = await callTool("init_model", {
  inputDim: 768,
  memorySlots: 10000,
  transformerLayers: 8,
});

// 执行前向传递
const { predicted, memoryUpdate } = await callTool("forward_pass", {
  x: "const x = 5;", // 或向量: [0.1, 0.2, ...]
  memoryState: currentMemory,
});

// 训练模型
const result = await callTool("train_step", {
  x_t: "function hello() {",
  x_next: "  console.log('world');",
});

// 获取记忆状态
const state = await callTool("get_memory_state", {});

内存管理

Titan Memory MCP 服务器包括复杂的内存管理,以防止内存泄漏并确保高效的张量运算:

  1. 自动清理: 定期清理未使用的张量
  2. 内存加密: 安全地存储记忆状态
  3. 张量验证: 确保张量具有正确的形状
  4. 错误恢复: 优雅地处理张量错误

架构

Titan Memory MCP 服务器采用模块化架构构建:

  • TitanMemoryServer: 主要服务器类,用于注册工具和处理请求
  • TitanMemoryModel: 神经记忆模型实现
  • VectorProcessor: 处理输入处理和文本编码
  • MemoryManager: 管理张量运算和内存清理

贡献

欢迎贡献!请随时提交 Pull Request。

许可证

该项目根据 MIT 许可证获得许可 - 有关详细信息,请参阅 LICENSE 文件。

推荐服务器

mcp-server-qdrant

mcp-server-qdrant

这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。

官方
精选
AIO-MCP Server

AIO-MCP Server

🚀 集成了 AI 搜索、RAG 和多服务(GitLab/Jira/Confluence/YouTube)的一体化 MCP 服务器,旨在增强 AI 驱动的开发工作流程。来自 Folk。

精选
本地
Knowledge Graph Memory Server

Knowledge Graph Memory Server

为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。

精选
本地
https://github.com/Streen9/react-mcp

https://github.com/Streen9/react-mcp

react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。

精选
本地
any-chat-completions-mcp

any-chat-completions-mcp

将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。

精选
Exa MCP Server

Exa MCP Server

一个模型上下文协议服务器,它使像 Claude 这样的人工智能助手能够以安全和受控的方式,使用 Exa AI 搜索 API 执行实时网络搜索。

精选
AI 图像生成服务

AI 图像生成服务

可以用于 Cursor 集成 MCP 服务器。

精选
MCP Web Research Server

MCP Web Research Server

一个模型上下文协议服务器,使 Claude 能够通过集成 Google 搜索、提取网页内容和捕获屏幕截图来进行网络研究。

精选
MySQL MCP Server

MySQL MCP Server

允许人工智能助手通过受控界面列出表格、读取数据和执行 SQL 查询,从而使数据库探索和分析更安全、更有条理。

精选
browser-use MCP server

browser-use MCP server

一个由人工智能驱动的浏览器自动化服务器,它实现了模型上下文协议,从而能够使用自然语言控制网页浏览器,以执行诸如导航、表单填写和视觉交互等任务。

精选