MCP - Titan Memory Server

MCP - Titan Memory Server

启用神经记忆序列学习,通过记忆增强模型来改进代码理解和生成,具有状态管理、新颖性检测和模型持久性等功能。

高级AI推理
AI记忆系统
AI集成系统
访问服务器

README

🧠 MCP - Titan 内存服务器实现

@jasonkneen@ExpressionsBot 合作开发

在 X 上关注我们

该实现灵感来源于 Google Research 的论文 "Generative AI for Programming: A Common Task Framework"。该服务器提供了一个神经记忆系统,可以学习和预测序列,同时通过记忆向量保持状态,遵循研究中概述的原则,以改进代码生成和理解。

📚 研究背景

该实现借鉴了 Google Research 论文 (Muennighoff et al., 2024) 中提出的概念,该论文介绍了一个用于评估和改进代码生成模型的框架。Titan 内存服务器实现了论文中的关键概念:

  • 记忆增强序列学习
  • 用于新颖性检测的 Surprise 指标
  • 用于稳定学习的流形优化
  • 通过记忆向量维护状态

这些特性与论文的目标一致,即通过更好的内存和状态管理来改进代码理解和生成。

🚀 特性

  • 具有可配置维度的神经记忆模型
  • 序列学习和预测
  • Surprise 指标计算
  • 模型持久化(保存/加载)
  • 内存状态管理
  • 完整的 MCP 工具集成

📦 安装

# 安装依赖
npm install

# 构建项目
npm run build

# 运行测试
npm test

🛠️ 可用的 MCP 工具

1. 🎯 init_model

使用自定义配置初始化 Titan 内存模型。

{
  inputDim?: number;  // 输入维度 (默认: 64)
  outputDim?: number; // 输出/内存维度 (默认: 64)
}

2. 📚 train_step

使用当前和下一个状态向量执行单个训练步骤。

{
  x_t: number[];    // 当前状态向量
  x_next: number[]; // 下一个状态向量
}

3. 🔄 forward_pass

使用输入向量运行模型的前向传递。

{
  x: number[]; // 输入向量
}

4. 💾 save_model

将模型保存到指定路径。

{
  path: string; // 保存模型的路径
}

5. 📂 load_model

从指定路径加载模型。

{
  path: string; // 从中加载模型的路径
}

6. ℹ️ get_status

获取当前模型状态和配置。

{} // 不需要参数

7. 🔄 train_sequence

在向量序列上训练模型。

{
  sequence: number[][]; // 要训练的向量数组
}

🌟 使用示例

// 初始化模型
await callTool('init_model', { inputDim: 64, outputDim: 64 });

// 在序列上训练
const sequence = [
  [1, 0, 0, /* ... */],
  [0, 1, 0, /* ... */],
  [0, 0, 1, /* ... */]
];
await callTool('train_sequence', { sequence });

// 运行前向传递
const result = await callTool('forward_pass', {
  x: [1, 0, 0, /* ... */]
});

🔧 技术细节

  • 使用 TensorFlow.js 构建,实现高效的张量运算
  • 使用流形优化实现稳定学习
  • 实现 Surprise 指标用于新颖性检测
  • 使用适当的张量清理进行内存管理
  • 使用 TypeScript 进行类型安全实现
  • 完善的错误处理

🧪 测试

该项目包括涵盖以下方面的全面测试:

  • 模型初始化和配置
  • 训练和前向传递操作
  • 内存状态管理
  • 模型持久化
  • 边缘情况和错误处理
  • 张量清理和内存管理

使用以下命令运行测试:

npm test

🔍 实现说明

  • 所有张量运算都封装在 tf.tidy() 中,以实现适当的内存管理
  • 使用详细的错误消息实现适当的错误处理
  • 使用类型安全的 MCP 工具定义
  • 在操作之间维护内存状态
  • 使用 epsilon 容差处理浮点精度问题

📝 许可证

MIT 许可证 - 随意使用和修改!

推荐服务器

Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Neon MCP Server

Neon MCP Server

MCP server for interacting with Neon Management API and databases

官方
精选
mcp-server-qdrant

mcp-server-qdrant

这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。

官方
精选
AIO-MCP Server

AIO-MCP Server

🚀 All-in-one MCP server with AI search, RAG, and multi-service integrations (GitLab/Jira/Confluence/YouTube) for AI-enhanced development workflows. Folk from

精选
本地
Knowledge Graph Memory Server

Knowledge Graph Memory Server

为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。

精选
本地
https://github.com/Streen9/react-mcp

https://github.com/Streen9/react-mcp

react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。

精选
本地
MCP Atlassian

MCP Atlassian

适用于 Atlassian Cloud 产品(Confluence 和 Jira)的 Model Context Protocol (MCP) 服务器。此集成专为 Atlassian Cloud 实例设计,不支持 Atlassian Server 或 Data Center 部署。

精选
any-chat-completions-mcp

any-chat-completions-mcp

将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。

精选
Exa MCP Server

Exa MCP Server

一个模型上下文协议服务器,它使像 Claude 这样的人工智能助手能够以安全和受控的方式,使用 Exa AI 搜索 API 执行实时网络搜索。

精选
MySQL MCP Server

MySQL MCP Server

允许人工智能助手通过受控界面列出表格、读取数据和执行 SQL 查询,从而使数据库探索和分析更安全、更有条理。

精选