
MCP - Titan Memory Server
启用神经记忆序列学习,通过记忆增强模型来改进代码理解和生成,具有状态管理、新颖性检测和模型持久性等功能。
README
🧠 MCP - Titan 内存服务器实现
由 @jasonkneen 和 @ExpressionsBot 合作开发
在 X 上关注我们
该实现灵感来源于 Google Research 的论文 "Generative AI for Programming: A Common Task Framework"。该服务器提供了一个神经记忆系统,可以学习和预测序列,同时通过记忆向量保持状态,遵循研究中概述的原则,以改进代码生成和理解。
📚 研究背景
该实现借鉴了 Google Research 论文 (Muennighoff et al., 2024) 中提出的概念,该论文介绍了一个用于评估和改进代码生成模型的框架。Titan 内存服务器实现了论文中的关键概念:
- 记忆增强序列学习
- 用于新颖性检测的 Surprise 指标
- 用于稳定学习的流形优化
- 通过记忆向量维护状态
这些特性与论文的目标一致,即通过更好的内存和状态管理来改进代码理解和生成。
🚀 特性
- 具有可配置维度的神经记忆模型
- 序列学习和预测
- Surprise 指标计算
- 模型持久化(保存/加载)
- 内存状态管理
- 完整的 MCP 工具集成
📦 安装
# 安装依赖
npm install
# 构建项目
npm run build
# 运行测试
npm test
🛠️ 可用的 MCP 工具
1. 🎯 init_model
使用自定义配置初始化 Titan 内存模型。
{
inputDim?: number; // 输入维度 (默认: 64)
outputDim?: number; // 输出/内存维度 (默认: 64)
}
2. 📚 train_step
使用当前和下一个状态向量执行单个训练步骤。
{
x_t: number[]; // 当前状态向量
x_next: number[]; // 下一个状态向量
}
3. 🔄 forward_pass
使用输入向量运行模型的前向传递。
{
x: number[]; // 输入向量
}
4. 💾 save_model
将模型保存到指定路径。
{
path: string; // 保存模型的路径
}
5. 📂 load_model
从指定路径加载模型。
{
path: string; // 从中加载模型的路径
}
6. ℹ️ get_status
获取当前模型状态和配置。
{} // 不需要参数
7. 🔄 train_sequence
在向量序列上训练模型。
{
sequence: number[][]; // 要训练的向量数组
}
🌟 使用示例
// 初始化模型
await callTool('init_model', { inputDim: 64, outputDim: 64 });
// 在序列上训练
const sequence = [
[1, 0, 0, /* ... */],
[0, 1, 0, /* ... */],
[0, 0, 1, /* ... */]
];
await callTool('train_sequence', { sequence });
// 运行前向传递
const result = await callTool('forward_pass', {
x: [1, 0, 0, /* ... */]
});
🔧 技术细节
- 使用 TensorFlow.js 构建,实现高效的张量运算
- 使用流形优化实现稳定学习
- 实现 Surprise 指标用于新颖性检测
- 使用适当的张量清理进行内存管理
- 使用 TypeScript 进行类型安全实现
- 完善的错误处理
🧪 测试
该项目包括涵盖以下方面的全面测试:
- 模型初始化和配置
- 训练和前向传递操作
- 内存状态管理
- 模型持久化
- 边缘情况和错误处理
- 张量清理和内存管理
使用以下命令运行测试:
npm test
🔍 实现说明
- 所有张量运算都封装在
tf.tidy()
中,以实现适当的内存管理 - 使用详细的错误消息实现适当的错误处理
- 使用类型安全的 MCP 工具定义
- 在操作之间维护内存状态
- 使用 epsilon 容差处理浮点精度问题
📝 许可证
MIT 许可证 - 随意使用和修改!
推荐服务器
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Neon MCP Server
MCP server for interacting with Neon Management API and databases
mcp-server-qdrant
这个仓库展示了如何为向量搜索引擎 Qdrant 创建一个 MCP (Managed Control Plane) 服务器的示例。
AIO-MCP Server
🚀 All-in-one MCP server with AI search, RAG, and multi-service integrations (GitLab/Jira/Confluence/YouTube) for AI-enhanced development workflows. Folk from
Knowledge Graph Memory Server
为 Claude 实现持久性记忆,使用本地知识图谱,允许 AI 记住用户的信息,并可在自定义位置存储,跨对话保持记忆。
https://github.com/Streen9/react-mcp
react-mcp 与 Claude Desktop 集成,能够根据用户提示创建和修改 React 应用程序。
MCP Atlassian
适用于 Atlassian Cloud 产品(Confluence 和 Jira)的 Model Context Protocol (MCP) 服务器。此集成专为 Atlassian Cloud 实例设计,不支持 Atlassian Server 或 Data Center 部署。

any-chat-completions-mcp
将 Claude 与任何 OpenAI SDK 兼容的聊天完成 API 集成 - OpenAI、Perplexity、Groq、xAI、PyroPrompts 等。
Exa MCP Server
一个模型上下文协议服务器,它使像 Claude 这样的人工智能助手能够以安全和受控的方式,使用 Exa AI 搜索 API 执行实时网络搜索。
MySQL MCP Server
允许人工智能助手通过受控界面列出表格、读取数据和执行 SQL 查询,从而使数据库探索和分析更安全、更有条理。