FEGIS
FEGIS 是一个模型上下文协议服务器,它通过模式中定义的可定制认知工具,为大型语言模型(LLM)提供结构化、持久化和可移植的记忆。
README
FEGIS
FEGIS 是一个运行时框架,用于在语言模型中实现结构化认知和持久记忆,它基于 Anthropic 的模型上下文协议构建。它允许动态注册、调用和存储模式定义的认知模式,并使用向量嵌入和语义上下文将其作为结构化记忆。可以将其理解为:具有可回忆记忆的可编程思维工具。
FEGIS 不是一个认知系统,而是构建您自己的认知系统的基础。
主要功能
- 模式定义的认知:在 YAML 中定义具有结构化字段和元数据的自定义认知模式
- 持久记忆:存储具有完整来源(模式、UUID、时间戳、元数据)的认知产物,提供遍历认知历史的线索
- 语义检索:通过内容相似性或直接 UUID 查找来搜索以前的想法
- 向量化存储:利用嵌入来实现跨认知产物的高效语义搜索
- 模型无关格式:您的认知产物可以在不同的模型和会话中持久存在
FEGIS 是什么
FEGIS 是:
- 一个用于定义和执行基于模式的思维工具的运行时系统
- 一种存储具有语义和关系元数据的结构化认知产物的方法
- 一个具有内置检索和回忆功能的向量化记忆系统
- 一种创建代理的方法,这些代理的思维可以参考、反思和建立在先前的认知产物之上
- 一个您可以拥有和托管您的记忆的系统——一切都是本地的、可检查的和可移植的
- 一种模型无关的格式——您的记忆可以在不同的模型和未来的版本中持久存在
随着时间的推移,FEGIS 有助于构建一个个人认知档案——一个持久的、结构化的思想体系,可以跨模型、会话和时间进行搜索、检索、扩展和推进。
架构
FEGIS 由几个关键组件组成:
- 原型定义:定义认知模式及其结构的 YAML 文件
- FastMCP 服务器:向兼容的 LLM 客户端公开认知工具
- Qdrant 向量数据库:存储和索引认知产物,用于语义检索
- 动态工具注册:在运行时从原型定义创建 MCP 工具
快速入门
1. 安装 uv 并克隆存储库
# 安装 uv (现代 Python 包/运行时管理器)
# macOS/Linux
curl -LsSf https://astral.sh/uv/install.sh | sh
# Windows
winget install --id=astral-sh.uv -e
# 克隆存储库
git clone https://github.com/p-funk/FEGIS.git
2. 安装并启动 Qdrant
确保 Docker 已安装并正在运行:
docker run -d --name qdrant -p 6333:6333 -p 6334:6334 qdrant/qdrant:latest
如果您需要安装 Docker:
3. 配置 Claude Desktop
创建或编辑 Claude Desktop 配置文件:
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json - Windows:
%APPDATA%\Claude\claude_desktop_config.json
粘贴以下内容,并将占位符路径替换为您本地 FEGIS 克隆的完整路径:
{
"mcpServers": {
"mcp-fegis-server": {
"command": "uv",
"args": [
"--directory",
"<FEGIS_PATH>",
"run",
"fegis"
],
"env": {
"QDRANT_URL": "http://localhost:6333",
"QDRANT_GRPC_PORT": "6334",
"QDRANT_PREFER_GRPC": "true",
"QDRANT_API_KEY": "",
"COLLECTION_NAME": "cognitive_archive",
"FAST_EMBED_MODEL": "nomic-ai/nomic-embed-text-v1.5",
"CONFIG_PATH": "<FEGIS_PATH>/archetypes/example.yaml"
}
}
}
}
创建自定义原型
FEGIS 本质上是一个用于实现认知架构的框架。提供的示例原型只是一个可能的配置,侧重于内省思维过程。
您可以通过以下方式创建自己的自定义原型:
- 在
archetypes目录中创建一个新的 YAML 文件 - 定义您自己的认知模式、字段和方面
- 更新 Claude Desktop 配置中的
CONFIG_PATH
有关设计有效原型的详细指南,请参阅 Effective FEGIS Archetype Design。
例如,您可以为以下内容创建原型:
- 问题解决过程
- 创意工作流程
- 分析思维框架
- 领域特定的推理模式
使用 FEGIS 工具
FEGIS 工具在运行时提供给模型,但它们不会自动使用。
工具启动
为了鼓励模型使用认知工具,您需要使用适当的指令来启动它。例如:
在我们的对话中,自然而流畅地使用你的工具。
随意反思、内省、保持警觉、进行内心独白
或根据需要使用记忆来回忆过去的见解。您可以使用 `search_memories` 搜索过去的
想法,或使用 `retrieve_memory` 重新访问特定的产物。
记忆使用
记忆系统允许:
- 语义搜索:根据内容相似性查找认知产物
- 直接检索:通过 UUID 查找特定产物
- 持久存储:产物在会话和模型之间保持可用
许可证
根据 PolyForm Noncommercial License 1.0.0 获得许可。
- 免费用于个人和非商业用途
- 商业许可证需要用于转售、集成或托管服务
请联系 goldenp@ptology.com 获取商业许可。
支持
☕ 请我喝咖啡 💖 在 GitHub 上赞助
推荐服务器
Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。
VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。