NSAF MCP Server

NSAF MCP Server

镜子 (jìng zi)

MCP-Mirror

研究与数据
访问服务器

README

NSAF MCP 服务器

这是一个用于神经符号自主框架 (NSAF) 的模型上下文协议 (MCP) 服务器。它允许 AI 助手通过 MCP 协议与 NSAF 框架进行交互。

注意: 此存储库包含 NSAF 框架代码和 MCP 服务器实现,使其成为一个完整的软件包,可以部署并在任何地方使用。

注意: 此实现使用简化版本的 MCP 协议,不需要官方 MCP SDK。它实现了将 NSAF 功能暴露给 AI 助手所需的核心功能。

功能

  • 使用可自定义的参数运行 NSAF 进化
  • 比较不同的 NSAF 代理架构
  • 将 NSAF 功能集成到 AI 助手中

前提条件

  • Node.js 18+ 和 npm
  • Python 3.8+,并安装了 NSAF 框架

安装

  1. 克隆此存储库:
git clone https://github.com/ariunbolor/nsaf-mcp-server.git
cd nsaf-mcp-server
  1. 安装依赖项:
npm install
  1. 构建服务器:
npm run build

配置

服务器包含 NSAF 框架代码,因此基本使用不需要额外的配置。 MCP 服务器设计为全局安装后即可直接使用。

用法

在本地运行服务器

npm start

部署到 GitHub

  1. 为您的 MCP 服务器创建一个新的 GitHub 存储库:

    • 转到 GitHub 并创建一个名为 nsaf-mcp-server 的新存储库
    • 使用 README 文件初始化它
  2. 使用提供的设置脚本将您的代码推送到 GitHub:

# 对于新的存储库
./setup-github-fixed.sh yourusername

# 如果存储库已存在并且您想覆盖其内容
./setup-github-fixed.sh yourusername --force

该脚本将:

  • 如果需要,初始化 git
  • 设置远程存储库
  • 提交您的更改
  • 尝试推送到 GitHub(带有处理现有存储库的选项)
  1. 配置 GitHub Actions 以进行 CI/CD(可选):
    • 创建一个 .github/workflows 目录
    • 添加一个工作流程文件,用于测试和构建服务器

与 AI 助手一起使用

要将此 MCP 服务器与 Claude 等 AI 助手一起使用,您需要:

  1. 安装服务器:

    选项 1:从 GitHub 安装(在推送您的代码后):

    npm install -g yourusername/nsaf-mcp-server
    

    选项 2:从您的本地目录安装:

    # 导航到 nsaf-mcp-server 目录
    cd nsaf_mcp_server
    
    # 安装依赖项并构建
    npm install
    npm run build
    
    # 从本地目录全局安装
    npm install -g .
    
  2. 将服务器添加到您的 MCP 设置配置:

对于 Claude Desktop 应用程序,编辑 ~/Library/Application Support/Claude/claude_desktop_config.json(在 macOS 上):

{
  "mcpServers": {
    "nsaf": {
      "command": "nsaf-mcp-server",
      "args": [],
      "env": {},
      "disabled": false,
      "autoApprove": []
    }
  }
}

对于 Cline,编辑 /Users/onthego/Library/Application Support/Code/User/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json

{
  "mcpServers": {
    "nsaf": {
      "command": "nsaf-mcp-server",
      "args": [],
      "env": {},
      "disabled": false,
      "autoApprove": []
    }
  }
}

可用工具

run_nsaf_evolution

使用指定的参数运行 NSAF 进化。

参数:

  • population_size: 代理种群的大小(默认值:20)
  • generations: 进化的代数(默认值:10)
  • mutation_rate: 突变率 (0.0-1.0)(默认值:0.2)
  • crossover_rate: 交叉率 (0.0-1.0)(默认值:0.7)
  • architecture_complexity: 代理架构的复杂性('simple'、'medium'、'complex')(默认值:'medium')

compare_nsaf_agents

比较不同的 NSAF 代理架构。

参数:

  • architectures: 要比较的架构列表(默认值:['simple', 'medium', 'complex'])

许可证

MIT

推荐服务器

Crypto Price & Market Analysis MCP Server

Crypto Price & Market Analysis MCP Server

一个模型上下文协议 (MCP) 服务器,它使用 CoinCap API 提供全面的加密货币分析。该服务器通过一个易于使用的界面提供实时价格数据、市场分析和历史趋势。 (Alternative, slightly more formal and technical translation): 一个模型上下文协议 (MCP) 服务器,利用 CoinCap API 提供全面的加密货币分析服务。该服务器通过用户友好的界面,提供实时价格数据、市场分析以及历史趋势数据。

精选
TypeScript
MCP PubMed Search

MCP PubMed Search

用于搜索 PubMed 的服务器(PubMed 是一个免费的在线数据库,用户可以在其中搜索生物医学和生命科学文献)。 我是在 MCP 发布当天创建的,但当时正在度假。 我看到有人在您的数据库中发布了类似的服务器,但还是决定发布我的服务器。

精选
Python
mixpanel

mixpanel

连接到您的 Mixpanel 数据。 从 Mixpanel 分析查询事件、留存和漏斗数据。

精选
TypeScript
Sequential Thinking MCP Server

Sequential Thinking MCP Server

这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。

精选
Python
Nefino MCP Server

Nefino MCP Server

为大型语言模型提供访问德国可再生能源项目新闻和信息的能力,允许按地点、主题(太阳能、风能、氢能)和日期范围进行筛选。

官方
Python
Vectorize

Vectorize

将 MCP 服务器向量化以实现高级检索、私有深度研究、Anything-to-Markdown 文件提取和文本分块。

官方
JavaScript
Mathematica Documentation MCP server

Mathematica Documentation MCP server

一个服务器,通过 FastMCP 提供对 Mathematica 文档的访问,使用户能够从 Wolfram Mathematica 检索函数文档和列出软件包符号。

本地
Python
kb-mcp-server

kb-mcp-server

一个 MCP 服务器,旨在实现便携性、本地化、简易性和便利性,以支持对 txtai “all in one” 嵌入数据库进行基于语义/图的检索。任何 tar.gz 格式的 txtai 嵌入数据库都可以被加载。

本地
Python
Research MCP Server

Research MCP Server

这个服务器用作 MCP 服务器,与 Notion 交互以检索和创建调查数据,并与 Claude Desktop Client 集成以进行和审查调查。

本地
Python
Cryo MCP Server

Cryo MCP Server

一个API服务器,实现了模型补全协议(MCP),用于Cryo区块链数据提取,允许用户通过任何兼容MCP的客户端查询以太坊区块链数据。

本地
Python