
mcp-neurolora
提供用于从目录收集和记录代码的工具。
Tools
collect_code
Collect all code from a directory into a single markdown file
install_base_servers
Install base MCP servers to the configuration
analyze_code
Analyze code using OpenAI API (requires your API key). The analysis may take a few minutes. So, wait please.
create_github_issues
Create GitHub issues from analysis results. Requires GitHub token.
README
MCP Neurolora
一个智能的 MCP 服务器,提供使用 OpenAI API 进行代码分析、代码收集和文档生成的工具。
🚀 安装指南
如果您还没有安装任何东西,请不要担心!只需按照以下步骤操作,或请您的助手帮助您完成安装。
步骤 1:安装 Node.js
macOS
- 如果尚未安装 Homebrew,请安装:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
- 安装 Node.js 18:
brew install node@18 echo 'export PATH="/opt/homebrew/opt/node@18/bin:$PATH"' >> ~/.zshrc source ~/.zshrc
Windows
- 从 nodejs.org 下载 Node.js 18 LTS
- 运行安装程序
- 打开一个新的终端以应用更改
Linux (Ubuntu/Debian)
curl -fsSL https://deb.nodesource.com/setup_18.x | sudo -E bash -
sudo apt-get install -y nodejs
步骤 2:安装 uv 和 uvx
所有操作系统
-
安装 uv:
curl -LsSf https://astral.sh/uv/install.sh | sh
-
安装 uvx:
uv pip install uvx
步骤 3:验证安装
运行以下命令以验证所有内容是否已安装:
node --version # 应该显示 v18.x.x
npm --version # 应该显示 9.x.x 或更高版本
uv --version # 应该显示 uv 已安装
uvx --version # 应该显示 uvx 已安装
步骤 4:配置 MCP 服务器
您的助手将帮助您:
-
找到您的 Cline 设置文件:
- VSCode:
~/Library/Application Support/Code/User/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json
- Claude Desktop:
~/Library/Application Support/Claude/claude_desktop_config.json
- Windows VSCode:
%APPDATA%/Code/User/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json
- Windows Claude:
%APPDATA%/Claude/claude_desktop_config.json
- VSCode:
-
添加此配置:
{ "mcpServers": { "aindreyway-mcp-neurolora": { "command": "npx", "args": ["-y", "@aindreyway/mcp-neurolora@latest"], "env": { "NODE_OPTIONS": "--max-old-space-size=256", "OPENAI_API_KEY": "your_api_key_here" } } } }
步骤 5:安装基本服务器
只需询问您的助手: “请为我的环境安装基本 MCP 服务器”
您的助手将:
- 找到您的设置文件
- 运行 install_base_servers 工具
- 自动配置所有必要的服务器
安装完成后:
- 完全关闭 VSCode(macOS 上为 Cmd+Q,Windows 上为 Alt+F4)
- 重新打开 VSCode
- 新服务器将可以使用
重要提示: 安装基本服务器后,需要完全重启 VSCode 才能正确初始化它们。
注意: 此服务器使用
npx
进行直接 npm 包执行,这对于 Node.js/TypeScript MCP 服务器来说是最佳选择,可提供与 npm 生态系统和 TypeScript 工具的无缝集成。
基本 MCP 服务器
以下基本服务器将自动安装和配置:
- fetch:用于访问 Web 资源的基本 HTTP 请求功能
- puppeteer:用于 Web 交互和测试的浏览器自动化功能
- sequential-thinking:用于复杂任务的高级问题解决工具
- github:用于存储库管理的 GitHub 集成功能
- git:用于版本控制的 Git 操作支持
- shell:具有常用命令的基本 shell 命令执行:
- ls:列出目录内容
- cat:显示文件内容
- pwd:打印工作目录
- grep:搜索文本模式
- wc:计算单词、行、字符
- touch:创建空文件
- find:搜索文件
🎯 您的助手可以做什么
请您的助手:
- “分析我的代码并提出改进建议”
- “为我的环境安装基本 MCP 服务器”
- “从我的项目目录中收集代码”
- “为我的代码库创建文档”
- “生成一个包含我所有代码的 markdown 文件”
🛠 可用工具
analyze_code
使用 OpenAI API 分析代码并生成带有改进建议的详细反馈。
参数:
codePath
(必需):要分析的代码文件或目录的路径
用法示例:
{
"codePath": "/path/to/your/code.ts"
}
该工具将:
- 使用 OpenAI API 分析您的代码
- 生成带有以下内容的详细反馈:
- 问题和建议
- 违反最佳实践的行为
- 影响分析
- 修复步骤
- 在您的项目中创建两个输出文件:
- LAST_RESPONSE_OPENAI.txt - 人工可读的分析
- LAST_RESPONSE_OPENAI_GITHUB_FORMAT.json - 用于 GitHub 问题的结构化数据
注意:需要在环境配置中提供 OpenAI API 密钥
collect_code
将目录中的所有代码收集到一个带有语法突出显示和导航的 markdown 文件中。
参数:
directory
(必需):要从中收集代码的目录路径outputPath
(可选):保存输出 markdown 文件的路径ignorePatterns
(可选):要忽略的模式数组(类似于 .gitignore)
用法示例:
{
"directory": "/path/to/project/src",
"outputPath": "/path/to/project/src/FULL_CODE_SRC_2024-12-20.md",
"ignorePatterns": ["*.log", "temp/", "__pycache__", "*.pyc", ".git"]
}
install_base_servers
将基本 MCP 服务器安装到您的配置文件中。
参数:
configPath
(必需):MCP 设置配置文件的路径
用法示例:
{
"configPath": "/path/to/cline_mcp_settings.json"
}
🔧 功能
该服务器提供:
-
代码分析:
- OpenAI API 集成
- 结构化反馈
- 最佳实践建议
- GitHub 问题生成
-
代码收集:
- 目录遍历
- 语法突出显示
- 导航生成
- 基于模式的过滤
-
基本服务器管理:
- 自动安装
- 配置处理
- 版本管理
📄 许可
MIT 许可证 - 随意在您的项目中使用它!
👤 作者
Aindreyway
- GitHub: @aindreyway
⭐️ 支持
如果这个项目帮助了您,请给一个 ⭐️!
推荐服务器

Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。