
Aider MCP Server
允许 Claude Code 将 AI 编码任务卸载到 Aider,从而降低成本并能够更好地控制哪些模型处理特定的编码任务。
README
Aider MCP 服务器 - 实验性项目
用于将 AI 编码工作分流到 Aider 的模型上下文协议服务器,从而提高开发效率和灵活性。
概述
此服务器允许 Claude Code 将 AI 编码任务分流到 Aider,这是最好的开源 AI 编码助手。通过将某些编码任务委派给 Aider,我们可以降低成本,获得对编码模型的控制权,并以更协调的方式运行 Claude Code 来审查和修改代码。
设置
- 克隆存储库:
git clone https://github.com/disler/aider-mcp-server.git
- 安装依赖项:
uv sync
- 创建您的环境文件:
cp .env.sample .env
- 在
.env
文件中配置您的 API 密钥(或使用 mcpServers "env" 部分),以拥有 Aider 中要使用的模型所需的 API 密钥:
GEMINI_API_KEY=your_gemini_api_key_here
OPENAI_API_KEY=your_openai_api_key_here
ANTHROPIC_API_KEY=your_anthropic_api_key_here
...更多信息请参见 .env.sample
- 将
.mcp.json
复制并填写到项目的根目录中,并更新--directory
以指向此项目的根目录,并将--current-working-dir
指向您的项目的根目录。
{
"mcpServers": {
"aider-mcp-server": {
"type": "stdio",
"command": "uv",
"args": [
"--directory",
"<指向此项目的路径>",
"run",
"aider-mcp-server",
"--editor-model",
"gpt-4o",
"--current-working-dir",
"<指向您的项目的路径>"
],
"env": {
"GEMINI_API_KEY": "<您的 gemini api 密钥>",
"OPENAI_API_KEY": "<您的 openai api 密钥>",
"ANTHROPIC_API_KEY": "<您的 anthropic api 密钥>",
...更多信息请参见 .env.sample
}
}
}
}
uv run aider-mcp-server
测试
要运行所有测试:
uv run pytest
要运行特定测试:
# 测试模型列表
uv run pytest src/aider_mcp_server/tests/atoms/tools/test_aider_list_models.py
# 测试 AI 编码
uv run pytest src/aider_mcp_server/tests/atoms/tools/test_aider_ai_code.py
注意:AI 编码测试需要 Gemini 模型的有效 API 密钥。在运行测试之前,请确保在 .env
文件中设置它。
将此 MCP 服务器添加到 Claude Code
使用 gemini-2.5-pro-exp-03-25
添加
claude mcp add aider-mcp-server -s local \
-- \
uv --directory "<aider mcp 服务器项目的路径>" \
run aider-mcp-server \
--editor-model "gemini/gemini-2.5-pro-exp-03-25" \
--current-working-dir "<您的项目的路径>"
使用 gemini-2.5-pro-preview-03-25
添加
claude mcp add aider-mcp-server -s local \
-- \
uv --directory "<aider mcp 服务器项目的路径>" \
run aider-mcp-server \
--editor-model "gemini/gemini-2.5-pro-preview-03-25" \
--current-working-dir "<您的项目的路径>"
使用 quasar-alpha
添加
claude mcp add aider-mcp-server -s local \
-- \
uv --directory "<aider mcp 服务器项目的路径>" \
run aider-mcp-server \
--editor-model "openrouter/openrouter/quasar-alpha" \
--current-working-dir "<您的项目的路径>"
使用 llama4-maverick-instruct-basic
添加
claude mcp add aider-mcp-server -s local \
-- \
uv --directory "<aider mcp 服务器项目的路径>" \
run aider-mcp-server \
--editor-model "fireworks_ai/accounts/fireworks/models/llama4-maverick-instruct-basic" \
--current-working-dir "<您的项目的路径>"
用法
此 MCP 服务器提供以下功能:
-
将 AI 编码任务分流到 Aider:
- 接受提示和文件路径
- 使用 Aider 实现请求的更改
- 返回成功或失败
-
列出可用模型:
- 提供与子字符串匹配的模型列表
- 用于发现支持的模型
可用工具
此 MCP 服务器公开以下工具:
1. aider_ai_code
此工具允许您运行 Aider,以根据提供的提示和指定的文件执行 AI 编码任务。
参数:
ai_coding_prompt
(字符串,必需):AI 编码任务的自然语言指令。relative_editable_files
(字符串列表,必需):允许 Aider 修改的文件路径列表(相对于current_working_dir
)。如果文件不存在,将创建该文件。relative_readonly_files
(字符串列表,可选):Aider 可以读取以获取上下文但不能修改的文件路径列表(相对于current_working_dir
)。默认为空列表[]
。model
(字符串,可选):Aider 应用于生成代码的主要 AI 模型。默认为"gemini/gemini-2.5-pro-exp-03-25"
。您可以使用list_models
工具查找其他可用模型。editor_model
(字符串,可选):Aider 应用于编辑/改进代码的 AI 模型,尤其是在使用架构师模式时。如果未提供,则可能会使用主要的model
,具体取决于 Aider 的内部逻辑。默认为None
。
用法示例(在 MCP 请求中):
{
"name": "aider_ai_code",
"parameters": {
"ai_coding_prompt": "重构 calculator.py 中的 calculate_sum 函数以处理潜在的 TypeError 异常。",
"relative_editable_files": ["src/calculator.py"],
"relative_readonly_files": ["docs/requirements.txt"],
"model": "openai/gpt-4o"
}
}
返回:
- 一个简单的字符串,指示结果:
"success"
或"failure"
。
2. list_models
此工具列出 Aider 支持的与给定子字符串匹配的可用 AI 模型。
参数:
substring
(字符串,必需):要在可用模型的名称中搜索的子字符串。
用法示例(在 MCP 请求中):
{
"name": "list_models",
"parameters": {
"substring": "gemini"
}
}
返回:
- 与提供的子字符串匹配的模型名称字符串列表。示例:
["gemini/gemini-1.5-flash", "gemini/gemini-1.5-pro", "gemini/gemini-pro"]
架构
服务器的结构如下:
- 服务器层:处理 MCP 协议通信
- 原子层:单个纯函数式组件
- 工具:特定功能(AI 编码、列出模型)
- 实用程序:常量和辅助函数
- 数据类型:使用 Pydantic 的类型定义
所有组件都经过全面测试,以确保可靠性。
代码库结构
该项目组织成以下主要目录和文件:
.
├── ai_docs # 与 AI 模型和示例相关的文档
│ ├── just-prompt-example-mcp-server.xml
│ └── programmable-aider-documentation.md
├── pyproject.toml # 项目元数据和依赖项
├── README.md # 此文件
├── specs # 规范文档
│ └── init-aider-mcp-exp.md
├── src # 源代码目录
│ └── aider_mcp_server # 服务器的主包
│ ├── __init__.py # 包初始化程序
│ ├── __main__.py # 服务器可执行文件的主入口点
│ ├── atoms # 核心、可重用的组件(纯函数)
│ │ ├── __init__.py
│ │ ├── data_types.py # 数据结构的 Pydantic 模型
│ │ ├── logging.py # 自定义日志设置
│ │ ├── tools # 单个工具实现
│ │ │ ├── __init__.py
│ │ │ ├── aider_ai_code.py # aider_ai_code 工具的逻辑
│ │ │ └── aider_list_models.py # list_models 工具的逻辑
│ │ └── utils.py # 实用程序函数和常量(如默认模型)
│ ├── server.py # MCP 服务器逻辑、工具注册、请求处理
│ └── tests # 单元和集成测试
│ ├── __init__.py
│ └── atoms # 原子层的测试
│ ├── __init__.py
│ ├── test_logging.py # 日志记录的测试
│ └── tools # 工具的测试
│ ├── __init__.py
│ ├── test_aider_ai_code.py # AI 编码工具的测试
│ └── test_aider_list_models.py # 模型列表工具的测试
src/aider_mcp_server
: 包含主应用程序代码。atoms
: 包含基本构建块。这些被设计为纯函数或具有最小依赖性的简单类。tools
: 此处的每个文件都实现了特定 MCP 工具(aider_ai_code
、list_models
)的核心逻辑。utils.py
: 包含共享常量,如默认模型名称。data_types.py
: 定义请求/响应结构的 Pydantic 模型,确保数据验证。logging.py
: 为控制台和文件输出设置一致的日志记录格式。
server.py
: 协调 MCP 服务器。它初始化服务器,注册在atoms/tools
目录中定义的工具,处理传入的请求,将它们路由到适当的工具逻辑,并根据 MCP 协议发回响应。__main__.py
: 提供命令行界面入口点 (aider-mcp-server
),解析诸如--editor-model
之类的参数,并启动在server.py
中定义的服务器。tests
: 包含镜像src
目录结构的测试,确保每个组件(尤其是原子)按预期工作。
推荐服务器

Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。

VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。

e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。