aica - AI Code Analyzer

aica - AI Code Analyzer

aica (AI 代码分析器) 使用 AI 审查您的代码。支持 CLI 和 GitHub Actions。

dotneet

开发者工具
访问服务器

README

aica - AI 代码分析器

动机

目前已经有一些非常出色的代码审查工具,例如 pr-agentcursor。然而,pr-agent 依赖于 GitHub 等代码托管服务,这限制了它的可用性,而 cursor 不是开源的,这意味着它不能被完全定制或与其他工具集成。

因此,我决定创建一个具有以下特点的新工具:

  • 可定制
  • 开源
  • 平台无关

功能

  • [x] AI 编码代理
  • [x] AI 代码审查
  • [x] 支持 MCP(模型上下文协议)。支持 stdio 和 SSE 传输。
  • [x] 自动检索知识以进行代码审查
  • [x] 基于符号的代码搜索以检索知识
  • [x] 基于向量的文档搜索以检索知识
  • [x] 生成更改摘要
  • [x] 生成提交消息
  • [x] 使用 AI 生成的标题和正文创建拉取请求
  • [x] 提示定制
  • [x] Slack 通知
  • [x] 通过 bun build --compile 生成单个二进制可执行文件
  • [x] GitHub Actions 集成。(请参阅 wiki 页面 设置 actions。)

安装

构建并安装二进制文件:

# 在构建 aica 之前安装 bun。
#
# 官方安装文档:
# https://bun.sh/docs/installation#installing

git clone https://github.com/dotneet/aica.git
cd aica

bun install
bun run build
cp ./dist/aica path-to-your-bin-directory

设置 GitHub Token:

# 如果未设置 GITHUB_TOKEN,aica 尝试从 `gh auth token` 获取 token。
export GITHUB_TOKEN=your_github_token

设置 LLM:

# 您可以在环境变量或 aica.toml 文件中设置以下项目。
# 至少配置以下提供商之一:

# Anthropic (如果您使用 agent,强烈建议使用 claude sonnet 模型)
export AICA_LLM_PROVIDER=anthropic
export ANTHROPIC_API_KEY=your_api_key
export ANTHROPIC_MODEL=claude-3-5-sonnet-20241022

# OpenAI
export AICA_LLM_PROVIDER=openai
export OPENAI_API_KEY=your_api_key
export OPENAI_MODEL=o3-mini

# Gemini
export AICA_LLM_PROVIDER=google
export GOOGLE_API_KEY=your_api_key
export GOOGLE_MODEL=gemini-2.0-flash

配置

您可以通过创建 aica.toml 文件来自定义配置。

请参阅 aica.example.toml

aica.toml 必须放置在以下目录之一中。

  • 仓库的根目录
  • ${HOME}/.config/aica/aica.toml
  • ${GITHUB_WORKSPACE}/aica.toml

语言

您可以指定 AI 输出的语言。可以通过 AICA_LANGUAGE 或 aica.toml 的 language 部分指定语言。默认情况下,语言会自动从 LANG 环境变量中检测。

export AICA_LANGUAGE=Japanese

优先级:

  1. AICA_LANGUAGE
  2. aica.toml 中的 language.language
  3. LANG 自动检测

用法

审查

# 审查 HEAD 的差异
aica review [options] [pattern]

# 审查特定文件
aica review src/main.ts

# 审查与特定 glob 模式匹配的文件
aica review "src/**/*.ts"

选项:

  • --dir: 目标目录路径
  • --slack: 发送通知到 Slack

代理

# 使用提示执行 AI 代理
aica agent "your prompt here"

# 使用指令文件执行 AI 代理
aica agent -f instruction.txt

# 会话模式。您可以通过键入提示与 AI 代理交互。
aica agent

此命令使用 AI 代理执行任务。代理根据给定的提示自动确定并执行必要的动作。

建议使用 anthropic claude 3.5 sonnet 作为代理。

注意:此命令有可能破坏您的文件系统。请小心。

Aica Agent 作为 MCP 服务器

# 启动 MCP 服务器
aica mcp server

# 使用配置文件启动 MCP 服务器
aica mcp server --config aica.toml

重新索引

# 重新索引代码和文档数据库
aica reindex

摘要

# 生成 HEAD 的差异摘要
aica summary [options]

选项:

  • --dir: 目标目录路径

提交更改

此命令使用 AI 生成的提交消息提交更改。

# 使用 AI 生成的提交消息提交所有更改(包括未跟踪和未暂存的更改)
aica commit [options] # 使用 AI 生成的提交消息提交所有更改(包括未跟踪和未暂存的更改)

aica commit --staged # 仅使用 AI 生成的提交消息提交暂存的更改

aica commit --push # 提交所有更改并推送到远程仓库

选项:

  • --staged: 仅提交暂存的更改。
  • --dryRun: 显示结果而不执行
  • --push: 提交后推送到远程仓库

创建拉取请求

此命令在 GitHub 上创建拉取请求。

# 创建拉取请求。如果存在更改,它们将自动提交。
aica create-pr [options]

# 仅使用暂存的更改创建拉取请求
aica create-pr --staged

选项:

  • --withSummary: 从 HEAD 生成差异摘要 (默认: true)
  • --body: 拉取请求正文
  • --dryRun: 显示结果而不执行
  • --staged: 仅包含暂存的更改

生成提交消息

# 基于 HEAD 的差异生成单行提交消息
aica commit-message [options]

选项:

  • --dir: 目标目录路径

显示配置

# 显示当前配置
aica show-config [options]

选项:

  • --default: 显示默认配置

其他命令

  • aica --version: 显示版本信息
  • aica --help [command]: 显示特定命令或一般帮助的帮助信息

添加上下文

.cursorrules 和 .clinerules 会自动添加到上下文中。 要自定义上下文,请配置 aica.toml 中的 [rules] 部分。

此外,默认情况下支持 .cursor/rules/*.mdc 文件。 可以通过设置禁用此功能。

MCP(模型上下文协议)

创建一个 mcp.json 文件来定义 MCP 服务器。

例子:

[
  {
    "name": "example-server",
    "type": "stdio",
    "command": "node",
    "args": ["./server.js"]
  },
  {
    "name": "example-server",
    "type": "sse",
    "url": "http://localhost:3001/sse"
  }
]

在 aica.toml 中设置 setupFile,如下所示。

[mcp]
setupFile = "mcp.json"

GitHub Actions

设置

有关详细信息,请参阅 wiki 页面

命令

您可以通过留下带有以下命令的评论与 AI 功能进行交互。

# 使用 AI 编辑代码
/aica edit "your prompt here"

# 更新拉取请求正文中的摘要
/aica summary

# 审查最新的差异
/aica review

推荐服务器

Playwright MCP Server

Playwright MCP Server

一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。

官方
精选
TypeScript
Magic Component Platform (MCP)

Magic Component Platform (MCP)

一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。

官方
精选
本地
TypeScript
MCP Package Docs Server

MCP Package Docs Server

促进大型语言模型高效访问和获取 Go、Python 和 NPM 包的结构化文档,通过多语言支持和性能优化来增强软件开发。

精选
本地
TypeScript
Claude Code MCP

Claude Code MCP

一个实现了 Claude Code 作为模型上下文协议(Model Context Protocol, MCP)服务器的方案,它可以通过标准化的 MCP 接口来使用 Claude 的软件工程能力(代码生成、编辑、审查和文件操作)。

精选
本地
JavaScript
@kazuph/mcp-taskmanager

@kazuph/mcp-taskmanager

用于任务管理的模型上下文协议服务器。它允许 Claude Desktop(或任何 MCP 客户端)在基于队列的系统中管理和执行任务。

精选
本地
JavaScript
mermaid-mcp-server

mermaid-mcp-server

一个模型上下文协议 (MCP) 服务器,用于将 Mermaid 图表转换为 PNG 图像。

精选
JavaScript
Jira-Context-MCP

Jira-Context-MCP

MCP 服务器向 AI 编码助手(如 Cursor)提供 Jira 工单信息。

精选
TypeScript
Linear MCP Server

Linear MCP Server

一个模型上下文协议(Model Context Protocol)服务器,它与 Linear 的问题跟踪系统集成,允许大型语言模型(LLM)通过自然语言交互来创建、更新、搜索和评论 Linear 问题。

精选
JavaScript
Sequential Thinking MCP Server

Sequential Thinking MCP Server

这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。

精选
Python
Curri MCP Server

Curri MCP Server

通过管理文本笔记、提供笔记创建工具以及使用结构化提示生成摘要,从而实现与 Curri API 的交互。

官方
本地
JavaScript