MCP-Allure
一个服务器,可以将 Allure 测试报告转换为 LLM (大型语言模型) 友好的格式,从而使 AI 模型能够更好地分析测试结果,并提供关于测试失败和潜在修复的见解。
README
MCP-Allure
MCP-Allure 是一个 MCP 服务器,用于读取 Allure 报告并以 LLM 友好的格式返回它们。
动机
随着人工智能 (AI) 和大型语言模型 (LLM) 越来越成为软件开发不可或缺的一部分,弥合传统测试报告和 AI 辅助分析之间的差距的需求也日益增长。传统的 Allure 测试报告格式虽然易于人类阅读,但并未针对 LLM 的消费和处理进行优化。
MCP-Allure 通过将 Allure 测试报告转换为 LLM 友好的格式来解决这一挑战。这种转换使 AI 模型能够更好地理解、分析和提供有关测试结果的见解,从而更容易:
- 生成有意义的测试摘要和见解
- 识别测试失败中的模式
- 建议修复失败测试的潜在方法
- 实现更有效的 AI 辅助调试
- 促进自动化测试文档生成
通过优化测试报告以供 LLM 消费,MCP-Allure 帮助开发团队充分利用 AI 工具在测试工作流程中的潜力,从而实现更高效和智能的测试分析和维护。
解决的问题
- 效率:传统的测试报告格式未针对 AI 消费进行优化,导致测试分析和维护效率低下。
- 准确性:AI 模型可能难以解释和分析未采用针对 AI 消费优化的格式的测试报告。
- 成本:将测试报告转换为 LLM 友好的格式可能既耗时又昂贵。
主要特性
- 转换:将 Allure 测试报告转换为 LLM 友好的格式。
- 优化:优化测试报告以供 AI 消费。
- 效率:高效地转换测试报告。
- 成本:以低成本转换测试报告。
- 准确性:以高精度转换测试报告。
安装
要使用 uv 安装 mcp-repo2llm:
{
"mcpServers": {
"mcp-allure-server": {
"command": "uv",
"args": [
"run",
"--with",
"mcp[cli]",
"mcp",
"run",
"/Users/crisschan/workspace/pyspace/mcp-allure/mcp-allure-server.py"
]
}
}
}
工具
get_allure_report
- 读取 Allure 报告并返回 JSON 数据
- 输入:
- report_dir: Allure HTML 报告路径
- 返回:
- 字符串,格式化的 JSON 数据,如下所示:
{
"test-suites": [
{
"name": "test suite name",
"title": "suite title",
"description": "suite description",
"status": "passed",
"start": "timestamp",
"stop": "timestamp",
"test-cases": [
{
"name": "test case name",
"title": "case title",
"description": "case description",
"severity": "normal",
"status": "passed",
"start": "timestamp",
"stop": "timestamp",
"labels": [
],
"parameters": [
],
"steps": [
{
"name": "step name",
"title": "step title",
"status": "passed",
"start": "timestamp",
"stop": "timestamp",
"attachments": [
],
"steps": [
]
}
]
}
]
}
]
}
推荐服务器
Baidu Map
百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Playwright MCP Server
一个模型上下文协议服务器,它使大型语言模型能够通过结构化的可访问性快照与网页进行交互,而无需视觉模型或屏幕截图。
Magic Component Platform (MCP)
一个由人工智能驱动的工具,可以从自然语言描述生成现代化的用户界面组件,并与流行的集成开发环境(IDE)集成,从而简化用户界面开发流程。
Audiense Insights MCP Server
通过模型上下文协议启用与 Audiense Insights 账户的交互,从而促进营销洞察和受众数据的提取和分析,包括人口统计信息、行为和影响者互动。
VeyraX
一个单一的 MCP 工具,连接你所有喜爱的工具:Gmail、日历以及其他 40 多个工具。
graphlit-mcp-server
模型上下文协议 (MCP) 服务器实现了 MCP 客户端与 Graphlit 服务之间的集成。 除了网络爬取之外,还可以将任何内容(从 Slack 到 Gmail 再到播客订阅源)导入到 Graphlit 项目中,然后从 MCP 客户端检索相关内容。
Kagi MCP Server
一个 MCP 服务器,集成了 Kagi 搜索功能和 Claude AI,使 Claude 能够在回答需要最新信息的问题时执行实时网络搜索。
e2b-mcp-server
使用 MCP 通过 e2b 运行代码。
Neon MCP Server
用于与 Neon 管理 API 和数据库交互的 MCP 服务器
Exa MCP Server
模型上下文协议(MCP)服务器允许像 Claude 这样的 AI 助手使用 Exa AI 搜索 API 进行网络搜索。这种设置允许 AI 模型以安全和受控的方式获取实时的网络信息。