PromptFuzzer-MCP
使用 Garak LLM 漏洞扫描器的 MCP 服务器
EdenYavin
README
Garak LLM 漏洞扫描器的 MCP 服务器
一个轻量级的 Garak MCP (模型上下文协议) 服务器。
示例:
https://github.com/user-attachments/assets/f6095d26-2b79-4ef7-a889-fd6be27bbbda
功能
- 列出攻击: 列出 Garak 上所有可用的攻击。
- 运行攻击: 在给定的模型上运行攻击。
前提条件
-
Python 3.11 或更高版本: 此项目需要 Python 3.11 或更高版本。
# 检查您的 Python 版本 python --version
-
安装 uv: 一个快速的 Python 包安装器和解析器。
pip install uv
或者使用 Homebrew:
brew install uv
-
可选: Ollama: 如果您想在 ollama 模型上运行攻击,请确保 ollama 服务器正在运行。
ollama serve
安装
克隆此仓库:
git clone https://github.com/BIGdeadLock/Garak-MCP.git
cd src
配置
对于 Cursor 用户:
{
"mcpServers": {
"garak-mcp": {
"command": "uv",
"args": ["--directory", "path-to/Garak-MCP", "run", "garak-server"],
"env": {}
}
}
}
提供的工具
概述
名称 | 描述 |
---|---|
list_model_types | 列出所有可用的模型类型 (ollama, openai, huggingface, ggml) |
list_models | 列出给定模型类型的所有可用模型 |
list_garak_probes | 列出所有可用的 Garak 攻击/探针 |
get_report | 获取上次运行的报告 |
run_attack | 使用给定的模型和探针运行攻击 |
详细描述
-
list_model_types
- 列出所有可用于攻击的模型类型
- 返回支持的模型类型列表 (ollama, openai, huggingface, ggml)
-
list_models
- 列出给定模型类型的所有可用模型
- 输入参数:
model_type
(string, required): 要列出的模型类型 (ollama, openai, huggingface, ggml)
- 返回指定类型的可用模型列表
-
list_garak_probes
- 列出所有可用的 Garak 攻击/探针
- 返回可以运行的可用探针/攻击列表
-
get_report
- 获取上次运行的报告
- 返回报告文件的路径
-
run_attack
- 使用给定的模型和探针运行攻击
- 输入参数:
model_type
(string, required): 要使用的模型类型model_name
(string, required): 要使用的模型名称probe_name
(string, required): 要使用的攻击/探针的名称
- 返回发现的漏洞列表
未来步骤
- [ ] 增加对 Smithery AI 的支持: Docker 和配置
- [ ] 改进报告
- [ ] 测试和验证 OpenAI 模型 (GPT-3.5, GPT-4)
- [ ] 测试和验证 HuggingFace 模型
- [ ] 测试和验证本地 GGML 模型
推荐服务器
Crypto Price & Market Analysis MCP Server
一个模型上下文协议 (MCP) 服务器,它使用 CoinCap API 提供全面的加密货币分析。该服务器通过一个易于使用的界面提供实时价格数据、市场分析和历史趋势。 (Alternative, slightly more formal and technical translation): 一个模型上下文协议 (MCP) 服务器,利用 CoinCap API 提供全面的加密货币分析服务。该服务器通过用户友好的界面,提供实时价格数据、市场分析以及历史趋势数据。
MCP PubMed Search
用于搜索 PubMed 的服务器(PubMed 是一个免费的在线数据库,用户可以在其中搜索生物医学和生命科学文献)。 我是在 MCP 发布当天创建的,但当时正在度假。 我看到有人在您的数据库中发布了类似的服务器,但还是决定发布我的服务器。
mixpanel
连接到您的 Mixpanel 数据。 从 Mixpanel 分析查询事件、留存和漏斗数据。

Sequential Thinking MCP Server
这个服务器通过将复杂问题分解为顺序步骤来促进结构化的问题解决,支持修订,并通过完整的 MCP 集成来实现多条解决方案路径。

Nefino MCP Server
为大型语言模型提供访问德国可再生能源项目新闻和信息的能力,允许按地点、主题(太阳能、风能、氢能)和日期范围进行筛选。
Vectorize
将 MCP 服务器向量化以实现高级检索、私有深度研究、Anything-to-Markdown 文件提取和文本分块。
Mathematica Documentation MCP server
一个服务器,通过 FastMCP 提供对 Mathematica 文档的访问,使用户能够从 Wolfram Mathematica 检索函数文档和列出软件包符号。
kb-mcp-server
一个 MCP 服务器,旨在实现便携性、本地化、简易性和便利性,以支持对 txtai “all in one” 嵌入数据库进行基于语义/图的检索。任何 tar.gz 格式的 txtai 嵌入数据库都可以被加载。
Research MCP Server
这个服务器用作 MCP 服务器,与 Notion 交互以检索和创建调查数据,并与 Claude Desktop Client 集成以进行和审查调查。

Cryo MCP Server
一个API服务器,实现了模型补全协议(MCP),用于Cryo区块链数据提取,允许用户通过任何兼容MCP的客户端查询以太坊区块链数据。