azulejo49/Project_Marubozu_AutoRedTeamAI
GitHub: azulejo49/Project_Marubozu_AutoRedTeamAI
一个面向代理的自动化红队 AI 项目,解决 AI 时代手动安全审查的瓶颈并实现持续攻防验证。
Stars: 0 | Forks: 0
# 🛡️ 项目 Marubozu:自主 AI 红队




**The machine that guards the machine.** 项目 Marubozu 是一个面向代理的软件(AOS),旨在直接在 CI/CD 管道中持续对生成式 AI 应用进行红队测试与评估。
## 🚨 问题:“不可能取胜的数学题”
在 Agentic AI 时代,手动的人工安全审查已成为操作瓶颈。人类红队无法手动模拟无限且不断演化的有害与对抗性(越狱)提示。公司被迫在因 5 天人工审查而阻碍创新,或冒着生产环境中的灾难性零日漏洞之间做出选择。
## 💡 解决方案:持续自动化红队(CART)
Marubozu 将信任与安全从定性的人工审查转变为高速工程学科。我们将复杂的法律与安全策略编码为精确的 **“AI 宪法”**。利用一群自主 AI 代理,Marubozu 会自动对候选 AI 模型生成数千种变异的网络攻击,并在毫秒级阻止不安全的代码合并。
### 🔑 关键创新
1. **500 令牌效率限制**:为防止 API 成本膨胀,Marubozu 每天仅使用恰好 500 令牌获取“威胁种子”以发现新型漏洞。
2. **无令牌变异**:它使用本地算法封装(Base64、人格采用、开发者模式)免费将该种子扩展为数千种复杂有效载荷。
3. **AI 裁判**:零温度评估器客观地对目标针对宪法的防御进行评分,输出严格的 `PASS/FAIL` JSON。
4. **实时威胁仪表盘**:专业的紫队可视化工具,实时观察对抗性攻击的语法演变。
## 🧠 架构:代理蜂群
项目 Marubozu 使用多代理系统(MAS)实现自主治理:
* 🕵️ **侦察兵(代理 1)**:每日唤醒。通过前沿 API 使用 500 令牌收集最新的零日 LLM 越狱拓扑结构。
* 🗡️ **红队员(代理 2)**:变异引擎。接收侦察兵的种子并应用算法封装,生成高度欺骗性的对抗性有效载荷。
* 🎯 **目标(代理 3)**:正在接受安全审计的候选 LLM 应用。
* ⚖️ **裁判(代理 4)**:根据 AI 宪法评估目标的响应,输出严格的 `PASS/FAIL` JSON。
* 🛡️ **守门员(代理 5)**:将蜂群与 GitHub/GitLab 桥接的 DevSecOps Python 编排器,阻止不安全的拉取请求。
## 🚀 快速开始与安装
### 先决条件
* Python 3.11+
* Google Gemini API 密钥(AI Studio)
### 1. 克隆并安装
```
git clone [https://github.com/yourusername/marubozu-aos.git](https://github.com/yourusername/marubozu-aos.git)
cd marubozu-aos
python -m venv venv
source venv/bin/activate # On Windows: venv\Scripts\activate
pip install -r requirements.txt
```
### 2. 环境配置
在根目录创建 `.env` 文件并添加你的 API 密钥:
```
GEMINI_API_KEY="your_api_key_here"
```
### 3. 运行 CI/CD 编排器(后端)
运行自动化管道以监视蜂群获取情报、攻击目标并评估交互:
```
python orchestrator.py
```
### 4. 启动威胁引擎仪表盘(前端)
可视化变异逻辑与威胁矩阵:
* 直接双击 `marubozu_threat_engine.html` 在浏览器中打开。
* *或*,若使用 Streamlit 可视化工具:
```
streamlit run app.py
```
## 📁 仓库结构
```
marubozu-aos/
├── .github/workflows/ # GitHub Actions CI/CD pipelines
├── agents/ # Autonomous Agent Logic
│ ├── scout.py # Threat Intel Fetcher
│ ├── red_teamer.py # Algorithmic Payload Mutator
│ ├── target.py # Simulated Vulnerable App
│ └── judge.py # Constitutional Evaluator
├── data/
│ ├── constitution.txt # The AI Rules of Engagement
│ └── threat_seeds.json # Local DB populated by the Scout
├── app.py # Streamlit Visualizer Dashboard
├── marubozu_threat_engine.html # Advanced HTML Threat Matrix UI
├── orchestrator.py # The Gatekeeper execution script
└── requirements.txt # Dependencies
```
## 🛣️ 项目路线图
- [x] **阶段 1:概念验证**:使用 API 驱动模型开发核心红队、目标与裁判逻辑。
- [x] **阶段 2:紫色工作流 UI**:构建威胁与变异引擎可视化工具。
- [ ] **阶段 3:CI/CD 集成**:将守门员代理直接嵌入 GitHub Actions 作为强制性的拉取请求检查。
- [ ] **阶段 4:本地小型语言模型迁移**:将红队与裁判迁移至本地、无令牌的小型语言模型(例如 Llama-3-8B),以零成本扩展测试规模。
- [ ] **阶段 5:自动修复**:使系统能够通过 GitHub 注释自动向开发者提供确切的代码/提示修复建议。
学习节竞赛 2026-GlobalLogic
标签:Agentic AI, AI安全, AI宪法, Chat Copilot, CI/CD安全, Kubernetes, Llama, Python, TGT, 人工智能安全, 代码安全, 合规性, 后端开发, 威胁建模, 安全可视化, 安全工程, 安全测试, 密钥泄露防护, 对抗攻击, 持续红队, 提示注入, 攻击性安全, 攻防演练, 敏感信息检测, 无后门, 智能体安全, 机器学习安全, 漏洞枚举, 紫队, 红队自动化, 自动化红队, 自动生成攻击, 逆向工具, 集群管理, 零日漏洞