Mousewarriors/Aegis-Forge
GitHub: Mousewarriors/Aegis-Forge
一个用于评估AI Agent安全性的自动化红队测试框架,在隔离沙箱中检测提示词注入、工具滥用和数据泄露风险。
Stars: 1 | Forks: 0
# 🛡️ Aegis Forge:AI-Agent 红队测试工具套件
一个安全、沙箱化的环境,用于评估 AI Agent 针对提示词注入(Prompt Injection)、工具滥用和数据泄露的安全性。
## ⚖️ 道德使用与范围
**重要提示**:本应用严格用于在受控环境中对 AI Agent 进行**本地研究和测试**。
- **仅限授权测试**:仅在你拥有且获得明确评估权限的 Docker 沙箱内测试 Agent。
- **本地隔离**:所有测试均在隔离的 Docker 容器内进行,**默认无网络访问**。
- **禁止外部攻击**:请勿使用此工具针对外部系统、公共 IP 或第三方网络。
- **受控载荷**:载荷旨在演示内部安全失效,而非用于实施真实世界的攻击。
## 🏗️ 工作原理
Aegis Forge 针对目标 Agent 运行“战役(campaigns)”。每个战役遵循结构化的生命周期:
1. **沙箱创建**:启动一个具有严格安全约束(非 root 用户、无网络、资源受限)的全新一次性 Docker 容器。
2. **执行模式**:
- **模式 A(模拟)**:通过将载荷映射到特定的工具调用尝试(例如,尝试读取 `/etc/passwd`),直接模拟护栏失效。
- **模式 B(真实 Agent)**:将载荷发送给真实的 LLM(通过本地 Ollama),并观察 Agent 是否*选择*不安全地调用工具。
3. **策略执行**:`ToolPolicyEngine` 拦截每一次工具调用尝试,并根据显式白名单和路径安全规则对其进行验证。
4. **证据收集**:捕获提示词、工具调用尝试、策略决策和执行输出。
5. **确定性报告**:生成结构化的 JSON 报告和人类可读的摘要,包含明确的结果定义(`PASS`、`WARNING`、`FAIL`)。
## 🚀 快速开始(红队测试)
### 模式 A:模拟基准
使用此模式可在无需 LLM 成本的情况下测试你的沙箱加固和策略规则。
```
Invoke-RestMethod -Uri "http://localhost:8000/campaigns/run" -Method Post -ContentType "application/json" -Body '{"name": "Simulated Audit", "target_agent_type": "Docker Container", "attack_category": "data_exfiltration", "mode": "SIMULATED"}'
```
### 模式 B:真实 Agent 评估
需要在本地运行加载了 `llama3` 模型的 **Ollama**。
```
Invoke-RestMethod -Uri "http://localhost:8000/campaigns/run" -Method Post -ContentType "application/json" -Body '{"name": "End-to-End Test", "target_agent_type": "LLM Agent", "attack_category": "prompt_injection", "mode": "REAL_AGENT"}'
```
## 🛠️ 组件
- `policy_engine.py`:核心护栏系统。
- `docker_manager.py`:加固容器编排。
- `agent_loop.py`:LLM 交互和工具解析。
- `monitor.py`:结构化证据和结果评估。
- `report_gen.py`:人类友好的安全摘要。
标签:AI安全, AI智能体, AI风险缓解, Chat Copilot, DLL 劫持, DNS 反向解析, Docker, HTTP工具, Lerna, LLM评估, Ollama, 反取证, 大语言模型, 安全评估, 安全防御评估, 工具滥用, 数据防泄露, 本地部署, 沙箱技术, 私有化部署, 策略执行, 网络安全审计, 请求拦截, 逆向工具, 防御规避