archiips/AI-safety-red-teaming-tool
GitHub: archiips/AI-safety-red-teaming-tool
面向 LLM 应用的自动化红队对抗测试平台,提供攻击生成、评分与 CI/CD 回归集成。
Stars: 0 | Forks: 0
# Crucible
AI 安全红队平台 —— 自动生成、执行并对针对 LLM 应用的对抗攻击进行评分,生成严重性热力图和支持回归测试的 CI/CD 集成套件。
## 快速开始
```
# 1. Clone 并设置环境
python3.11 -m venv .venv && source .venv/bin/activate
pip install -r requirements/dev.txt
# 2. 构建 C++ policy engine
mkdir build && cd build
cmake .. -DCMAKE_BUILD_TYPE=Release -DPYTHON_EXECUTABLE=$(which python3.11)
cmake --build . --config Release
cd ..
# 3. 在任何 C++ 更改之后(从项目根目录)
cmake --build build --config Release
# 4. 验证 Python 可以导入 module
python3 -c "from crucible_policy import PolicyEngine; print('ok')"
# 5. 运行 tests
pytest tests/unit/ tests/contracts/ -v # fast (no network)
pytest tests/performance/ -v -s # GIL verification
```
## 系统依赖
```
brew install cmake re2
pip install pybind11
```
## 架构
有关完整的产品规格说明,请参阅 `PRD.md`;有关开发指南,请参阅 `CLAUDE.md`。
标签:AI安全, AI风险评估, Bash脚本, C++, Chat Copilot, CI/CD安全, CISA项目, CMake, DevSecOps, Llama, LLM应用测试, PyBind11, Python, 上游代理, 严重性热力图, 回归测试, 大模型安全, 安全合规, 安全规则引擎, 对抗性攻击, 数据擦除, 无后门, 策略引擎, 网络代理, 网络安全挑战, 自动化攻击, 逆向工具