archiips/AI-safety-red-teaming-tool

GitHub: archiips/AI-safety-red-teaming-tool

面向 LLM 应用的自动化红队对抗测试平台,提供攻击生成、评分与 CI/CD 回归集成。

Stars: 0 | Forks: 0

# Crucible AI 安全红队平台 —— 自动生成、执行并对针对 LLM 应用的对抗攻击进行评分,生成严重性热力图和支持回归测试的 CI/CD 集成套件。 ## 快速开始 ``` # 1. Clone 并设置环境 python3.11 -m venv .venv && source .venv/bin/activate pip install -r requirements/dev.txt # 2. 构建 C++ policy engine mkdir build && cd build cmake .. -DCMAKE_BUILD_TYPE=Release -DPYTHON_EXECUTABLE=$(which python3.11) cmake --build . --config Release cd .. # 3. 在任何 C++ 更改之后(从项目根目录) cmake --build build --config Release # 4. 验证 Python 可以导入 module python3 -c "from crucible_policy import PolicyEngine; print('ok')" # 5. 运行 tests pytest tests/unit/ tests/contracts/ -v # fast (no network) pytest tests/performance/ -v -s # GIL verification ``` ## 系统依赖 ``` brew install cmake re2 pip install pybind11 ``` ## 架构 有关完整的产品规格说明,请参阅 `PRD.md`;有关开发指南,请参阅 `CLAUDE.md`。
标签:AI安全, AI风险评估, Bash脚本, C++, Chat Copilot, CI/CD安全, CISA项目, CMake, DevSecOps, Llama, LLM应用测试, PyBind11, Python, 上游代理, 严重性热力图, 回归测试, 大模型安全, 安全合规, 安全规则引擎, 对抗性攻击, 数据擦除, 无后门, 策略引擎, 网络代理, 网络安全挑战, 自动化攻击, 逆向工具