Aura-God/ShadowNet-AI-Adversarial-Platform

GitHub: Aura-God/ShadowNet-AI-Adversarial-Platform

一个专注于对抗性机器学习攻击与防御的教育研究平台,集成了多种经典算法以评估模型鲁棒性和隐私风险。

Stars: 0 | Forks: 0

# ShadowNet — 对抗性机器学习研究平台 用于评估模型鲁棒性和理解隐私风险的对抗性机器学习技术的教育实现。 目标是在 MNIST 和 CIFAR-10 上训练的演示分类器。 ## 包含内容 | 模块 | 技术 | 参考 | |--------|-----------|-----------| | `attacks/adversarial_examples.py` | FGSM, PGD, C&W | Goodfellow 2014, Madry 2017, Carlini 2016 | | `attacks/membership_inference.py` | 基于置信度阈值的成员推断 | Shokri et al. 2017 | | `attacks/model_extraction.py` | 替代模型训练 | Tramèr et al. 2016 | | `attacks/model_inversion.py` | 基于梯度的原型重建 | Fredrikson et al. 2015 | ## 安装 ``` pip install -r requirements.txt ``` 需要 Python 3.11+ 和 PyTorch。MNIST (~11 MB) 会在首次运行时自动下载。 ## 使用方法 ### CLI ``` python shadownet.py fgsm # FGSM evasion attack on MNIST CNN python shadownet.py pgd # PGD attack python shadownet.py cw # Carlini & Wagner attack python shadownet.py membership # Membership inference evaluation python shadownet.py extract # Model extraction demo python shadownet.py inversion 3 # Model inversion for class 3 python shadownet.py all # Run all demos ``` ### Web 仪表板 ``` cd web && python app.py # 打开 http://localhost:5001 ``` 交互式攻击运行器,提供原始图像与对抗图像的像素级可视化。 ## 范围与伦理 所有攻击的目标都是在公共数据集上训练的本地演示模型。 未经所有者明确书面许可,请勿针对第三方模型或服务运行这些技术——这将违反服务条款,并可能触犯适用法律。 研究这些技术是为了构建防御措施: - 对抗训练(防御 FGSM/PGD) - 差分隐私(防御成员推断) - 查询速率限制和输出扰动(防御模型提取) ## 参考文献 - Goodfellow et al., [Explaining and Harnessing Adversarial Examples](https://arxiv.org/abs/1412.6572) (2014) - Madry et al., [Towards Deep Learning Models Resistant to Adversarial Attacks](https://arxiv.org/abs/1706.06083) (2017) - Carlini & Wagner, [Evaluating the Robustness of Neural Networks](https://arxiv.org/abs/1608.04644) (2016) - Shokri et al., [Membership Inference Attacks Against ML Models](https://arxiv.org/abs/1610.05820) (2017) - Tramèr et al., [Stealing Machine Learning Models](https://arxiv.org/abs/1609.02943) (2016) - Fredrikson et al., [Model Inversion Attacks](https://dl.acm.org/doi/10.1145/2810103.2813677) (2015)
标签:CIFAR-10, C&W攻击, FGSM, Kubernetes 安全, MNIST, PGD, PyTorch, Web可视化, 人工智能安全, 凭据扫描, 合规性, 对抗样本, 差分隐私, 成员推理, 教育平台, 机器学习攻击, 模型窃取, 模型逆向, 模型防御, 模型鲁棒性, 计算机视觉, 逆向工具, 隐私风险