saransh-3287/ART-Framework-based-Evasion-Attacks-

GitHub: saransh-3287/ART-Framework-based-Evasion-Attacks-

基于 IBM ART 框架实现多种对抗性逃逸攻击,系统性评估 MNIST 和 CIFAR-10 上不同神经网络架构的脆弱性。

Stars: 0 | Forks: 0

# 使用 ART 对图像分类模型进行逃逸攻击 ## 项目概述 本项目实现并评估了针对以下图像分类模型训练的多种对抗性逃逸攻击: - MNIST(灰度数字分类) - CIFAR-10(自然物体分类) 这些攻击是使用 **Adversarial Robustness Toolbox (ART)** 实现的。 目的是研究不同神经网络架构在对抗性扰动下的脆弱性。 ## 评估的模型 训练并攻击了以下模型: 1. **2 层全连接网络 (MLP)** 2. **6 层卷积神经网络 (ConvNet)** 3. **预训练 VGG-19(在 CIFAR-10 上微调)** 所有模型均使用 PyTorch 实现,并使用 ART 的 `PyTorchClassifier` 进行封装。 ## 实现的逃逸攻击 评估了以下攻击方法: ### 1. 随机噪声攻击 - 添加均匀随机扰动 - 在 [0.001, 0.1] 范围内的 5 个随机 epsilon 值 ### 2. FGSM (Fast Gradient Sign Method) - ℓ∞ 有界攻击 - 单步基于梯度的扰动 ### 3. PGD (Projected Gradient Descent) – ℓ∞ - 迭代梯度攻击 - 在 [0.001, 0.1] 范围内的 5 个随机 epsilon 和 alpha 值 ### 4. 目标 PGD (ℓ∞) - 强制预测结果指向选定的错误类别 ### 5. PGD (ℓ2) - ℓ2 范数有界迭代攻击 ## 实验设置 - 评估数据集大小:每次实验 500 个测试样本 - Epsilon 范围:[0.001, 0.1] - Alpha 范围:[0.001, 0.1] - PGD 迭代次数:40
标签:Adversarial Robustness Toolbox, ART, CIFAR-10, ConvNet, FGSM, MLP, MNIST, PGD, PyTorch, VGG-19, 人工智能安全, 凭据扫描, 合规性, 图像分类, 密钥泄露防护, 对抗攻击, 对抗样本, 扰动, 敏感信息检测, 机器学习安全, 深度学习, 网络安全实验, 计算机视觉, 逃逸攻击, 逆向工具, 配置错误, 鲁棒性评估