对抗样本攻击下深度学习模型性能评估数据集_Deep_Learning_Model_Performance_Evaluation_under_Adversarial_Attack
数据来源:互联网公开数据
标签:深度学习, 对抗攻击, 模型评估, 计算机视觉, 神经网络, 图像识别, 鲁棒性, 实验记录
数据概述:
该数据集包含对深度学习模型在对抗样本攻击下的性能评估结果,记录了在CIFAR-10数据集上,使用Input Aware ViT-B/16模型进行实验的详细数据。主要特征如下:
时间跨度:数据未明确标明时间,但从epoch字段推断,数据记录了模型训练过程中的性能变化。
地理范围:实验基于CIFAR-10数据集,该数据集涵盖图像识别领域,为全球范围内通用的数据集。
数据维度:数据集包括多个关键指标,如训练损失、训练准确率(包括干净样本和对抗样本)、攻击成功率(ASR)、鲁棒性准确率(RA)等,以及测试集上的相应指标。
数据格式:数据以CSV格式存储,包括attack_df.csv和attack_df_summary.csv两个文件,便于数据分析和可视化。
来源信息:数据集来源于BackdoorBench项目,用于评估深度学习模型在对抗攻击下的表现。
该数据集适合用于深度学习模型对抗鲁棒性研究和模型性能评估。
数据用途概述:
该数据集具有广泛的应用潜力,特别适用于以下场景:
研究与分析:适用于深度学习、计算机视觉和对抗攻击领域的学术研究,如探索不同攻击方式对模型性能的影响、分析模型的鲁棒性表现等。
行业应用:为安全领域提供数据支持,尤其适用于开发更具抗攻击能力的图像识别系统。
决策支持:支持模型设计和优化,帮助研究人员和工程师改进模型,提升其在对抗环境下的表现。
教育和培训:作为深度学习、对抗攻击等相关课程的实训素材,帮助学生和研究人员深入理解模型在对抗攻击下的行为,并学习评估方法。
此数据集特别适合用于评估和比较不同模型在对抗攻击下的表现,以及分析对抗攻击对模型性能的影响,从而帮助用户设计更安全、更可靠的深度学习模型。