提示注入后缀攻击数据集-arielzilber
数据来源:互联网公开数据
标签:提示注入,安全测试,机器学习,攻击方法,GCG方法,对抗样本,良性提示,重述方法
数据概述:
本数据集收录了通过GCG方法生成的提示注入后缀攻击样本,旨在用于机器学习模型的安全性评估。数据集包含从多个来源收集的对抗性提示,以及利用不同重述方法生成的对抗性提示样本。此外,还提供了良性提示样本,供对照使用。数据集适用于研究提示注入攻击的机制、评估机器学习模型的安全性以及开发防御措施。
数据用途概述:
该数据集适用于机器学习安全研究、模型鲁棒性评估、攻击检测方法开发及教育培训等场景。研究人员可以利用此数据集进行攻击行为模拟,评估机器学习系统的安全性;安全工程师可以使用数据集测试和改进防御机制;教育者可以利用数据集进行机器学习安全教育。数据集为相关领域的研究和实践提供了宝贵的数据资源。
参考项目:
- 项目使用的数据集:https://github.com/ariel-zilber/prompt-security
- 各种来源发现的对抗性提示集合:https://www.kaggle.com/datasets/arielzilber/prompt-injection-in-the-wild
- GCG方法生成的对抗性提示集合:https://www.kaggle.com/datasets/arielzilber/prompt-injection-suffix-attack
- 良性提示集合:https://www.kaggle.com/datasets/arielzilber/prompt-injection-benign-evaluation-framework
- 不同重述方法生成的对抗性提示集合:https://www.kaggle.com/datasets/arielzilber/rephrase-prompt/data