不安全扩散文本到图像模型生成风险数据集

数据集概述

该数据集用于研究文本到图像模型生成不安全图像和仇恨表情包的风险,包含四组提示词集和一组图像集。提示词集分为三类有害提示词(来自4chan、Lexica、模板)和一类无害提示词(COCO),图像集含800张随机生成图像,涵盖安全、色情、暴力等多类内容,为模型安全评估提供数据支持。

文件详解

  • 文件名称: Unsafe Prompts&Images Dataset.zip
  • 文件格式: ZIP
  • 内容说明: 压缩包内包含四组提示词集和一组图像集。提示词集含三类有害提示词(4chan Prompts、Lexica Prompts、Template Prompts)和一类无害提示词(COCO Prompts);图像集含800张图像,分类为安全(580张)、色情(48张)、暴力(45张)、令人不安(68张)、仇恨(35张)、政治(50张)。

适用场景

  • 人工智能安全研究: 评估文本到图像模型生成不安全内容的风险与机制
  • 内容审核技术开发: 训练和测试有害图像检测算法
  • 模型伦理研究: 分析不同提示词对生成内容安全性的影响
  • 风险评估应用: 为文本到图像模型的安全防护策略提供实证数据支持
packageimg

数据与资源

附加信息

字段
作者 Maxj
版本 1
数据集大小 200.48 MiB
最后更新 2025年12月9日
创建于 2025年12月9日
声明 当前数据集部分源数据来源于公开互联网,如果有侵权,请24小时联系删除(400-600-6816)。