AI代码生成器隐秘数据投毒攻击检测_PoisonPy扩展数据集

数据集概述

该数据集是论文《Detecting Stealthy Data Poisoning Attacks in AI Code Generators》的配套数据,已被2025年第三届IEEE软件工程可靠与安全人工智能研讨会(ReSAISE 2025)接收。数据集通过扩展公开的PoisonPy数据集开发,聚焦AI代码生成器中的隐秘数据投毒攻击检测研究。

文件详解

  • 文件名称: PoisonPy_Extended.zip
  • 文件格式: ZIP压缩包
  • 内容说明: 该压缩包包含扩展后的PoisonPy数据集,具体内部文件结构及字段信息需解压后查看,当前无README或内容预览可提供。

适用场景

  • AI安全研究: 分析AI代码生成器中隐秘数据投毒攻击的检测方法与防御策略
  • 软件工程安全: 探究软件供应链中AI模型训练数据的污染风险与防护机制
  • 学术研究验证: 复现或扩展论文提出的投毒攻击检测算法性能测试
  • 可信AI技术开发: 支撑针对代码生成类大语言模型的数据安全加固技术研究
packageimg

数据与资源

附加信息

字段
作者 Maxj
版本 1
数据集大小 0.13 MiB
最后更新 2025年12月10日
创建于 2025年12月10日
声明 当前数据集部分源数据来源于公开互联网,如果有侵权,请24小时联系删除(400-600-6816)。