大语言模型产品设计评估中的光环效应悖论与逆转数据集

数据集概述

本数据集围绕大语言模型(如GPT-4o)在产品设计评估中的一致性与潜在偏见展开,对比模型在不同提示条件下与人类专家评分的差异,分析光环效应的出现及抑制方法,为智能评估优化提供数据支持。

文件详解

  • 文件名称: Beyond Human Bias The Halo Effect Paradox and Reve/data (2).xls
  • 文件格式: Excel (.xls)
  • 内容说明: 包含基于设计竞赛提交作品的实验数据,记录GPT-4o在三种提示条件(结构化框架、加背景信息、加抑制指令)下的评分结果,以及与人类专家评分的一致性对比数据。

适用场景

  • 人工智能评估研究: 分析大语言模型在设计评估任务中的认知偏见及干预效果
  • 产品设计智能工具开发: 优化LLM在设计评分场景中的提示词策略
  • 人机协同评估研究: 探索人机评分一致性的影响因素及提升方法
  • 认知心理学与AI交叉研究: 验证AI模型是否存在类人类光环效应等认知偏差
packageimg

数据与资源

附加信息

字段
作者 Maxj
版本 1
数据集大小 0.01 MiB
最后更新 2025年11月27日
创建于 2025年11月27日
声明 当前数据集部分源数据来源于公开互联网,如果有侵权,请24小时联系删除(400-600-6816)。