数据集概述
本数据集基于2014-2023年Dimensions数据库收录的2248部社会学专著摘要文本,通过ChatGPT-4o模型对摘要打分,并结合被引次数、Altmetrics数据和可读性指数开展实证分析,验证大语言模型评分与学术影响力指标的相关性,为学术专著文本分析提供新框架。
文件详解
- 数据文件(.xlsx格式,共8个)
- Principal Component Scores_Citation Count.xlsx:主成分得分与被引次数关联数据
- altmetric.xlsx:Altmetrics指标数据
- abstracts.xlsx:社会学专著摘要文本数据
- Altmetrics_Readability.xlsx:Altmetrics指标与可读性指数关联数据
- Readability_Principal Component Scores.xlsx:可读性指数与主成分得分关联数据
- Principal Component Scores.xlsx:主成分得分数据
- GPT scores.xlsx:ChatGPT-4o模型对专著摘要的打分数据
- Principal Component Scores_Altmetrics.xlsx:主成分得分与Altmetrics指标关联数据
- 代码文件(.py格式,共1个)
- GPT Scoring.py:用于实现ChatGPT-4o模型对专著摘要打分的代码文件
数据来源
Dimensions数据库2014-2023年收录的社会学专著摘要文本
适用场景
- 学术影响力评估:分析大语言模型评分与被引次数、Altmetrics等传统学术影响力指标的相关性
- 学术文本分析框架研究:验证基于大语言模型的学术专著文本分析新框架的有效性
- 社会学专著评价研究:结合可读性指数等指标,探究社会学专著文本特征与影响力的关联
- 大语言模型学术应用探索:评估ChatGPT-4o等大语言模型在学术评价领域的应用潜力