巴西股市IBOVESPA推文情感分析数据集-jvbeltra
数据来源:互联网公开数据
标签:情感分析, 推特, IBOVESPA, GPT-3.5, FinBERT-PT-BR, 自然语言处理, 巴西股市, 金融科技, 机器学习, 文本分析
数据概述:
本数据集旨在用于研究大型语言模型(LLMs)在分析巴西股市(IBOVESPA)推文情感方面的效能。该数据集包含从Twitter上抓取的关于IBOVESPA的推文,并附带了由GPT-3.5和FinBERT-PT-BR两个模型自动进行的情感分类结果。数据集的建立是为了比较这两个模型在情感分类上的表现。
数据集包含以下字段:
文本:推文的原始内容。
真实情感:手动标注的情感分类,分为正面、中性和负面三种。
GPT-3.5情感:GPT-3.5模型对推文进行的情感分类结果。
FinBERT-PT-BR情感:FinBERT-PT-BR模型对推文进行的情感分类结果。
数据用途概述:
该数据集主要用于评估和比较不同LLMs在葡萄牙语金融文本情感分析上的表现。研究人员可以使用此数据集进行模型训练、性能对比、误差分析等。具体应用场景包括:
评估GPT-3.5和FinBERT-PT-BR在识别推文情感方面的准确性。
研究不同模型在处理金融领域特定语言时的优劣。
为开发更准确的情感分析模型提供数据支持。
促进对社交媒体上股票市场情绪的理解,为投资决策提供参考。
性能评估摘要:
GPT-3.5在情感分类上的表现优于FinBERT-PT-BR。GPT-3.5的准确率达到0.867,而FinBERT-PT-BR的准确率为0.702,表明GPT-3.5在正确分类情感方面更胜一筹,且更不容易出现误报。GPT-3.5的召回率为0.864,高于FinBERT-PT-BR的0.644,说明GPT-3.5能更有效地捕捉到所有情感类别的推文,减少漏报。在F1-score方面,GPT-3.5的宏平均F1值为0.850,加权F1值为0.863,显示出其在精确度和召回率之间的良好平衡。而FinBERT-PT-BR的F1值相对较低,宏平均F1值为0.629,加权F1值为0.652,表明其性能相对较弱。