低成本GPU上的大语言模型基准测试研究数据集

数据集概述

本数据集为论文《LLMs on Affordable GPUs: A Benchmarking Study》的配套数据,包含大语言模型在低成本GPU上的问答与计时原始数据、分析图表示例及所用源代码,支持相关研究的复现与扩展。

文件详解

  • 文件名称: rawData.tar
  • 文件格式: TAR (.tar)
  • 内容说明: 包含问答任务数据及计时数据的原始文件
  • 文件名称: scaling.pdf
  • 文件格式: PDF (.pdf)
  • 内容说明: 论文中使用的分析图表示例文件
  • 文件名称: FastChatFork.tar
  • 文件格式: TAR (.tar)
  • 内容说明: 研究使用的源代码文件,对应GitHub仓库(https://github.com/DaGeRe/FastChat)的0db66f3a8c0bb4b30fc194efe217890b6e7ab42e提交版本

适用场景

  • 大语言模型性能评估: 分析不同大语言模型在低成本GPU上的运行效率与问答能力
  • 硬件适配研究: 探索低成本GPU对大语言模型部署的支持潜力与优化方向
  • 论文复现: 复现《LLMs on Affordable GPUs: A Benchmarking Study》中的实验结果
  • 源代码参考: 参考FastChatFork的实现逻辑,开展相关大语言模型基准测试工作
packageimg

数据与资源

附加信息

字段
作者 Maxj
版本 1
数据集大小 94.43 MiB
最后更新 2025年12月5日
创建于 2025年12月5日
声明 当前数据集部分源数据来源于公开互联网,如果有侵权,请24小时联系删除(400-600-6816)。