-
LLM提示恢复数据集800个提示
LLM提示恢复数据集800个提示 数据来源:互联网公开数据 标签:LLM,提示恢复,自然语言处理,机器学习,竞赛数据,文本生成,人工智能 数据概述: 本数据集为LLM提示恢复竞赛而创建,包含了800个精心设计的语言模型提示。这些提示涵盖了多种应用场景和主题,旨在用于评估和改进语言模型的提示恢复能力。数据集中的每个提示都经过仔细设计,确保多样性和代表性。...
-
LLM科学考试GPT-3-5模型生成答案数据集
LLM科学考试GPT-3-5模型生成答案数据集 数据来源:互联网公开数据 标签:LLM,科学考试,GPT-3.5,自然语言处理,考试数据,人工智能,模型输出,文本生成 数据概述: 本数据集包含了GPT-3.5...
-
自动医学诊断系统使用临床笔记数据集
自动医学诊断系统使用临床笔记数据集 数据来源:互联网公开数据 标签:自动诊断,医学诊断,临床笔记,自然语言处理,机器学习,LLM,合成数据,医疗决策支持 数据概述:...
-
航天工程与空间任务对话数据集AstroChat
航天工程与空间任务对话数据集AstroChat 数据来源:互联网公开数据 标签:航天工程,空间任务,对话,LLM,自然语言处理,人工智能,数据集,监督学习,GPT-4,对话生成 数据概述: AstroChat 是一个合成生成的数据集,包含 901 个对话,专门为航天工程和空间任务工程领域设计。该数据集旨在用于监督微调聊天大型语言模型...
-
KaggleLLM提示词重写竞赛补充数据集-Claude模型生成
KaggleLLM提示词重写竞赛补充数据集-Claude模型生成 数据来源:互联网公开数据 标签:LLM, 提示词, 重写, 竞赛, Claude, 自然语言处理, Kaggle, 数据集, 模型训练 数据概述:...
-
LLM提示恢复与写作风格分析数据集
LLM提示恢复与写作风格分析数据集 数据来源:互联网公开数据 标签:LLM,提示恢复,写作风格,自然语言处理,文本重写,竞赛数据,数据增强 数据概述:...
-
-
LLM科学考试竞赛数据集-SciQ数据集
LLM科学考试竞赛数据集-SciQ数据集 数据来源:互联网公开数据 标签:科学,考试,LLM,自然语言处理,人工智能,竞赛,问答,教育,机器学习 数据概述: 本数据集是Allen...
-
科学知识图谱大语言模型构建数据集
科学知识图谱大语言模型构建数据集 数据来源:互联网公开数据 标签:科学知识图谱,大语言模型,KG,LLM,数据集,关系提取,实体识别,文本处理 数据概述:...
-
客户支持训练数据集用于LLM虚拟助手
客户支持训练数据集用于LLM虚拟助手 数据来源:互联网公开数据 标签:客户支持,LLM,虚拟助手,意图识别,实体提取,问答对,语言生成,训练数据,NLP应用 数据概述:...
-
-
-
LLM20问题解决方案关键词频率数据集
LLM20问题解决方案关键词频率数据集 数据来源:互联网公开数据 标签:LLM,20问题解决方案,关键词频率,自然语言处理,机器学习,数据分析 数据概述: 本数据集包含用于解决LLM(大语言模型)20个问题的过滤后关键词列表及其出现频率。数据涵盖了与20个问题相关的常用关键词及其在解决方案中的使用频率,为研究和开发提供了宝贵的语言模型训练资源。...
-
LLM说服性生成文章数据集
LLM说服性生成文章数据集 数据来源:互联网公开数据 标签:LLM,生成文章,GPT-4,Bard,Llama-2-7B,Mixtral,文本生成,人工智能,写作风格分析 数据概述:...
-
LLM提示恢复合成数据集
LLM提示恢复合成数据集 数据来源:互联网公开数据 标签:LLM,提示恢复,合成数据,自然语言处理,人工智能,机器学习,数据竞赛 数据概述: 本数据集使用Gemma 7B-IT生成了1000个示例,用于LLM提示恢复竞赛。数据集基于@thedrcat的原始数据集进行扩展,包含两个额外的列:一是Gemma 7B-IT生成的原始输出,二是去除“Sure…...
-
使用 peft 和 lora 进行 LLM 微调的合成数据
该数据集包含对话摘要、主题和对话,用于使用参数有效微调和大型语言模型的低秩自适应创建对 LLM 模型进行微调的管道,这是一种流行且轻量级的训练技术,可显着减少可训练参数的数量。 该数据集也可在 hugging face 中使用。https://huggingface.co/datasets/knkarthick/dialogsum
-
用于 LLM 微调的土耳其农业数据集
该数据集旨在微调 T3 AI 土耳其语 LLM。它由 Barathan Aslan、Ömer Faruk Çelik 和 Batuhan Kalem 为 T3 AI Hackathon 创建。该数据集专注于土耳其农业。



