笔者报名了Datawhale 2025 AI冬令营, 并担任学习群4的运营助教.这篇笔记主要记录我通过讯飞星辰平台,快速体验大模型微调,拥有一个属于自己的AI嬛嬛,AI法律助手,AI小说作家和个人独家定制的AI助手.
定制专属大模型的必要性
许多体验过通用大模型的用户都意识到,在处理一些特定或定制化的任务时,这些模型可能缺乏足够的专业性和精确度,尤其是在模拟特定角色的语言风格、情感和行为方面。例如,它们在模仿特定人物的语气和行为时,往往难以达到预期的精准度。
面对这样的挑战,定制化的大模型受到了越来越多的关注。我们希望通过提供专门的语料来训练大模型(开源大模型,如LLama, qwen),使其在特定的专业领域或定制化任务中能够展现出更高的性能。
定制一个AI 嬛嬛
基于《甄嬛传》剧本中的甄嬛台词 ,打造一个模仿甄嬛语气、风格的专属聊天模型—— Chat-嬛嬛 。 我们选择讯飞星辰Maas作为大模型训练和微调的平台.该平台集合了多种开源大模型,同时支持自主构建以及上传数据集.可以实现零代码完成大模型微调以及训练过程.目前 讯飞星辰Maas平台 可免费定制大模型!
Step1:注册讯飞星辰Maas(点击打开官网)
Step2:下载 嬛嬛数据集
常见的微调数据集需要符合 Alpaca格式 ,以我使用的嬛嬛数据集为例,其样本如下:
{
"instruction": "小姐,别的秀女都在求中选,唯有咱们小姐想被撂牌子,菩萨一定记得真真儿的——",
"input": "",
"output": "嘘——都说许愿说破是不灵的。"
}
字段说明 :
instruction:任务的指令,模型需要完成的具体操作,一般可以对应到用户输入的 Prompt 。input:任务所需的输入内容。若任务是开放式的,或者不需要明确输入,可以为空字符串。output:在给定指令和输入的情况下,模型需要生成的期望输出,也就是对应的正确结果或参考答案。
特点与应用 : Alpaca格式结构简单清晰,易于理解和处理。它明确地将任务指令和输入内容分离开来,能够很好地适用于各种自然语言处理任务,像文本生成、翻译、总结等任务,尤其适合单轮的、以任务为导向的指令微调任务.
上传数据集,微调与训练
1. 点击【创建模型】
2. 配置基础信息, **注意不要选错模型!!!!**
3. 点击【创建数据集】
4. 配置数据集信息
5. 导入我们的嬛嬛数据集!
6. 提交任务!
看到这张图,就妥了!
平台同时需要执行的任务过多,需要排队,因此提交任务需要等待一定大的时间才能训练成功.当训练成功时,最后一张图的状态栏会改变.
体验AI嬛嬛!
1. 看到这个✅就说明任务已完成!AI嬛嬛已ready!
2. 然后,发布服务!
3. 点击【体验】
4. 选择之前的模型
5. 然后就可以开始对比了!
我的AI嬛嬛
我是在Qwen_v2.5_7b_Instruct大模型上进行微调和训练任务,微调方式是LORA, 体验的结果如下图所示:
可以看到AI嬛嬛确实"懂"甄嬛传,没有微调的模型给出的回答和甄嬛传一点也没关系,可能要复杂的提示才能让它输出相关的信息.
我的AI小说作家
我同样用Qwen_v2.5_7b_Instruct微调出了一个简单的AI小说作家,具体流程和AI嬛嬛的构建相似,但是需要更换数据集.使用的数据集:www.datawhale.cn/activity/11… 中的novel_train.jsonl.
数据预览如下图所示:
体验的结果如下图所示:
可以看出微调后的模型产出一定的新颖情节,助力创作者快速撰写章节。
我的AI法律助手
同理,可以通过更换新的数据集在Qwen_v2.5_7b_Instruct上微调新的大模型.针对AI法律助手,使用的数据集是github.com/AndrewZhe/l…
数据预览如下图所示:
体验的结果如下图所示:
可以看出微调后的大模型对法律知识更加熟悉.
我的AI助手
在AI助手的构建中,我选择Llama3_Chinese_8b_Instruct作为用于微调的大模型,数据集是平台自带的:
数据预览如下:
体验结果:
可以看出微调后的大模型给出的回答更加合理.
感悟与体会
以往要进行大模型的微调任务,需要大量的算力以及代码作为支撑,现在讯飞推出的这一平台无疑是解决了困扰许多大模型初学者的问题.学习者可以实现自主选择开源大模型和数据集并进行零代码微调.模型可以快速的部署.这对于未来在微调模型的基础上进行应用开发至关重要.
文章中涉及的大模型微调是非常简单的,如果深入测试,会发现这些微调后的模型的性能并不一定能让人满意.所以想要构建真正强悍的专属大模型,还需要在数据集构建,超参数设置以及prompt等方面下功夫.