主讲人 汪周谦 XTuner社区贡献者
收获:本节课学习了使用XTuner自己进行微调,并在InternStudio平台实现了demo,并体验。
增量预训练和指令微调是两种微调方式,
增量预训练:
使用场景:让模型学会对话这种形式的模板,根据人类指令进行对话
训练数据:高质量的对话,问答数据
增量预训练实例:
训练LLM时,没有问答形式存在,而是为了让模型学会回答一个陈述句,因此相比指令跟随微调,增量预训练的对话模板中,system和user部分留空,只保留assistant,只计算assistant部分的损失。