SFT
分类: 训练优化
SFT
定义
SFT(Supervised Fine-Tuning)是 LLM 后训练的关键阶段,使用高质量的指令-回复对以监督学习方式微调预训练模型,使其能够遵循指令并生成有用的回复
核心要点
在 LLM 训练流程中的位置:预训练 → SFT → RLHF/DPO(对齐)
数据格式通常为 (instruction, input, output) 三元组或多轮对话
数据质量 > 数据数量:少量高质量数据的效果优于大量低质量数据(LIMA 等工作已证明)
常与 LoRA 等参数高效方法结合,降低微调成本
关键超参数:学习率(通常比预训练低 1-2 个数量级)、epoch 数(通常 1-5)
代表工作
InstructGPT (OpenAI): SFT + RLHF 的经典流程
LIMA: 证明 1000 条高质量数据的 SFT 就能获得优秀效果
Alpaca: Stanford 基于 self-instruct 的 SFT 实践
相关概念
LoRA — 参数高效的 SFT 方法
知识蒸馏 — SFT 数据可来自强模型蒸馏