哈喽,大家好👏
我是阿星!
现在很多AI科普文章都会提到微调,RAG。
但是没有实战的过的同学可能会问🤔——
啥时候用RAG?啥时候用微调呢?有啥区别?不都是让模型增加知识面的吗?
今天我们就对这个问题进行粗略归类——
关于微调
你可以简单理解为在预训练之后(预训练你可以简单理解成自监督学习,得到一堆参数但是还不会自己回答)
——进行的一些QA对训练,来教会模型组织语言,回答问题。
但是要注意微调是没有对知识样本做扩充的,扩充还是通过预训练完成的。
微调之后才是基于人类反馈的强化学习。
简单说就是预训练👉微调👉强化学习,微调是中间这个环节。
不同微调之间有啥区别?
1、继续预训练-CPT:来增加知识、能力。补充模型在特定领域的缺陷。
2、微调训练-SFT:给模型更多的QA对,来增强模型的依从性。常用于垂直大模型。这是现在最主要的方式。
3、偏好调优-DPO:用负反馈优化输出,让模型知道不能干啥,啥是错的。
但是没事也不用微调,不要听到别人说微调自己也想微调……有很多已经调好的,可以去百炼云上看😂我之前也写了一篇可以体验简版流程,实际比这个难n倍。零基础也能体验模型微调!魔塔+LLaMa Factory手把手教程
没有必要,千万别微调
优先级可以按照提示词大于RAG大于微调。
1、针对特定行业/领域,如果模型根本就不具备特定知识,你可以用继续预训练-CPT。只不过数据上很多是1500万字起步(下一篇推送会讲讲微调的数据质量要求有多可怕)
2、针对特定问题,微调训练-SFT可以用RAG、提示词、示例来做一些代替。因为SFT对数据质量要求要比RAG高,可以选择不那么折腾直接上RAG
3、至于偏好调优-DPO,你可以选择用提示词示例。因为错误答案本身就对数据的要求更多了。你要枚举多少回答来让模型记住啥是错的?
啥时候必须上微调
再好的提示词都有输出上的出入,如果是垂直指定的问题,你要求它回答的丁是丁卯是卯,那还是用微调最好。特别是金融和医疗。
1、比如在履职问题测评中,你需要对问题做严格分类,查询特定的数据库,也可能涉及到指定的关键词。说白了就是场景足够垂直。
2、高并发任务、对效率要求极高的场景,可以通过微调加速响应。
比如对即时主观题打分,就会需要快速响应来适应考试节奏等。
3、特别是端侧,很多服务都需要云端判断,对定向场景需要的就是速度和准确度,离不开微调。
下一期我们详细说说微调有多麻烦。我是阿星,我们下期再见。
更多AI笔记放到了星球上👇
100个实战AI工具
100个AI笔记
10 万字知识库文档
100个AI idea
4个配套社群……
等你来链接
购买后链接我的wechat👇🏻


往期文章:
一键榨干视频干货!这个开源神器让90%知识博主慌了
普通提示词vs工程级提示词,掌握这4点
超酷!苹果最新开源摄像头会看的AI,fastvlm视觉模型真机实测
n8n教程:5分钟部署+自动生AI日报并写入飞书多维表格