Microsoft于2021年推出的LoRA是一种经济型微调模型参数的方法,如今大模型的参数规模动不动都在10亿级别以上,微调大模型,微调这里代表着SFT,例如读者将某个大模型拿到自身畛域,想经常使用...