点击上方“Deephub Imba”,关注公众号,好文章不错过 !LLaMA、Mistral、Qwen这些大语言模型动辄数十亿参数,在自定义数据上全量微调代价极高:65B 模型光是 float16 就要消耗掉约 130GB ...