AIGC-大模型微调-LLama2-Lora医学大模型微调【风格学习】
大模型预训练成本高昂,需要庞大的计算资源和大量的数据资源,一般个人和企业难以承受。为解决这一问题,谷歌率先提出Parameter-Efficient Fine-Tuning (PEFT)技术,旨在通过最小化微调参数的数量和计算复杂度,来提高预训练模型在新任务上的性能,从而缓解大型预训练模型的训练成本。这样一来,即使计算资源受限,也可以利用预训练模型的知识来迅速适应新任务,实现高效的迁移学习。其中Lora微调为常用的PEFT技术。