Paper
Lora
事实上, LoRA
是将一个大的矩阵, 拆分成两个小的矩阵. 通过对小的矩阵进行训练, 来完成对原始矩阵的微调(fine-tune).
训练之后, 推理的时候经过两个小的矩阵得到的输出和经过原始的输出加和, 得到fine-tune之后的矩阵.
在LLM里面, LoRA可以给Transformer的Q,K,V甚至其他的矩阵添加low-rank decomposition, 进行fine-tune.
Paper
事实上, LoRA
是将一个大的矩阵, 拆分成两个小的矩阵. 通过对小的矩阵进行训练, 来完成对原始矩阵的微调(fine-tune).
训练之后, 推理的时候经过两个小的矩阵得到的输出和经过原始的输出加和, 得到fine-tune之后的矩阵.
在LLM里面, LoRA可以给Transformer的Q,K,V甚至其他的矩阵添加low-rank decomposition, 进行fine-tune.