LISA是LoRA的简化版,但其抓住了LoRA微调的核心,即LoRA侧重更新LLM的底层embedding和顶层head。
根据上述现象,LISA提出两点改进:
毕竟模型参数大头还是在底层embedding,所以显存占用并没有减少太多。
在MT-BENCH上,LISA超过了LoRA,甚至全量参数微调。