LLM
2024
- 04-30 NTK-Aware Interpolation
- 04-03 PEFT-LISA
- 03-30 大模型融合方法-DARE
- 03-18 GPT的实现细节
- 03-10 LLM长上下文外推方法
- 02-19 Flash-Attention
- 01-26 常见的LLM推理加速解决方案
- 01-24 模型量化入门
- 01-19 LLM微调过程中灾难性遗忘问题解决方法
- 01-11 Mixtral Moe代码解读
2023
- 12-18 DPO讲解
- 11-13 RLHF讲解
- 11-06 LLaMA2与LoRA结构详解
- 10-11 Self-Instruct
- 09-13 KV Cache
- 09-13 Multi Query Attention & Group Query Attention
- 09-04 旋转位置编码
- 07-18 PEFT
- 07-09 InstructGPT