LLM
2024
- 08-06 Mixtral MoE代码解读
- 06-12 LLM Inference Performance Engineering
- 06-02 LLaMA2详解
- 05-12 Attention Sink
- 05-12 RAG
- 05-12 从loss角度理解LLM涌现能力
- 05-09 SwiGLU激活函数
- 05-05 FP16与BF16区别
- 04-30 NTK-Aware Interpolation
- 04-03 PEFT-LISA
- 03-30 大模型融合方法-DARE
- 03-18 GPT的实现细节
- 03-10 LLM长上下文外推方法
- 02-19 Flash-Attention
- 01-26 常见的LLM推理加速解决方案
- 01-24 模型量化入门
- 01-19 LLM微调过程中灾难性遗忘问题解决方法
2023
- 12-18 DPO讲解
- 11-13 RLHF讲解
- 11-06 LLaMA2与LoRA结构详解