简单说来,如果把显存比作一个加油站,那么:
- 显存大小就是加油机
- 显存位宽就是进出加油站路的宽度,路越宽,能进出加油站的车辆就越多
- 显存频率相当于汽车进出加油站的速度,速度越快,汽车进出就越快
简单说来,如果把显存比作一个加油站,那么:
转化数据延迟久,但实时反馈至关重要涉及到模型预估准度,进而影响客户成本。
Argmax是不可求导的,Gumbel Softmax允许模型能从网络层的离散分布(比如类别分布categorical distribution)中稀疏采样的这个过程变得可微,从而允许反向传播时可以用梯度更新模型参数。
LISA是LoRA的简化版,但其抓住了LoRA微调的核心,即LoRA侧重更新LLM的底层embedding和顶层head。
常见的多标签分类方法是同时生成多个标签的logits,然后接一个sigmoid激活函数做二分类。该方法简单直接,但忽略了标签之间的相关性。虽然业界针对该问题提出了很多解决思路,但大多是任务特定,通用性不强,也不够优雅。
关于GPT的代码细节,这里梳理了一下:
现在的LLM都集中在卷上下文长度了,最新的Claude3已经支持200K的上下文,见:cost-context。下面是一些提升LLM长度外推能力的方法总结:
YOLO是最经典的一阶目标检测框架,记录一下v1思路。