在因特网上建设网站可选择的方案有,wap企业网站模板,网站源码 酷,wordpress 审核文章简介
在深度学习中#xff0c;经常会使用EMA#xff08;指数移动平均#xff09;这个方法对模型的参数做平均#xff0c;以求提高测试指标并增加模型鲁棒。
指数移动平均#xff08;Exponential Moving Average#xff09;也叫权重移动平均#xff08;Weighted Moving…简介
在深度学习中经常会使用EMA指数移动平均这个方法对模型的参数做平均以求提高测试指标并增加模型鲁棒。
指数移动平均Exponential Moving Average也叫权重移动平均Weighted Moving Average是一种给予近期数据更高权重的平均方法。
例子
假设有”温度-天数“的数据 θt\theta_tθt在第 t 天的温度 vtv_tvt在第 t 天的移动平均数 β\betaβ 权重参数
v00v10.9v00.1θ1v20.9v10.1θ2⋯vt0.9vt−10.1θt\begin{aligned} v_0 0 \\ v_1 0.9v_0 0.1 \theta_1 \\ v_2 0.9v_1 0.1 \theta_2\\ \cdots\\ v_t 0.9v_{t-1} 0.1\theta_t\\ \end{aligned} v0v1v2vt00.9v00.1θ10.9v10.1θ2⋯0.9vt−10.1θt 红线即是蓝色数据点的指数移动平均
VtV_tVt 和 β\betaβ 的关系
vtv_tvt 大概表示前 11−β\frac{1}{1-\beta}1−β1 天的平均数据以第 t 天做参考
β0.9\beta 0.9β0.911−β≈10\frac{1}{1-\beta}\approx101−β1≈10vtv_tvt 大概表示前10天的平均数据红线β0.98\beta 0.98β0.9811−β≈50\frac{1}{1-\beta}\approx501−β1≈50vtv_tvt 大概表示前50天的平均数据绿线β0.5\beta 0.5β0.511−β≈2\frac{1}{1-\beta}\approx21−β1≈2vtv_tvt 大概表示前2天的平均数据黄线那么β\betaβ 越大表示考虑的时间阔度越大
理解vtv_tvt
vtβ⋅vt−1(1−β)⋅θt\begin{aligned} v_t \beta \cdot v_{t-1} (1-\beta) \cdot \theta_t \end{aligned} vtβ⋅vt−1(1−β)⋅θt
当 β0.9\beta 0.9β0.9从v100v_{100}v100往回写
v1000.9v990.1θ100v990.9v980.1θ99⋯v10.9v00.1θ1v00\begin{aligned} v_{100} 0.9v_{99} 0.1\theta_{100}\\ v_{99} 0.9v_{98} 0.1\theta_{99}\\ \cdots \\ v_1 0.9v_0 0.1 \theta_1 \\ v_0 0 \\ \end{aligned} v100v99v1v00.9v990.1θ1000.9v980.1θ99⋯0.9v00.1θ10
迭代该过程可知
$v_{100} 是 θ100θ99θ98⋯\theta_{100}\ \theta_{99}\ \theta_{98}\ \cdotsθ100 θ99 θ98 ⋯ 的加权求和θ\thetaθ 前的系数相加为 1 或逼近 1
当某项系数小于峰值系数 (−的 1e\frac{1}{e}e1 时可以忽略它的影响
(0.9)10≃0.34≃1e(0.9)^10 \simeq 0.34 \simeq \frac{1}{e}(0.9)10≃0.34≃e1 所以当β0.9时相当于前10天的加权平均。
(0.98)50≃0.36≃1e(0.98)^50 \simeq 0.36 \simeq \frac{1}{e}(0.98)50≃0.36≃e1 所以当β0.98时相当于前50天的加权平均。
(0.5)2≃0.25≃1e(0.5)^2 \simeq 0.25 \simeq \frac{1}{e}(0.5)2≃0.25≃e1 所以当β0.5时相当于前2天的加权平均。
带入深度学习模型
vtβ⋅vt−1(1−β)⋅θtv_t \beta \cdot v_{t-1} (1-\beta) \cdot \theta_tvtβ⋅vt−1(1−β)⋅θt θt\theta_tθt在第 t 次更新得到的所有参数权重 vtv_tvt第 t 次更新的所有参数移动平均数 β\betaβ权重参数
EMA内在
对于更新 t 次时普通的参数权重 θt\theta_tθt (gtg_tgt 是第 t 次传播得到的梯度)
θtθt−1−gt−1θt−2−gt−1−gt−2⋯θ1−∑i1t−1gi\begin{aligned} \theta_t \theta_{t-1} - g_{t-1}\\ \theta_{t-2} - g_{t-1} - g_{t-2}\\ \cdots\\ \theta_1 - \sum^{t-1}_{i1} g_i\\ \end{aligned} θtθt−1−gt−1θt−2−gt−1−gt−2⋯θ1−i1∑t−1gi
对于更新 t 次时使用EMA的参数权重 vtv_tvt
θtθ1−∑i1t−1givtθ1−∑i1t−1(1−βt−i)gi\begin{aligned} \theta_t \theta_1 - \sum^{t-1}_{i1}g_i\\ v_t \theta_1 - \sum^{t-1}_{i1}(1-\beta^{t-i})g_i \end{aligned} θtvtθ1−i1∑t−1giθ1−i1∑t−1(1−βt−i)gi
推理如下将 θn\theta_nθn 带入 vnv_nvn 表达式并且令 v0θ1v_0 \theta_1v0θ1:
vnβtv0(1−β)(θtβθt−1β2θt−2⋯βn−1θ1)βtv0(1−β)(θ1−∑i1t−1giβ(θ1−∑i1t−2gi)⋯βt−2(θ1−∑i11gi)βt−1θ1)βtv0(1−βt)θ1−∑i1n−1(1−βt−i)giθ1−∑i1t−1(1−βt−i)gi\begin{aligned} v_n \beta^t v_0 (1-\beta)(\theta_t \beta\theta_{t-1}\beta^2\theta_{t-2}\cdots\beta^{n-1}\theta_1) \\ \beta^tv_0 (1-\beta)(\theta_1 - \sum^{t-1}_{i1}g_i\beta(\theta_1 - \sum^{t-2}_{i1}g_i)\cdots\beta^{t-2}(\theta_1 - \sum^{1}_{i1}g_i)\beta^{t-1}\theta_1)\\ \beta^tv_0 (1-\beta^t)\theta_1 - \sum^{n-1}_{i1}(1-\beta^{t-i})g_i \\ \theta_1 - \sum^{t-1}_{i1}(1-\beta^{t-i})g_i \end{aligned} vnβtv0(1−β)(θtβθt−1β2θt−2⋯βn−1θ1)βtv0(1−β)(θ1−i1∑t−1giβ(θ1−i1∑t−2gi)⋯βt−2(θ1−i1∑1gi)βt−1θ1)βtv0(1−βt)θ1−i1∑n−1(1−βt−i)giθ1−i1∑t−1(1−βt−i)gi
普通的参数权重相当于一直累积更新整个训练过程的梯度使用EMA的参数权重相当于使用训练过程梯度的加权平均刚开始的梯度权值很小。由于刚开始训练不稳定得到的梯度给更小的权值更为合理所以EMA会有效。
代码实现
class EMA(nn.Module):def __init__(self, model, decay0.9999, deviceNone):super(EMA, self).__init__()# make a copy of the model for accumulating moving average of weightsself.module deepcopy(model)self.module.eval()self.decay decay# perform ema on different device from model if setself.device deviceif self.device is not None:self.module.to(devicedevice)def _update(self, model, update_fn):with torch.no_grad():for ema_v, model_v in zip(self.module.state_dict().values(), model.state_dict().values):if self.device is not None:model_v model_v.to(deviceself.device)ema_v.copy_(update_fn(ema_v, model_v))def update(self, model):self._update(model, update_fnlambda e, m: self.decay * e (1. - self.decay) * m)def set(self, model):self._update(model, update_fnlambda e, m: m)class LitEma(nn.Module):def __init__(self, model, decay0.9999, use_num_upatesTrue):super().__init__()if decay 0.0 or decay 1.0:raise ValueError(Decay must be between 0 and 1)self.m_name2s_name {}self.register_buffer(decay, torch.tensor(decay, dtypetorch.float32))self.register_buffer(num_updates, torch.tensor(0, dtypetorch.int) if use_num_upateselse torch.tensor(-1, dtypetorch.int))for name, p in model.named_parameters():if p.requires_grad:# remove as .-character is not allowed in bufferss_name name.replace(., )self.m_name2s_name.update({name: s_name})self.register_buffer(s_name, p.clone().detach().data)self.collected_params []def forward(self, model):decay self.decayif self.num_updates 0:self.num_updates 1decay min(self.decay, (1 self.num_updates) / (10 self.num_updates))one_minus_decay 1.0 - decaywith torch.no_grad():m_param dict(model.named_parameters())shadow_params dict(self.named_buffers())for key in m_param:if m_param[key].requires_grad:sname self.m_name2s_name[key]shadow_params[sname] shadow_params[sname].type_as(m_param[key])shadow_params[sname].sub_(one_minus_decay * (shadow_params[sname] - m_param[key]))else:assert not key in self.m_name2s_namedef copy_to(self, model):m_param dict(model.named_parameters())shadow_params dict(self.named_buffers())for key in m_param:if m_param[key].requires_grad:m_param[key].data.copy_(shadow_params[self.m_name2s_name[key]].data)else:assert not key in self.m_name2s_namedef store(self, parameters):Save the current parameters for restoring later.Args:parameters: Iterable of torch.nn.Parameter; the parameters to betemporarily stored.self.collected_params [param.clone() for param in parameters]def restore(self, parameters):Restore the parameters stored with the store method.Useful to validate the model with EMA parameters without affecting theoriginal optimization process. Store the parameters before thecopy_to method. After validation (or model saving), use this torestore the former parameters.Args:parameters: Iterable of torch.nn.Parameter; the parameters to beupdated with the stored parameters.for c_param, param in zip(self.collected_params, parameters):param.data.copy_(c_param.data)