发表评论取消回复
相关阅读
相关 模型训练:常用训练tricks【鲁棒性:对抗训练FGM、权值平均EMA/SWA】【加速训练:混合精度】
一、对抗训练 对抗训练是一种引入噪声的训练方式,可以对参数进行正则化,提升模型鲁棒性和泛化能力。对抗训练的假设是:给输入加上扰动之后,输出分布和原Y的分布一致。 ![
相关 模型训练-Tricks-提升鲁棒性(2):SWA(随机权重平均/Stochastic Weight Averaging)、EMA(指数移动平均/Exponential Moving Average)
在[kaggle][]比赛中,不管是目标检测任务、语义分割任务中,经常能看到SWA(Stochastic Weight Averaging)和EMA(Exponential M
相关 nlp中的对抗训练
[NLP 中的对抗训练(附 PyTorch 实现)博文][NLP _ PyTorch] [NLP 中的对抗训练(附 PyTorch 实现)视频讲解][NLP _ PyTor
相关 PyTorch训练(四):模型量化训练【①模型训练完毕后的动态量化、②模型训练完毕后的静态量化、③模型训练中开启量化】
一、概述 在深度学习中,量化指的是使用更少的bit来存储原本以浮点数存储的tensor,以及使用更少的bit来完成原本以浮点数完成的计算。这么做的好处主要有如下几点:
相关 模型训练-Tricks-提升鲁棒性(1):对抗训练【FGM、PGD、FGSM、FreeLB、AWP】
![format_png][] 当前,在各大NLP竞赛中,对抗训练已然成为上分神器,尤其是fgm和pgd使用较多,下面来说说吧。对抗训练是一种引入噪声的训练方式,可以对参数进
相关 NLP对抗训练:PyTorch、Tensorflow
一、定义 `对抗样本`:对输入增加微小扰动得到的样本。旨在增加模型损失。 `对抗训练`:训练模型去区分样例是真实样例还是[对抗样本][Link 1]的过程。对抗训练不仅
相关 pytorch混合精度训练
1 混合精度 计算机中的浮点数表示,按照IEEE754可以分为三种,分别是半精度浮点数、单精度浮点数和双精度浮点数。三种格式的浮点数因占用的存储位数不同,能够表示的数据精
相关 深度学习 | 训练网络trick——mixup
1.mixup原理介绍 [mixup 论文地址][mixup] mixup是一种非常规的数据增强方法,一个和数据无关的简单数据增强原则,其以线性插值的方式来构建新的训
还没有评论,来说两句吧...