Dropout简单理解

3 篇文章 0 订阅
订阅专栏

1 简介

      Dropout是神经网络训练中非常有效的正则化方法,Dropout就是在神经网络的Dropout层,为每个神经元结点设置一个随机消除的概率,对于保留下来的神经元,得到一个节点较少,规模较小的网络进行训练。Dropout示意图如下:
Dropout示意图

      神经元消除概率可以作为超参数,通过交叉验证方式选定。

2 Dropout理解

      对于神经网络中的每一个隐藏神经元,其工作就是接收输入,并产生一些有意义的输出,但是在使用Dropout后,每一个隐藏神经元都可能被随机地清除,此时一个隐藏神经元不会再特别依赖于其他任何一个隐藏神经元,这就促使每一个个体隐藏单元去学习一个有用的特征。也可以将Dropout视为一种非常有效的神经网络模型平均的方式,每个模型都在单例上训练,并且模型中的每一个参数都与所有其他模型中的相关参数共享,从而被极大地正则化。这远比那些将参数推向 0 的标准正则化手段更好。

3 一些细节

      1. 在测试阶段,使用的“平均网络”包含有所有的隐藏单元,但是其权重被乘以一个概率 p(保留概率),因为测试阶段激活的隐藏单元的数量比训练阶段多。示意图如下:
测试阶段权重削减

      2. Dropout之于卷积层的作用不够明显,因为卷积网络参数共享的性质极大地减少了参数,虽然这降低了网络的表示能力,但是同时降低了过拟合的可能性。然而,在较低层使用Dropout仍然有所帮助,因为它为更高层的全连接层的输入提供了噪声,这可以防止出现过拟合的情况。

      3. Dropout作者在使用Dropout时,没有采用对整个权重向量进行 L2 正则的方法,而是对每一个隐藏单元的输入权重向量的 L2 范数设置一个上限 c。使用一个限制而不是一个惩罚来防止权重增长得很大而不论权重更新有多大,这使得在使用学习率衰减的初始阶段可以使用一个较大的学习率,从而给予网络更多的机会在权重空间中寻找一个好的配置。(一个可能的理由:将权重向量限制在一个固定半径的球体内,使得使用一个较大的学习率而不至于权重爆炸成为可能)

参考文献

[1] Hinton G E, Srivastava N, Krizhevsky A, et al. Improving neural networks by preventing co-adaptation of feature detectors[J]. arXiv preprint arXiv:1207.0580, 2012.
[2] Srivastava N, Hinton G, Krizhevsky A, et al. Dropout: A simple way to prevent neural networks from overfitting[J]. The Journal of Machine Learning Research, 2014, 15(1): 1929-1958.
[3] 吴恩达深度学习第二课第一周

dropout理解~简易理解
sharryling
03-12 1133
工作原理: 所谓的dropout,从字面意思理解,就是“抛弃”。 抛弃什么呢?抛弃的是网络中隐藏层的节点(输入层和输出层是由数据类型和问题类型决定的,当然不能动啦!)。 怎么抛弃呢?dropout有一个参数p,p的取值介于0和1,含义是每个节点有p概率被抛弃。 被抛弃对这个节点有什么影响呢?dropout对于节点的影响表现在,一旦某个节点被选定为抛弃的节点,那么对于神经网...
深度学习Dropout原理解
热门推荐
Microstrong
06-19 31万+
1. Dropout简介1.1 Dropout出现的原因在机器学习的模型中,如果模型的参数太多,而训练样本又太少,训练出来的模型很容易产生过拟合的现象。在训练神经网络的时候经常会遇到过拟合的问题,过拟合具体表现在:模型在训练数据上损失函数较小,预测准确率较高;但是在测试数据上损失函数比较大,预测准确率较低。过拟合是很多机器学习的通病。如果模型过拟合,那么得到的模型几乎不能用。为了解决过拟合问题,一...
分析 Dropout
chuange6363的博客
09-10 297
这篇教程是翻译Paolo Galeone写的Dropout分析教程,作者已经授权翻译,这是原文。 过拟合一直是深度神经网络(DNN)所要面临的一个问题:模型只是在训练数据上学习分类,使其适应训练样本,而不是去学习一个能够对通用数据进行分类的完全决策边界。这些年,提出了很多的方案去解...
Dropout动态图
10-29
利用动态图更好的理解Dropout动态图
神经网络--丢弃法(Dropout)
duanyuwangyuyan的博客
03-05 3727
丢弃法(Dropout)是深度学习中一种常用的抑制过拟合的方法,其做法是在神经网络学习过程中,随机删除一部分神经元。训练时,随机选出一部分神经元,将其输出设置为0,这些神经元将不对外传递信号。 图16 是Dropout示意图,左边是完整的神经网络,右边是应用了Dropout之后的网络结构。应用Dropout之后,会将标了×\times×的神经元从网络中删除,让它们不向后面的层传递信号。在学习过程中,丢弃哪些神经元是随机决定,因此模型不会过度依赖某些神经元,能一定程度上抑制过拟合。 图16 Dropout示
dropout
七七的博客
05-29 144
Dropout: https://wenku.baidu.com/view/9dd6ddd301f69e3142329476.htmlhttps://zhuanlan.zhihu.com/p/33058988 
Dropout的深入理解(基础介绍、模型描述、原理深入、代码实现以及变种)
艰难困苦,玉汝于成。
02-09 2万+
深度神经网络包含多个非线性隐藏层,这使得它们有强大的表现力,可以学习输入和输出之间非常复杂的关系。但是在训练数据有限的情况下,深度神经网络很容易过度学习造成过拟合,过拟合是深度神经网络的一个非常严重的问题,此外,神经网络越大,训练速度越慢,Dropout可以通过在训练神经网络期间随机丢弃单元来防止过拟合,实验证明Dropout有很好的效果。
深入浅出--梯度下降法及其实现
Poo_Chai的博客
05-08 536
一、梯度法思想 梯度法思想的三要素:出发点、下降方向、下降步长。 机器学习中常用的权重更新表达式为 :,这里的λ就是学习率,本文从这个式子出发来把机器学习中的各种“梯度”下降法阐释清楚。 机器学习目标函数,一般都是凸函数,什么叫凸函数?限于篇幅,我们不做很深的展开,在这儿我们做一个形象的比喻,凸函数求解问题,可以把目标损失函数想象成一口锅,来找到这个锅的锅底。非常直观的想法就是,我们沿...
dropout的理解详细版
fu6543210的博客
11-24 4万+
dropout可以让模型训练时,随机让网络的某些节点不工作(输出置零),也不更新权重(但会保存下来,下次训练得要用,只是本次训练不参与bp传播),其他过程不变。我们通常设定一个dropout radio=p,即每个输出节点以概率p置0(不工作,权重不更新),假设每个输出都是独立的,每个输出都服从二项伯努利分布p(1-p),则大约认为训练时,只使用了(1-p)比例的输出,相当于每次训练一个子网络。测...
Dropout的理解精简版
fu6543210的博客
11-20 1371
今天第一次在别人的代码里面看到了dropout 这个功能,找了一下相关的资料大概理解了一些。论文地址 概念 dropout其实挺简单的,一句话说就是每次train的时候(test不会参与dropout),按照一定几率P随机丢弃一些feature或者Input(因为dropout所处的层不同,叫法不同), 具体做法是把这一项feature设置成0,也不更新权重(不参与bp传播),其他过程不变。但...
丹琦女神新作:对比学习,简单到只需要Dropout两下.rar
最新发布
10-18
"丹琦女神新作:对比学习,简单到只需要Dropout两下" 这个标题表明,这是一份由知名人物丹琦女神创作的关于深度学习技术的最新作品,主要聚焦于对比学习(Contrastive Learning)这一主题。标题暗示,通过运用...
Dropout 理论基础与实战细节
03-13 2320
Dropout: A Simple Way to Prevent Neural Networks from Overfitting 对于 dropout 层,在训练时节点保留率(keep probability)为某一概率 pp(0.5),在预测时(前向预测时)为 1.0; 1. dropout 网络与传统网络的区别传统网络:
dropout实现过程
跨过一座座山
03-25 1006
1、dropout可以用来防止过拟合 pytorch中实现如下: m = nn.Dropout(p=0.2) input = torch.randn(2, 5) print() output = m(input) print(input) print(output) 输出如下 实际上,dropout不只mask掉某个位置的数,而且还将保留的数进行缩放,缩放比例为 p1−p{\frac{p}{1...
深度学习dropout
ltochange的博客
05-12 242
原始论文: http://www.cs.toronto.edu/~rsalakhu/papers/srivastava14a.pdf dropout:为了防止训练过拟合,在训练过程中随机丢弃一部分输出(经常有人说随机丢弃掉一些神经元,感觉不是很准确) 上图对应公式: 不使用dropout: 使用dropout: 实现代码 import numpy as np def dropout(x, level): if level < 0. or level >= 1: # level是概
深度学习dropout
qq_41098991的博客
08-06 221
dropout解释
dropout的理解
maria5201314的博客
02-17 348
在训练的时候,我们只需要按一定的概率(retaining probability)p 来对weight layer 的参数进行随机采样,将这个子网络作为此次更新的目标网络。可以想象,如果整个网络有n个参数,那么我们可用的子网络个数为 2^n 。 并且,当n很大时,每次迭代更新 使用的子网络基本上不会重复,从而避免了某一个网络被过分的拟合到训练集上 2^n:参数节点可以分为1或0;所有n个不同的节
dropout与典型神经网络
一路向北
08-24 426
‘                           ResNet中用到了参差网络,这个的目的是避免梯度弥散。因为如果没有参差网络得话,那么神经网络可以理解为一个嵌套得函数,G(k(M(N(X)))),在梯度回传得时候,如果有哪个嵌套函数是个猪队友,其为0,那么前面得层根本得不到训练,使得训练深层次的网络成为一个很难实现...
3.6 CNN卷积神经网络基础知识-丢弃Dropout(百度架构师手把手带你零基础实践深度学习原版笔记系列)
aiAI
10-14 1772
3.6CNN卷积神经网络基础知识-丢弃Dropout(百度架构师手把手带你零基础实践深度学习原版笔记系列) 丢弃法(Dropout) 丢弃法(Dropout)是深度学习中一种常用的抑制过拟合的方法,其做法是在神经网络学习过程中,随机删除一部分神经元。训练时,随机选出一部分神经元,将其输出设置为0,这些神经元将不对外传递信号。 图16是Dropout示意图,左边是完整的神经网络,右边是应用了Dropout之后的网络结构。应用Dropout之后,会将标了×的神经元从网络中删除,让它们不向后面的层...
CNN中dropout层的理解
05-31
+ i * size - size / 2, xOffset + j * size + size / 2, yOffset + i * size + size / 2); } } } EndPaint(hWnd, &ps); } break; case WM_LBUTTONDOWN: { int x = GET_X_LPARAM(lParam), y = GET_Y_LPARAM(lParam); int size = min(cxClient / 8, cyClient / 10); selX = (x - cxClient / 16) / size; selY = (y - cyClient / 20) / size; InvalidateRect(hWnd, NULL, FALSE); } break; case WM_DESTROY: DeleteObject(hBrushBk); DeleteObject(hBrushBoard); DeleteObject(hBrushPiece); DeleteObject(hPenBoard); DeleteObject(hPenSelected); PostQuitMessage(0); break; default: return DefWindowProc(hWnd, message, wParam, lParam); } return 0; } ``` 这个代码主要实现了一个简单的窗口程序,用GDI绘制了一个棋盘和棋子,并且支持鼠标选择棋子。需要注意的是,这个代码只是一个示例,实际开发中需要根据实际情况进行调整。
写文章

热门文章

  • VGGNet学习笔记 1510
  • Win10 Anaconda3 下 Python3 与 Python2 共存 987
  • Dropout简单理解 755
  • AlexNet学习笔记 484

分类专栏

  • 广告算法
  • CTR预估
  • 环境配置
  • 深度学习 3篇

最新评论

  • AlexNet学习笔记

    mua_: 写的很赞!多多分享 !

最新文章

  • VGGNet学习笔记
  • AlexNet学习笔记
  • Win10 Anaconda3 下 Python3 与 Python2 共存
2018年4篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

玻璃钢生产厂家山西多彩玻璃钢雕塑销售电话铁岭玻璃钢十二生肖雕塑福建人物玻璃钢雕塑价位章鱼玻璃钢雕塑龙岩玻璃钢雕塑嘉兴人物玻璃钢雕塑销售电话淮安商场美陈布展哈密玻璃钢雕塑制作厂家河北商业商场美陈哪家好九江水果玻璃钢雕塑生产厂家盘锦玻璃钢雕塑设计安康玻璃钢长颈雕塑青海天桥玻璃钢花盆报价龙岗玻璃钢雕塑造型玻璃钢海洋雕塑专卖店成安玻璃钢花盆花器保定玻璃钢雕塑生产厂家广州玻璃钢人物雕塑价格合理韶关欧式玻璃钢人物雕塑湖南大型玻璃钢卡通雕塑公司保山市玻璃钢雕塑设计代理玻璃钢雕塑软包西宁动物玻璃钢雕塑公司户外玻璃钢雕塑厂家商场美陈方案陈述商场美陈布置方案七夕玻璃钢鹤雕塑图片均安古代玻璃钢人物雕塑内蒙玻璃钢果蔬雕塑山西定制玻璃钢雕塑市场香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声单亲妈妈陷入热恋 14岁儿子报警汪小菲曝离婚始末遭遇山火的松茸之乡雅江山火三名扑火人员牺牲系谣言何赛飞追着代拍打萧美琴窜访捷克 外交部回应卫健委通报少年有偿捐血浆16次猝死手机成瘾是影响睡眠质量重要因素高校汽车撞人致3死16伤 司机系学生315晚会后胖东来又人满为患了小米汽车超级工厂正式揭幕中国拥有亿元资产的家庭达13.3万户周杰伦一审败诉网易男孩8年未见母亲被告知被遗忘许家印被限制高消费饲养员用铁锨驱打大熊猫被辞退男子被猫抓伤后确诊“猫抓病”特朗普无法缴纳4.54亿美元罚金倪萍分享减重40斤方法联合利华开始重组张家界的山上“长”满了韩国人?张立群任西安交通大学校长杨倩无缘巴黎奥运“重生之我在北大当嫡校长”黑马情侣提车了专访95后高颜值猪保姆考生莫言也上北大硕士复试名单了网友洛杉矶偶遇贾玲专家建议不必谈骨泥色变沉迷短剧的人就像掉进了杀猪盘奥巴马现身唐宁街 黑色着装引猜测七年后宇文玥被薅头发捞上岸事业单位女子向同事水杯投不明物质凯特王妃现身!外出购物视频曝光河南驻马店通报西平中学跳楼事件王树国卸任西安交大校长 师生送别恒大被罚41.75亿到底怎么缴男子被流浪猫绊倒 投喂者赔24万房客欠租失踪 房东直发愁西双版纳热带植物园回应蜉蝣大爆发钱人豪晒法院裁定实锤抄袭外国人感慨凌晨的中国很安全胖东来员工每周单休无小长假白宫:哈马斯三号人物被杀测试车高速逃费 小米:已补缴老人退休金被冒领16年 金额超20万

玻璃钢生产厂家 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化