深度学习之卷积神经网络

8 篇文章 2 订阅
订阅专栏

卷积神经网络(CNN )复习

寒假后之前学习的东西有些遗忘,故写文章顺便温习一下以前的知识,本文非讲解文章,只写了些遗忘的东西,有错误请指正,谢谢。

1.区别
卷积神经网络和传统神经网络区别
传统神经网络
传统神经网络输入是一个向量,一维数据。
卷积神经网络
卷积神经网络输入的是三维长方体矩阵,H* W *3,高度 * 宽度 * 3通道,或者行数 * 列数 * 3通道。
不同的输入导致神经网络的权重参数不一样,输出的结果也不一样。

2.结构
简单的卷积神经网络
一般CNN有四层结构
输入层,即输入三通道图像
卷积层,对上一层的结果卷积运算,提取特征
池化层,对上一层结构进行池化,压缩特征
全连接层,“分类器”的作用

3.卷积层
第一层
输入的数据为三通道(RGB),核卷积的通道数要与输入一致,即三通道(W为列数,H为行数,N1为第一层卷积核个数,卷积核总参数就是WH3*N1,一般会权值共享,即每层都是一样的,则参数就是W *H *N1),卷积后得到不同颜色通道的特征,然后进行加法操作,最终形成一个feature map。有多少个卷积核就有多少个提取的feature map。
卷积过程
一般卷积后会加一个激活函数(Sigmoid、Tanh和ReLU等等)。

第二层
输入的数据通道数为N1,卷积核的通道数也是N1,卷积核个数为N2(卷积核总参数WHN2,权值共享)。

卷积结果计算公式
卷积后特征的大小计算
池化层
压缩特征,常见的最大池化,平均池化。

全连接层
本质是卷积,不过最后输出的·是一维数据,常用于连接softmax。
例如VGG网络中最后一层卷积可得输出为7x7x512,如后层是一层含4096个神经元的FC,则可用卷积核为7x7x512x4096的全局卷积来实现这一全连接运算过程。

AlexNet

Vgg
这个视频讲得挺好的
B站VGG视频
vggnet

  1. 16层网络,13层卷积,3层全连接。
  2. 全部使用3x3的卷积核,两个3x3代替5x5,三个3x3代替7x7,反推后感受野一样,但需要更新参数减少,计算量减少。
  3. 卷积层不改变feature map大小,只改变深度,池化层不改变feature深度,只改变大小。
  4. 前两层全连接层有激活函数,最后一层没有,连接softmax。

GoogleNet
Googlenet中inception结构
也称Inception

  1. 一共22层,深度增加(网络层数增加)且使用了Inception模块,用来增加网络深度
  2. 相比于之前网络(Alexnet),网络层数增加了,但参数却减少了
  3. 不同卷积核提取不同尺度的特征,为了使提取后的feature map尺度一样,利用padding
  4. 卷积后对特征图进行拼接
  5. 使用1x1卷积,可以减少计算量和训练参数;网络深度更加深,增加了非线性性
  6. 全连接层换成平均池化top-1精确度增加了%0.6
  7. 增加了辅助分类器。因为层数增加,临近输入层的网络参数调节会比较难,辅助分类器可以有效调节这些层的参数,论文中权值占0.3
  8. 学习率每训练8个周期减少%4
  9. 图片预处理较复杂,一张图片可以四个方向旋转,每个旋转图像左中右(上中下)提取三个部分,每个部分四角和中间以及resize分出6个部分最后每个数据在镜像则一张图片可提供4x3x6x2=144个数据集。
  10. List item

Resnet
resnet

  1. 152层网络
  2. 退化现象:层数越多,结果会越差
  3. resnet设计残差单元

不同层特征

DenseNet

SENet

BN
增加学习率
减少Dropout的使用
减少正则化的使用
加速学习率的衰减
去除局部响应归一化(一种归一化的方法)
训练集的样本更加打乱

1x1卷积核作用:
增加了非线性性
减少了计算量,权值更新减少

U-net

卷积神经网络与图像识别,图像分类卷积神经网络
shirley67269的博客
08-10 3490
卷积神经网络有以下几种应用可供研究:1、基于卷积网络的形状识别物体的形状是人的视觉系统分析和识别物体的基础,几何形状是物体的本质特征的表现,并具有平移、缩放和旋转不变等特点,所以在模式识别领域,对于形状的分析和识别具有十分重要的意义,而二维图像作为三维图像的特例以及组成部分,因此二维图像的识别是三维图像识别的基础。然而,这些特征的提取太过依赖人的经验和主观意识,提取到的特征的不同对分类性能影响很大,甚至提取的特征的顺序也会影响最后的分类性能。同时,图像预处理的好坏也会影响到提取的特征。②具有联想存储功能。.
机器学习之卷积神经网络(自用学习笔记)
PlutoLilian的博客
09-17 1040
卷积神经网络自学笔记
神经网络3-卷积神经网络一文深度理解
最新发布
qq_41914036的博客
02-25 1874
卷积神经网络(Convolutional Neural Network, CNN)是一类包含且具有的前馈神经网络(Feedforward Neural Networks),主要用于图像识别、语音识别和自然语言处理等任务,是深度学习(deep learning)的代表算法之一。卷积神经网络(Convolutional Neural Networks,CNN)是一种专门用来处理具有的数据的神经网络。例如和。卷积网络是指那些至少在网络的一层中使用卷积运算来替代一般的矩阵乘法运算的神经网络
(深度学习)卷积神经网络(CNN)
adamyouyou的专栏
05-04 6272
一、卷积神经网络和传统多层神经网络区别 1.传统多层神经网络区别:没有理论指出多少层(层数没有作用) 2.卷积网络:更加有效的特征学习部分,加深网络得以有效 3.深度学习卷积神经网络、循环神经网络,新的结构以及一些新的方法(比如新的激活函数Relu等) 二、卷积神经网络的原理 卷积网络的三个结构: 神经网络(neural networks)的基本组成包括输入层、隐藏层、输出层。而卷积神经网络的...
软件测试/人工智能丨卷积神经网络,与普通的神经网络有何不同
Ceshiren666的博客
12-14 133
卷积神经网络通过引入卷积层、池化层和局部连接结构,更有效地处理网格化数据,尤其在图像处理等领域表现出色。它的局部连接和权值共享等特性使得网络更具有识别局部模式的能力,而层次化结构则有助于学习多层次的特征表示。与此相反,传统神经网络通过全连接层处理输入数据,参数较多,相对于网格化数据可能不够高效。因此,CNN更适合处理具有空间结构的数据。
详解卷积神经网络(CNN)
qq_25762497的博客
04-04 25万+
卷积神经网络(Convolutional Neural Network, CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。
深度学习卷积神经网络.pptx
12-04
深度学习是机器学习领域中一个新的研究方向...卷积神经网络是一类包含卷积计算且具有深度结构的前馈神经网络,是深度学习代表算法之一。ppt是概括了传统的经典神经网络卷积神经网络,希望对有ppt讲解需求的人有帮助。
深度学习卷积神经网络CNN及tensorflow代码实现示例
cxmscb的博客
05-01 22万+
一、CNN的引入在人工的全连接神经网络中,每相邻两层之间的每个神经元之间都是有边相连的。当输入层的特征维度变得很高时,这时全连接网络需要训练的参数就会增大很多,计算速度就会变得很慢,例如一张黑白的 28×2828×28 的手写数字图片,输入层的神经元就有784个,如下图所示: 若在中间只使用一层隐藏层,参数 ww 就有 784×15=11760784×15 = 11760 多个;若输入的
深度学习卷积神经网络CNN用于人脸检测C++库
02-19
在这个"深度学习卷积神经网络CNN用于人脸检测C++库"中,我们将深入探讨CNN在人脸检测中的应用以及C++实现的相关技术。 1. **卷积神经网络CNN**:CNN的核心特征在于其卷积层,通过滤波器(或称卷积核)对输入图像...
深度学习卷积神经网络CNN模式识别VS代码
02-18
深度学习卷积神经网络CNN做手写体识别的VS代码。支持linux版本和VS2012版本。 tiny-cnn: A C++11 implementation of convolutional neural networks ======== tiny-cnn is a C++11 implementation of ...
全连接神经网络卷积神经网络区别
weixin_42414405的博客
05-28 1万+
在这里大致说明以一下我在学习过程中的理解: 卷积神经网络也是通过一层一层的节点组织起来的。和全连接神经网络一样,卷积神经网络中的每一个节点就是一个神经元。在全连接神经网络中,每相邻两层之间的节点都有边相连,于是会将每一层的全连接层中的节点组织成一列,这样方便显示连接结构。而对于卷积神经网络,相邻两层之间只有部分节点相连,为了展示每一层神经元的维度,一般会将每一层卷积层的节点组织成一...
深度学习笔记-卷积神经网络CNN与循环神经网络RNN有什么区别
weixin_35227692的博客
02-01 3万+
CNN与RNN本质的不同就是所基于的假设不同,由于核心假设的不同,导致实现方式的差异。 CNN 首先理解什么叫做卷积,或者说为什么要翻译为卷积神经网络。 卷积的定义:https://baike.baidu.com/item/%E5%8D%B7%E7%A7%AF/9411006?fr=aladdin 简单来说,卷积就是两个相对运动的几何图形,在相交到相离之间,重叠的面积。 对于CNN神
深度学习 --- 卷积神经网络CNN(LeNet-5网络详解)
进击的菜鸟
11-26 23万+
卷积神经网络(Convolutional Neural Network,CNN)是一种前馈型的神经网络,其在大型图像处理方面有出色的表现,目前已经被大范围使用到图像分类、定位等领域中。相比于其他神经网络结构,卷积神经网络需要的参数相对较少,使的其能够广泛应用。 本节打算先介绍背景和简单的基本概念术语,然后详细介绍LeNet-5网络,其工作流程大家需要先搞清楚,学习原理其实是基于BP学习原理的,只...
卷积神经网络的最佳解释!
机器学习算法与Python学习
08-12 3268
CNN在图像和视频识别,推荐系统和自然语言处理中有着广泛的应用。在这篇文章中举的例子是计算机视觉,但是,基本概念是一致的,可以应用于任何其他用例。作者 | Harsh P...
Deep Learning(深度学习)学习笔记整理系列之(七)
热门推荐
zouxy09的专栏
04-10 67万+
Deep Learning(深度学习)学习笔记整理系列 zouxy09@qq.com http://blog.csdn.net/zouxy09 作者:Zouxy version 1.0 2013-04-08 声明: 1)该Deep Learning的学习系列是整理自网上很大牛和机器学习专家所无私奉献的资料的。具体引用的资料请看参考文献。具体的版本声明也参考原文献。 2)本文仅供学
深度 | 卷积神经网络架构详解:它与神经网络有何不同?
weixin_33805557的博客
05-02 287
这是作者在 Medium 上介绍神经网络系列文章中的一篇,他在这里详细介绍了卷积神经网络卷积神经网络在图像识别、视频识别、推荐系统以及自然语言处理中都有很广的应用。如果想浏览该系列文章,可点击阅读原文查看原文网址。 跟神经网络一样,卷积神经网络由神经元构成,这些神经元带有可学习的权重和偏差(bias)。每个神经元接收若干输入,并对输入进行加权...
bp神经网络卷积神经网络浅谈
weixin_41854375的博客
09-29 9574
    这周首先进行了BP神经网络的学习,主要是继续学习了吴恩达老师的课程。1 对比了常见的激活函数,sigmoid、tanh和RELU的特点,使用范围,其中二分类问题使用sigmoid和tanh,而tanh函数比sigmoid性能更加优越,当隐含层不确定时,倾向于使用Relu,主要是由于后者训练速度快。2 为什么使用激活函数,当神经网络中没有激活函数时,不管有多少隐含层,最后相当于输入对输入进行...
卷积神经网络(CNN)的理解和实现
土豆洋芋山药蛋的博客
02-19 7969
卷积神经网络目前可以说是家喻户晓了,但对于想我这样的新手应该怎么快速的入门呢? 作为萌新,我也有问题三连: 1、卷积神经网络(CNN)和神经网络有什么关系? 2、卷积神经网络有哪些操作步骤呢(内部结构)? 3、能不能整个例子看看效果呀? 下面就借着回答上面的三个问题的时机,来揭开卷积神经网络的面纱。 1、卷积神经网络(CNN)和神经网络有...
深度学习卷积神经网络结构详解
"本文是一篇关于深度学习卷积神经网络的综述,主要面向希望了解这两者基础知识的读者。文章分为三个部分,首先概述深度学习的概念,包括其与浅层学习的区别、发展历程和特点。接着,详细讲解卷积神经网络的关键...
写文章

热门文章

  • igraph入门教程 10797
  • YOLOv5在C++中通过Onnxruntime在window平台上的cpu与gpu推理 4453
  • 在vscode中使用C++刷LeetCode算法题 3018
  • Vs+Qt简单计算器设计流程(含运行截图) 2995
  • 深度学习之卷积神经网络 2779

分类专栏

  • C++ 6篇
  • 深度学习 8篇
  • onnx 2篇
  • tensorRT 2篇
  • igraph 1篇
  • 复杂网络可视化工具 1篇
  • OpenCV 1篇
  • Qt 2篇

最新评论

  • C++中的常用设计模式

    CSDN-Ada助手: 恭喜您写了第16篇博客!您对C++中的常用设计模式进行了深入的探讨,让读者受益匪浅。希望您能继续保持写作的热情和创作的活力,也期待您能在未来的博客中分享一些实际案例或者更深入的技术细节,这样可以让读者更好地理解和运用这些设计模式。期待您未来更多精彩的作品!

  • YOLOv5在C++中通过Onnxruntime在window平台上的cpu与gpu推理

    weixin_42056806: 只要利用onnxruntime就可以CPU推理了吗

  • Vs+Qt简单计算器设计流程(含运行截图)

    小唐boys: if ((int)result == result) { ui.lineEdit->setText(QString::number((int)result, 10, 0)); //ui.lineEdit->insert(QString::number((int)result, 10, 0)); } else { ui.lineEdit->setText(QString::number(result, 10, 15)); //ui.lineEdit->insert(QString::number(result, 10, 6)); } 这里需要用setText才能正常显示,不然会把前面的进行两遍运算

  • Vs+Qt简单计算器设计流程(含运行截图)

    hebuxi: 堆栈缓冲区溢出?

  • Vs+Qt简单计算器设计流程(含运行截图)

    lazyoneguy: numbuttonPress函数写了吗?链接到按钮上了吗?

大家在看

  • 【大数据学习 | Zookeeper】Zookeeper的选举机制
  • Redis内存碎片自动回收
  • Java基础
  • Python学习的自我理解和想法(20) 562
  • 【Python小游戏12——愤怒的小鸟】

最新文章

  • C++中的常用设计模式
  • YOLOv5+TensorRT+Visual Studio+CmakeLists实现推理
  • 创造一个自己的gitee仓库——Git的基本操作
2024年1篇
2023年5篇
2022年3篇
2021年7篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

玻璃钢生产厂家河南秋季商场美陈有哪些人物玻璃钢雕塑培训公司内蒙玻璃钢雕塑厂家价格山东装饰商场美陈生产企业玻璃钢雕塑分割后如何对接朝阳玻璃钢雕塑订制价格河北节庆商场美陈怎么样保山玻璃钢雕塑批发商惠州玻璃钢雕塑工艺商场楼体美陈桐乡玻璃钢南瓜屋雕塑贵阳玻璃钢雕塑定制怎么收费上海特色玻璃钢雕塑订做价格丽水人物玻璃钢雕塑制作服装商场美陈图片大全汕尾玻璃钢景观雕塑材料平凉玻璃钢植物雕塑定做卡通人玻璃钢花盆玻璃钢鹿雕塑生产厂商电话多少海洋公园玻璃钢鲸鱼雕塑运城玻璃钢花盆雕塑定制厂家阜新市玻璃钢雕塑定制山东玻璃钢大猩猩雕塑玻璃钢雕塑 武松杀嫂深圳金壁虎玻璃钢雕塑玻璃钢动物雕塑动态海伦玻璃钢人物雕塑专业的玻璃钢迎宾雕塑运城广场标识玻璃钢卡通雕塑南京椭圆形玻璃钢花盆香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声单亲妈妈陷入热恋 14岁儿子报警汪小菲曝离婚始末遭遇山火的松茸之乡雅江山火三名扑火人员牺牲系谣言何赛飞追着代拍打萧美琴窜访捷克 外交部回应卫健委通报少年有偿捐血浆16次猝死手机成瘾是影响睡眠质量重要因素高校汽车撞人致3死16伤 司机系学生315晚会后胖东来又人满为患了小米汽车超级工厂正式揭幕中国拥有亿元资产的家庭达13.3万户周杰伦一审败诉网易男孩8年未见母亲被告知被遗忘许家印被限制高消费饲养员用铁锨驱打大熊猫被辞退男子被猫抓伤后确诊“猫抓病”特朗普无法缴纳4.54亿美元罚金倪萍分享减重40斤方法联合利华开始重组张家界的山上“长”满了韩国人?张立群任西安交通大学校长杨倩无缘巴黎奥运“重生之我在北大当嫡校长”黑马情侣提车了专访95后高颜值猪保姆考生莫言也上北大硕士复试名单了网友洛杉矶偶遇贾玲专家建议不必谈骨泥色变沉迷短剧的人就像掉进了杀猪盘奥巴马现身唐宁街 黑色着装引猜测七年后宇文玥被薅头发捞上岸事业单位女子向同事水杯投不明物质凯特王妃现身!外出购物视频曝光河南驻马店通报西平中学跳楼事件王树国卸任西安交大校长 师生送别恒大被罚41.75亿到底怎么缴男子被流浪猫绊倒 投喂者赔24万房客欠租失踪 房东直发愁西双版纳热带植物园回应蜉蝣大爆发钱人豪晒法院裁定实锤抄袭外国人感慨凌晨的中国很安全胖东来员工每周单休无小长假白宫:哈马斯三号人物被杀测试车高速逃费 小米:已补缴老人退休金被冒领16年 金额超20万

玻璃钢生产厂家 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化