深度学习-CNN卷积神经网络.pptx

上传人:99****p 文档编号:1418815 上传时间:2019-02-25 格式:PPTX 页数:20 大小:742.52KB
下载 相关 举报
深度学习-CNN卷积神经网络.pptx_第1页
第1页 / 共20页
深度学习-CNN卷积神经网络.pptx_第2页
第2页 / 共20页
深度学习-CNN卷积神经网络.pptx_第3页
第3页 / 共20页
深度学习-CNN卷积神经网络.pptx_第4页
第4页 / 共20页
深度学习-CNN卷积神经网络.pptx_第5页
第5页 / 共20页
点击查看更多>>
资源描述

1、Convolutional Neural Networks江南大学 -数媒学院 -许鹏Outlineconvolution poolingsparse connectivity parameter sharing equivariant representation卷 积层 -convolution 池化 层 -pooling全 连 接 层 fully connectedOverviewCNN-Overviewl 卷积神经网络是一种受到视觉感知机制启发的深度学习结构。 1959年 Hubel和 Wiesel发现动物的视觉皮质细胞负责在感知域内探测光照,受其启发, 1980年 Kunihiko

2、Fukushima提出了一种新型认知机并被认为是 CNN的先驱。l 1990年, LeCun发表了一篇奠定现在 CNN结构的重要文章,他们构建了一个叫做 LeNet-5的多层前馈神经网络,并将其用于手写体识别。就像其他前馈神经网络,它也可以使用反向传播算法来训练。它之所以有效,是因为它能从原始图像学习到有效的特征,几乎不用对图像进行预处理。然而由于当时 训练数据量的缺乏 以及 计算能力的不足 , LeNet-5无法在复杂问题上表现的很好,比如大规模图像分类以及视频分类处理。Yann LeCun: 纽约大学 /Facebookl 自 2006年以来,又有很多方法被提出来以克服在训练deep CN

3、Ns时遇到的困难。其中很重要的一个是 AlexNet网络,它和 LeNet-5很相似,但是在图像分类任务上有了很大的提升。随着 AlexNet的成功,又有很多新的神经网络被提出来以提升它的性能。ZFNet(2014) VGGNet(2015) GoogleNet(2014)ResNet(2015)champion of ILSVRC 2015CNN-OverviewZFNet(2014) VGGNet(2015) GoogleNet(2014)ResNet(2015)champion of ILSVRC 2015LeNet-5(1990) AlexNet(2012)l 上述这些神经网络一个很重

4、要的趋势就是 deeper,其中 ResNet的深度是 AlexNet的 20倍,是VGGNet的 8倍。随着深度的增加,网络能够更好的逼近非线性目标方程,并且能够学习到更加有效的特征。当然这也增加了模型的复杂度,使得模型很难训练并且容易过拟合。所以有很多方法被提出来用于解决 CNNs的训练和过拟合问题。l 和传统的前馈神经网络类似,整个网络的模型有几种因素决定。我们传统的前馈神经网络隐藏层一般是全连接的,而 CNN的隐藏层又分为 convolutional layer, pooling layer和最后的fully-connected layer,这些隐藏层的区别是 CNN之所以为 CNN的

5、重要原因,而另外各个神经元激活函数的选择以及整个网络损失函数的选择都与 FNN类似。下面我们主要讲解 LeNet-5。l CNN的应用也很广泛,其中包括图像分类,目标检测,目标识别,目标跟踪,文本检测和识别以及位置估计等。CNN-Overviewl 上面提到 CNN和 FNN很重要的差异就是隐藏层的差异, CNN有 convolutional layer和 poolinglayer,然后和最后的 fully-connected layer共同构成卷积神经网络。而中间的隐藏层的连接方式又有三个重要的思想:sparse connectivity and parameter sharing and

6、equivariant representationconvolution operation and pooling operationConvolution右图就是一个 2维卷积的示意图,这里因为是离散的卷积,所以可以直接把卷积理解为矩阵相乘,即两个矩阵相乘,一个是输入矩阵,一个是卷积核矩阵。输入矩阵一般都表示二维的输入图像,而卷积核其实可以理解为图像处理里面的算子,比如这些算子可以实现一些边缘检测或者高斯模糊的效果,那么其实卷积操作可以理解为对图像进行一些 特征处理 。如图所示,一个卷积操作就是指卷积核和同样大小的一个图像矩阵相乘,然后再向下或者向右滑动卷积核,执行下一个卷积操作。这样用

7、卷积 核在整个图像上面滑动一遍便生成了一个卷积层。CNN的一个重要操作 卷积 是 CNN的 核心思想 ,就是这个卷积有效的提取了图像特征用于后面的图像识别。Convolution右图的卷积核大小是 2乘以 2的,这可以看成是一 个 Roberts边缘检测算子,和左面的 Input中的2*2矩阵做卷积运算相当于对点 e的边缘检测。Roberts算子是一种最简单的算子,它利用局部差分算子来寻找边缘信息,它采用对角线方向相邻两像素之差来近似梯度检测边缘。-1 00 10 -11 0这里的 Roberts算子只是一个一阶算子,提取的边缘信息还很有限,还有其他的二阶算子,比如拉普拉斯算子。而且这里 Ro

8、berts算子只提取了某个像素对角线的梯度,而没有提取垂直方向和水平方向的梯度,所以还有其他的算子用于提取多个方向梯度,比如 Sobel算子, Prewitt算子等。Convolution右图的卷积核大小是 2乘以 2的,这可以看成是一 个 Roberts边缘检测算子,和左面的 Input中的2*2矩阵做卷积运算相当于对点 e的边缘检测。Roberts算子是一种最简单的算子,它利用局部差分算子来寻找边缘信息,它采用对角线方向相邻两像素之差来近似梯度检测边缘。-1 00 10 -11 0这里的 Roberts算子只是一个一阶算子,提取的边缘信息还很有限,还有其他的二阶算子,比如拉普拉斯算子。而且

9、这里 Roberts算子只提取了某个像素对角线的梯度,而没有提取垂直方向和水平方向的梯度,所以还有其他的算子用于提取多个方向梯度,比如 Sobel算子, Prewitt算子等。Sparse Connectivity上图中红色框里面的表示稀疏连接上 图中蓝色框里面表示非稀疏连接这么做是有道理的,就是根据一些生物学的研究我们的视觉感知细胞其实是 局部感知 的,比如我们用很小的卷积核来提取整幅图像的布局边缘信息,这时候采用全连接的意义并不大,不能学到很好 的 图像特征信息 ,而且模型复杂度还很高。Parameter Sharing上 图中的 红色 框中,黑色的箭头表示,在一个卷积网络中 一 个三维的卷积核的其中一个元素由于左图的权值共享,导致对于所有输入神经元,黑色箭头的值都是相同的。而下面的 蓝色框中,黑色箭头表示全连接层中所有权值最中心的一个权值,它只使用了一次,没有被任何神经元再次共享。

展开阅读全文
相关资源
相关搜索
资源标签

当前位置:首页 > 教育教学资料库 > 课件讲义

Copyright © 2018-2021 Wenke99.com All rights reserved

工信部备案号浙ICP备20026746号-2  

公安局备案号:浙公网安备33038302330469号

本站为C2C交文档易平台,即用户上传的文档直接卖给下载用户,本站只是网络服务中间平台,所有原创文档下载所得归上传人所有,若您发现上传作品侵犯了您的权利,请立刻联系网站客服并提供证据,平台将在3个工作日内予以改正。