第一部分:深度学习1、神经网络基础问题(1)Backpropagation后向传播是在求解损失函数L对参数w求导时候用到的方法,目的是通过链式法则对参数进行一层一层的求导。这里重点强调:要将参数进行随机初始化而不是全部置0,否则所有隐层的数值都会与输入相关,这称为对称失效。大致过程是:l 首先前向传导计算出所有节点的激活值和输出值,l 计算整体损失函数:l 然后针对第L层的每个节点计算出残差(本质就是整体损失函数对每一层激活值Z的导数),所以要对W求导只要再乘上激活函数对W的导数即可(2)梯度消失、梯度爆炸梯度消失:这本质上是由于激活函数的选择导致的, 最简单的sigmoid函数为例,在函数的两端梯度求导结果非常小(饱和区),导致后向传播过程中由于多次用到激活函数的导数值使得整体的乘积梯度结果变得越来越小,也就出现了梯度消失的现象。梯度爆炸:同理,出现在激活函数处在激活区,而且权重W过大的情况下。但是梯度爆炸不如梯度消失出现的机会多。(3)常用的激活函数激活函数公式缺点优点Sigmoid(x)=1/(1+