1、神经网络原理一、填空题1、从系统的观点讲,人工神经元网络是由大量神经元通过极其丰富和完善的连接而构成的自适应、非线性、动力学系统。2、神经网络的基本特性有拓扑性、学习性和稳定收敛性。3、神经网络按结构可分为前馈网络和反馈网络,按性能可分为离散型和连续型,按学习方式可分为有导师和无导师。4、神经网络研究的发展大致经过了四个阶段。5、网络稳定性指从 t=0 时刻初态开始,到 t 时刻后 v(t+t)=v(t) ,(t0),称网络稳定。6、联想的形式有两种,它们分是自联想和异联想。7、存储容量指网络稳定点的个数,提高存储容量的途径一是改进网络的拓扑结构,二是改进学习方法。8、非稳定吸引子有两种状态,
2、一是有限环状态,二是混沌状态。9、神经元分兴奋性神经元和抑制性神经元。10、汉明距离指两个向量中对应元素不同的个数。二、简答题1、人工神经元网络的特点?答:(1) 、信息分布存储和容错性。(2) 、大规模并行协同处理。(3) 、自学习、自组织和自适应。(4) 、人工神经元网络是大量的神经元的集体行为,表现为复杂的非线性动力学特性。(5)人式神经元网络具有不适合高精度计算、学习算法和网络设计没有统一标准等局限性。2、单个神经元的动作特征有哪些?答:单个神经元的动作特征有:(1) 、空间相加性;(2) 、时间相加性;(3) 、阈值作用;(4) 、不应期;(5) 、可塑性;(6)疲劳。3、怎样描述动
3、力学系统?答:对于离散时间系统,用一组一阶差分方程来描述:X(t+1)=FX(t);对于连续时间系统,用一阶微分方程来描述:dU(t)/dt=FU(t)。4、F(x)与 x 的关系如下图,试述它们分别有几个平衡状态,是否为稳定的平衡状态?XF(X)0 a b(1)XF(X)0 a(2)答:在图(1)中,有两个平衡状态 a、b,其中,在 a 点曲线斜率|F(X)|1,为非稳定平稳状态;在 b 点曲线斜率|F(X)|1,为非稳定平稳状态。5、对于单个神经元的离散模型,Hebb 学习假设是什么,基本学习方程是什么?答:对于单个神经元的离散模型,Hebb 学习假设是:只有当神经元兴奋时,与其连接的突触
4、结合权才被强化而增大;当两个神经元同时处于兴奋状态时,它们之间的连接权应该加强。基本学习方程是: jiijijij xynw)(1(6、联想形式中的自联想和异联想有何区别?答:自联想指的是由某种代表事物(或该事物的主要特征或可能是部分主在特征)联想到其所表示的实际事物。其数学模型为:当输入 XX0+V 时,输出 Y=X0。异联想指的是由某一事物(或该事物的主要特征或可能是部分主在特征)联想到与其相关的另一事物。其数学模型为:在映射 X0Y0 下,当输入XX0+V 时,输出 Y=Y0。7、网络的稳定吸引子和吸引子的吸引域分别指什么?答:当 t=0 时,对网络输入模式 x,网络处于状态 v(0),
5、到时刻t 网络达到状态 v(t),若 v(t)稳定,则称 v(t)为网络的稳定吸引子。吸引子的吸引域是指所有经过一定时间能够稳定在吸引子 v(t)上的所有初始状态的集合。三、论述题1、 前馈式神经元网络与反馈式神经元网络有何不同?答:(1) 、前馈型神经元网络取连续或离散变量,一般不考虑输出与输入在时间上的滞后效应,只表达输出与输入的映射关系。反馈式神经元网络可以用离散变量也可以用连续取值,考虑输出与输入之间在时间上和延迟,需要用动态方程来描述系统的模型。(2) 、前馈型网络的学习主要采用误差修正法(如 BP 算法) ,计算过程一般比较慢,收敛速度也比较慢。而反馈型网络主要采用 Hebb 学习
6、规则,一般情况下计算的收敛速度很快。反馈网络也有类似于前馈网络的应用,例如用作联想记忆或分类,而在优化计算方面的应用更能显出反馈网络的特点。2、 试述离散型 Hopfield 神经元网络的结构及工作原理。(1) Hopfield 神经元网络的结构如下: 这种网络是一种单层网络,由 n 个单元组成。每个神精元既是输入单元,又是输出单元;各节点一般选用相同的转移函数,且为符号函数,即: 为网络的输入;为网络的输出;为网络在时刻 t 的状态,其中 t0,1,2, 为离散时间变量。Wij 为从 Ni 到 Nj 的连接权值,Hopfield 网络为对称的即有Wij = Wji 。)sgn()(21 xf
7、xfnnnyy,),(21 nntvvtv ,)() xxN1 N2 Nn-1 Nnx1 x2 xn-1 xny1 y2 Yn-1 ynV1(t)V2(t) Vn-1(t) Vn(t)w21Wn-1 2(2) 、工作原理:、网络经过训练后,可以认为网络处于等待工作状态,对网络给定初始输入 x 时,网络就处于特定的初始状态,由此初始状态开始运行,可以得到网络的下一个输出状态。、这个输出状态通过反馈回送到网络的输入端,作为网络下一个阶段的输入信号,这个输入信号可能与初始输入信号不同,由这个新的输入又可得到下一步的输出,如此重复。、如果网络是稳定的,经过若干次反馈运行后网络将会达到稳态。、Hopfi
8、eld 网络的工作过程可用下式表示: )()1(01jniijjjjj tvwftvx研究生神经网络试题 A 卷参考答案一、名词解释(共 5 题,每题 5 分,共计 25 分) 1、泛化能力答:泛化能力又称推广能力,是机器学习中衡量学习机性能好坏的一个重要指标。泛化能力主要是指经过训练得到的学习机对未来新加入的样本(即测试样本)数据进行正确预测的能力。2、有监督学习答:有监督学习又被称为有导师学习,这种学习方式需要外界存在一个“教师” ,她可以对一组给定输入提供应有的输出结果,学习系统可根据已知输出与实际输出之间的差值来调节系统参数。3、过学习答:过学习(over-fitting) ,也叫过拟
9、和。在机器学习中,由于学习机器过于复杂,尽管保证了分类精度很高(经验风险很小) ,但由于 VC 维太大,所以期望风险仍然很高。也就是说在某些情况下,训练误差最小反而可能导致对测试样本的学习性能不佳,发生了这种情况我们称学习机(比如神经网络)发生了过学习问题。典型的过学习是多层前向网络的 BP 算法4、Hebb 学习规则答:如果两个神经元同时兴奋(即同时被激活),则它们之间的突触连接加强。如果用 、 表示神经元 i 和 j 的激活值(输出), 表示两个神经元之间的连ivj ij接权,则 Hebb 学习规则可以表示为: ,这里 表示学习速率。ijijwvHebb 学习规则是人工神经网络学习的基本规
10、则,几乎所有神经网络的学习规则都可以看作 Hebb 学习规则的变形。5、自学习、自组织与自适应性答:神经网络结构上的特征是处理单元的高度并行性与分布性,这种特征使神经网络在信息处理方面具有信息的分布存储与并行计算而且存储与处理一体化的特点。而这些特点必然给神经网络带来较快的处理速度和较强的容错能力。能力方面的特征是神经网络的自学习、自组织与自性适应性。自适应性是指一个系统能改变自身的性能以适应环境变化的能力,它包含自学习与自组织两层含义。自学习是指当外界环境发生变化时,经过一段时间的训练或感知,神经网络能通过自动调整网络结构参数,使得对于给定输入能产生期望的输出。自组织是指神经系统能在外部刺激
11、下按一定规则调整神经元之间的突触连接,逐渐构建起神经网络。也就是说自组织神经元的学习过程,完全是一种自我学习的过程,不存在外部教师的示教。二、问答题(共 7 题,每题 8 分,共计 56 分)3、人工神经网络是模拟生物神经网络的产物,除相同点外,它们还存在哪些主要区别?答; 1单元上的差别 对于生物神经元而言,影响突触传递信息强度的因素很多、很复杂。如突触前微细胞的大小与多少、神经传递化学物质含量的多少、神经传递化学物质释放的速度、突触间隙的变化、树突的位置与大小等诸多因素都会对突触电位产生影响,从而影响神经元的输出脉冲响应。而人工神经元则忽略了这些影响,输入、输出关系十分简单。2信息上的差别
12、 生物神经元传递的信息是脉冲,而人工神经元传递的信息是模拟电压。3规模与智能上的差别 目前,人工神经网络的规模还远小于生物神经网络,网络中神经元的数量一般在 104 个以下,显然,其智能也无法与生物神经网络相比。4、感知器神经网络存在的主要缺陷是什么?答: 1)由于感知器的激活函数采用的是阀值函数,输出矢量只能取 0 或 1,所以只能用它来解决简单的分类问题;2)感知器仅能够线性地将输入矢量进行分类。理论上已经证明,只要输人矢量是线性可分的,感知器在有限的时间内总能达到目标矢量;3)感知器还有另外一个问题,当输入矢量中有一个数比其他数都大或小得很多时,可能导致较慢的收敛速度。5、请比较前馈型神
13、经网络与反馈型神经网络的异同点。(8 分)答:前馈型神经网络只表达输入输出之间的映射关系,实现非线性映射;反馈型神经网络考虑输入输出之间在时间上的延迟,需要用动态方程来描述,反馈型神经网络是一个非线性动力学系统。(1) 前馈型神经网络的学习训练主要采用 BP 算法,计算过程和收敛速度比较慢;反馈型神经网络的学习主要采用 Hebb 规则,一般情况下计算的收敛速度很快,并且它与电子电路有明显的对应关系,使得网络易于用硬件实现。(2) 前馈型神经网络学习训练的目的是快速收敛,一般用误差函数来判定其收敛程度;反馈型神经网络的学习目的是快速寻找到稳定点,一般用能量函数来判别是否趋于稳定点。(3) 两者都
14、有局部极小问题。6、BP 算法的基本思想是什么,它存在哪些不足之处?(9 分)答:BP 算法(即反向传播法)的基本思想是:学习过程由信号的正向传播与误差的反向传播两个过程组成。1)正向传播:输入样本 输入层各隐层(处理)输出层注 1:若输出层实际输出与期望输出(教师信号)不符,则转入 2) (误差反向传播过程)2)误差反向传播:输出误差(某种形式) 隐层(逐层)输入层其主要目的是通过将输出误差反传,将误差分摊给各层所有单元,从而获得各层单元的误差信号,进而修正各单元的权值(其过程,是一个权值调整的过程) 。注 2:权值调整的过程,也就是网络的学习训练过程(学习也就是这么的由来,权值调整) 。虽
15、然 BP 算法得到广泛的应用,但它也存在自身的限制与不足,其主要表现在于它的训练过程的不确定上。具体说明如下:1)易形成局部极小(属贪婪算法,局部最优)而得不到全局最优;BP 算法可以使网络权值收敛到一个解,但它并不能保证所求为误差超平面的全局最小解,很可能是一个局部极小解。2)训练次数多使得学习效率低下,收敛速度慢(需做大量运算) ;对于一些复杂的问题,BP 算法可能要进行几小时甚至更长的时间的训练。这主要是由于学习速率太小所造成的。可采用变化的学习速率或自适应的学习速率来加以改进。3)隐节点的选取缺乏理论支持;4)训练时学习新样本有遗忘旧样本趋势1、人工神经网络:在对人脑神经网络基本认识的
16、基础上,用数理方法从信息处理的角度对人脑神经网络进行抽象,并建立某种简化模型,就称为人工神经网络。2、自适应:自适应性是指一个系统能改变自身的性能以适应环境变化的能力。3、自学习:当外界环境发生变化时,经过一段时间的训练或感知,神经网络能通过调整网络结构参数,使得对给定输入能产生期望的输出。4、自组织:神经系统能在外部刺激下按一定规则调整神经元之间的突触连接,逐渐构建起神经网络,这一构建过程称为网络的自组织。5、泛化能力:BP 网络训练后将所提取的样本对中的非线性映射关系存储在权值矩阵中,在其后的工作阶段,当向网络输入训练时未曾见过的非样本数据时,网络也能完成由输入空间向输出空间的正确映射。6
17、、模式:模式是对某些感兴趣的客体的定量描述或结构描述,模式类是具有某些共同特征的模式的集合7、分类:分类是在类别知识等导师信号的指导下,将待识别的输入模式分配到各自的模式类中去。8、聚类:无导师指导的分类称为聚类,聚类的目的是将相似的模式样本划归一类,而将不相似的分离开,其结果实现了模式样本的类内相似性和类间分离性。9、死节点:在训练过程中,某个节点从未获胜过且远离其他获胜节点,因此它们的权向量从未得到过调整。10、网络吸引子:若网络的状态 ,则成称 X 为网络的吸引子。)(fTWX11、人工神经网络发展阶段及标志:可分为四个时期:启蒙时期开始于 1890 年 W.James关于人脑结构与功能
18、的研究,结束于 1969 年 Minsky 和 Papert 出版的感知器一书;低潮时期开始于 1969 年,结束于 1982 年 Hopfield 发表的著名的文章神经网络和物理系统;复兴时期开始于 J.J.Hopfield 的突破性研究论文,结束与 1986 年 D.E.Rumelhart 和J.L.McClelland 领导的研究小组编写出版的并行分布式处理一书。高潮时期以 1987 年首届国际神经网络学术会议为开端,迅速在全世界范围内掀起人工神经网络的研究应用热潮。12、神经网络的基本特征:结构上的特征是处理单元的高度并行性与分布性,这种特征使神经网络在信息处理方面具有信息的分布存储与
19、并行计算、存储与处理一体化的特点。而这些特点必然给神经网络带来较快的处理速度和较强的容错能力。能力方面的特征是神经网络的自学习、自组织和自适应性。自适应性是指一个系统能改变自身的性能以适应环境变化的能力,它包含自学习和自组织两层含义。自学习是指当外界环境发生变化时,经过一段时间的训练或感知,神经网络能通过调整网络结构参数,使得对给定输入能产生期望的输出。自组织是指神经系统能在外部刺激下按一定规则调整神经元之间的突触连接,逐渐构建起神经网络。13、人脑神经元的基本结构与功能:神经元在结构上由细胞体、树突、轴突和突触四部分组成 功能:细胞体:处理信息的功能 树突:输入信息 轴突:输出信息 突触:传
20、递信息的节点14、人脑信息传递过程:神经电脉冲神经递质产生神经递质释放递质与受体结合电生理反应突触前 突触间隙 突触后15、BP 网络的主要能力是什么?答:1、非线性映射能力 2、泛化能力 3、容错能力16、BP 算法的缺陷及改进方案BP 算法的缺陷易形成局部极小而得不到全局最优;训练次数多,使得学习效率低,收敛速度慢;隐节点的选取缺乏理论指导;训练时学习新样本有遗忘旧样本的趋势。改进方案:1 增加动量项2 自适应调节学习率3 引入陡度因子17、对输入、输出数据进行尺度变换的主要原因是什么?网络的各个输入数据常常具有不同的物理意义和不同的量纲,如某输入分量在范围内变化,而另一输入分量则在 范围
21、内变化。尺度变换使所有分510 5-10量都在 或 之间变化,从而使网络训练一开始就给各输入分量以同等重要的地位;-BP 网的神经元均采用 Sigmoid 转移函数,变换后可防止因净输入的绝对值过大而使神经元输出饱和,继而使权值调整进入误差曲面的平坦区;Sigmoid 转移函数的输出在或 之间,作为教师信号的期望输出数据如不进行变换处理,势必使数值大的分10-量绝对误差大,数值小的分量的绝对误差小,网络训练时只针对输出的总误差调整权值,其结果是在总误差中占份额小的输出分量相对误差较大,对输出分量进行尺度变换后这个问题可迎刃而解。18、BP 网络初始值的设计的原则和方法?答:原则:使每个神经元一
22、开始都工作在其转移函数变化最大的位置。方法: 使初始权值足够小; 使初始值为+1 和-1 的权值数相等。应用中对隐层权值可采用第一种方法,而对输出层可采用第二种办法。19、胜者为王学习规则的三个步骤。向量归一化 首先将自组织网络中的当前输入模式向量 X 和竞争层中各神经元对应的内星向量 全部进行归一化处理,得到),21jmW(和 。寻找获胜神经元 当网络得到一个输入模式向量 时,竞争),21(jmW X层的所有神经元对应的内星权向量 均与 进行相似性比较,将与 最),21(j X相似的内星权向量判为竞争获胜神经元,其权向量记为 。测量相似性的方法是对 和*j jW计算欧式距离(或夹角余弦): (可补充)网络输出X minX,21* jjj W与权值调整 胜者为王竞争学习算法规定,获胜神经元输出为 1,其余输出为零。20、SOM 网权值初始化的原则和一般方法有哪些?答:SOM 网的权值一般初始化为较小的随机数,这样做的目的是使权向量充分分散在样本空间。但在某些应用中,样本整体上相对集中于高维空间的某个局部区域,权向量的初始