神经网络在数学建模竞赛中的应用.doc

上传人:h**** 文档编号:125268 上传时间:2018-07-09 格式:DOC 页数:52 大小:2.51MB
下载 相关 举报
神经网络在数学建模竞赛中的应用.doc_第1页
第1页 / 共52页
神经网络在数学建模竞赛中的应用.doc_第2页
第2页 / 共52页
神经网络在数学建模竞赛中的应用.doc_第3页
第3页 / 共52页
神经网络在数学建模竞赛中的应用.doc_第4页
第4页 / 共52页
神经网络在数学建模竞赛中的应用.doc_第5页
第5页 / 共52页
点击查看更多>>
资源描述

1、 1 第 1 章 引言 1.1 人工神经网络的介绍 人工神经网络( Artificial Neural Networks, ANN) , 亦称为神经网络( Neural Networks,NN) ,是由大量的处理单元(神经元 Neurons) 广泛互联而成的网络,是对大脑的抽象、简化和模拟,反映人脑的基本特性 .人工神经网络的研究是从人脑的生理结构出发来研究人的智能行为,模拟人脑信息处理的功能 .它是根植于神经科学、数学、物理学、计算机科学及工程等科学的一种技术 . 人工神经网络是由简单的处理单元所组成的大量并行分布的处理机,这种处理机具有储存和应用经念知识的自然特性,它与人脑的相似之处概括两

2、个方面:一是通过学习过程利用神经网络从外部环境中获取知识;二是内部神经元(突触权值)用来存储获取的知识信息 . 人工神经网络具有四个基本特征: ( 1)非线性 非线性关系是自然界的普遍特性 .大脑的智慧就是一种非线性现象 .人工神经元处于激活或抑制二种不同的状态,这种行为在数学上表现为一种非线性关系 .具有阈值的神经元构成的网络具有更好的性能,可以提高容错性和存储容量 . ( 2)非局限性 一个神经网络通常由多个神经元广泛连接而成 .一个系统的整体行为不仅取 决于单个神经元的特征,而且可能主要由单元之间的相互作用、相互连接所决定 .通过单元之间的大量连接模拟大脑的非局限性 .联想记忆是非局限性

3、的典型例子 . ( 3)非常定性 人工神经网络具有自适应、自组织、自学习能力 .神经网络不但处理的信息可以有各种变化,而且在处理信息的同时,非线性动力系统本身也在不断变化 .经常采用迭代过程描写动力系统的演化过程 . ( 4)非凸性 一个系统的演化方向,在一定条件下将取决于某个特定的状态函数 .例如能量函数,它的极值相应于系统比较稳定的状态 .非凸性是指这种函数有多个极值,故系统具有多个较稳 定的平衡态,这将导致系统演化的多样性 . 人工神经网络是近年来的热点研究领域,涉及到电子科学技术、信息与通讯工程、计算机科学与技术、电器工程、控制科学与技术等诸多学科,其应用领域包括:建模、时间序列分析、

4、模式识别和控制等,并在不断的拓展 .本文正是居于数学建模的神经网路应用 . 1.2 人工神经网络发展历史 20世纪 40年代中期期,在科学发展史上出现了模拟电子计算机和数字电子计算机两种新的计算工具和一种描述神经网络工作的数学模型 .由于电子技术 (特别是大规模、超大规模集成电路 )的发展,使数字电子计算机作为高科技计算工 具已发展到当今盛世地步,而人工神经网络模拟仿真生物神经网络的探索则经历了半个世纪的曲折发展道路 . 2 1.2.1 兴起阶段 1943 年心理学家 W S McCulloch 和数学家 Pitts 首先以数理逻辑的方法研究用人工神经网络模拟、仿真和近似生物神经网络的探索,并

5、提出 M P 神经元模型 .1949 年D.O Hebb 从心理学的角度提出了至今仍对神经网络理论有着重要影响的 Hebb 学习法则 .50年代末到 60 年代初,神经网络系统已开始作为人工智能的一条途径而受到人们的重视 .1961 年 E Rosenblatt 提出了著名的感知 机 (Perceptron)模型 .这个模型由简单的阀值性神经元构成,初步具备了诸如学习性、并行处理、分布存贮等神经网络的一些基本特征,从而确立了从系统角度进行人工神经网络研究的基础 . 1962 年 Widrow 提出了主要适用于自适应系统的自适应线性元件 (Adaline)网络 .神经网络的研究进入了一个高潮 .

6、 1.2.2 萧条阶段 在整个 70 年代中,对神经 网络理论的研究进展缓慢,原因主要来自于科技界漫不经心的对待和数字 计算机飞速发展的冲突,但并没有完全停顿下来 .世界上一些对神经网络抱有坚定信心和严肃科学态 度 的学者 们,没有放弃他们的努力 .在这期间,Grossberg 提出了自适应共振理论 (ART);芬兰学者 Kohono 提出了自组织映射理论(SOM);日本的福岛邦彦提出了认知机 (Cognitron)模型,随后又提出了改进至新认知机(Neocognitron)模型;另一位日本学者中野馨提出了联想记忆模型一联想机(Associatron);东 京大学的甘利俊一博土则一直致力于数学

7、理论解释神经网络 . 70 年代末期以来,复杂行为系统理论 (如耗散结构、协同学、混吨 )的出现,人们认识到人工智能、联想记忆学习算法、信息优化组合处理及杉式 识别的重要性,极大地推动了人工神经网络的发展 . 1.2.3 兴盛阶段 进入 80 年代,特别是 80 年代末期,神经网络的研究从复兴很快转入了新的热网 .主要原因来自 两个方面:一方面经过十几年迅速发展起来的以逻辑符号处理为主的人工智能理论和 Von Neumann 计算机在处理诸如视觉、听觉、形象思维、联想记忆等智能信息处理问题上受到了挫折;另一方面, 80 年代并行分布处理模式的神经网络本身的研究成果,使人们看到了新的希望 .这一

8、时期首先要提到的是美国加州理工学院的物理学家Hopfield 的开拓性工作 .1982 年他提出了一个新的神经网 络模型 Hopfield 网络模型,并首次引入了网络能量函数概念,使网络稳定性研究有了明确的判据 .尤其是 1986年 R Mmel hart 和 McCelland 及其研究小组提出的误差逆传播学习算法,成为至今影响最大的一种网络学习方法 . 到 90 年代以后,人工神经网络从理论研究到软件开发、软件实 现、各个 学科领域广泛应用与相互渗透 等诸多方面取得了全面的发展 .有关神经网络的国际学术组织纷纷成立,学术会议纷纷召开,学术刊物纷纷创刊 .神经网络理论已涉及到了神经生理科学、

9、认识科学、数理科学、心理学、信息科学、计算机科学、微电 子学、光学、生物电子学等众多学科,是一门新兴的、综合性的前沿学科 .针对不同应用目的的软件开发全面展开,网络计算机的硬件实现方面也取得了一些实实在在的成绩 .神经网络的应用,已渗透到模式识别、图像处理、非线性优化、语音处理、自然语言理解、自动目标识别、机器人、专家系统等各个领域,并取得了令人瞩目的成果 . 总之,以 Hopfield 教授 1982 年发表的论文为标志,掀起了神经网络的研究热3 潮 .1987 年 6月,在美国加州举行了第一届 NN 国际会议,有一千多名学者参加,并成立了国际 NN学会,以后每年召开两次国际联合 NN大会(

10、 IJCNN) ,其他国际学术会议也都列有 NN 主题 . 较有影响的国际刊物有: IEEE Transaction on Neural Network和 Neural Network . 美国 IBM、 AT&T、贝尔实验室、神经计算机公司、各高校、美国政府制定了“神经、信息、行为科学( NIBS)”计划,投资 5.5 亿美元作为第六代计算机的研究基础;美国科学基金会、海军研究局和空军科学研究部三家投资一千万美元;美国国防部 DARPA 认为 NN“看来是解决机器智能的唯一希望”“这是一项比原子弹工程更重要的计术”投资四亿美元 .主要研究目标:目标识别与追踪、连续语音识别,声纳信号辨别 .

11、日本的富士通、日本电气、日立、三菱、东芝急起直追 .1988 年日本提出了所谓的人类尖端科学计划( Human Frontier Science Program) ,即第六代计算机研究计划 .法国提出了“尤里卡”计划,还有德国的“欧洲防御”和前苏联的“高技术发展”等等 . 我国于 1989 年在北京召开了一个非正式的 NN 会议; 1990 年 12 月在北京召开了中国 NN 大会; 1991 年在南京成立中国 NN 学会,由国内十五个一级学会共同发起“携手探智能,联盟攻大关”的 863 高 技术研究计划;自然科学基金、国防科技预研究基金也都列入了 NN研究内容 . 1.3 人工神经网络 1.

12、3.1 生物神经元模型 在人类大脑皮层中大约有 100 亿个神经元, 60万亿个神经突触以及他们的联接体 .单个神经元处理一个事件需要 310 秒,而在硅芯片中处理一事件只需 910 秒 .但人脑是一个非常高效的结构,大脑中每秒钟每个动作的能量约为 1610 焦耳 . 神经元是基本的信息处理单元 .生物神经元主要由树突、轴突和突触组成 .其 结构示意如如图 1-1所示 . 其中树突是由细胞体向外伸出的,有不规则的表面和许多较短的分支 .树突 图 1-1 生物神经元模型 相当于信号的输入端,用于接收神经冲动 .轴突由细胞体向外伸出的最长的一条分支,即神经纤维 .相当于信号的输出电缆,其端部的许多

13、神经末梢为信号输出端子,用于传突触 树突 轴突 神经末梢 细胞膜 细胞质 细胞核 4 出神经冲动 .神经元之间通过轴突(输出)和树突(输入)相互联接,其接口称为突触 .每个细胞约有 104103 个突触 .神经突触是调整神经元之间相互作用 的基本结构和功能单元,最通常的一种神经突触是化学神经突触,它将得到的电信号化成化学信号,再将化学信号转化成电信号输出 .这相当于双接口设备 .它能加强兴奋或抑制作用,但两者不能同时发生 .细胞膜内外有电位差,越位 mv10020 ,称为膜电位 .膜外为正,莫内为负 . 神经元作为信息处理的基本单元,具有如下重要的功能 . 1) 可塑性:可塑性反映在新突触的产

14、生和现有的神经突触的调整上, 可塑性使适应周围的环境 . 2)时空整合功能:时间整合功能表现在不同时间、同一突触上;空间整合功能表现在同 一时间、不同突触上 . 3)兴奋与抑制状态:当传入冲动的时空整合结果,使细胞膜电位升高,超过被称为动作电位的阀值(约为 40mv) ,细胞进入兴奋状态,产生神经冲动,由突触输出;同样,当膜电位低于阀值时,无神经冲动输出,细胞进入抑制状态 . 4)脉冲与电位转换:沿神经纤维传递的电脉冲为等幅、恒宽、编码 )10060( mv 的离散脉冲信号,而细胞电位变化为连续信号 .在突触接口处进行“数 /模”转换 .神经元中的轴突非长和窄,具有电阻高、电压大的特性,因此轴

15、突可以建模成阻容传播电路 . 5)突触的延时 和不应期:突触对神经冲动的传递具有延时和不应期,在相邻的二次冲动之间需要一个时间间隔 .在此期间对激励不响应,不能传递神经冲动 . 6)学习、遗忘和疲劳:突触的传递作用有学习、遗忘和疲劳的过程 . 1.3.2 人工神经网络的模型 人工神经网络是由大量处理单元广泛互连而成的网络,是人脑的抽象、简化、模拟,反映人脑的基本特性 .一般神经元模型应该具备三个要素: ( 1)具有一组突触或联接,常用 ijw 表示神经元 i 和神经元 j 之间的联系强度,或称之为权值 .与人脑神经元不同,人工神经元权值的取值可在负值与正值之间 . ( 2)具有反映生物神经元时

16、空整合功能的输入信号累加器 . ( 3)具有激励函数用于限制神经元输出 .激励函数将输出信号压缩(限制)在一个允许范围内,使其成为有限值,通常,神经元输出的扩充范围在 1,0 或 1,1 闭区间 . 一个典型的人工神经元模型如图 1-2 所示 . 图 1-2 人工神经元模型 其中 ),2,1( Njx j 为神经元 i 的输入信号, ijw 为突触强度或联接权 . iu 是由输入信号线性组合后的输出,是神经元 i 的净收入 . i 为神经元的阀值或称为偏差用 ib 表示, iv1x 2x jxNx 1iw 2iw ijw iNw iu iv i )(f i 5 为经偏差调整后的值,也称为神经元

17、的局部感应区 . j jiji xwu( 1-1) iii buv ( 1-2) )(f 是激励函数, iy 是神经元 i 的输出 . j jjiji bxwfy( 1-3) 激励函数 )(f 可取不同的函数,但常用的基本激励函数有以下三种: ( 1)阀值函数( Threshold Function) 00 0,1)( vvvf 若, 若 ( 1-4) 该函数通常也称为阶跃 函数,常用 )(tu 表示,如图 1-3a 所示 .若激励函数采用阶跃函数,则图 1-2 所示的人工神经元模型即为著名的 MP( McCulloch-Pitts)模型 .此时神经元的输出取 1 或 0,反映了神经元的兴奋或

18、抑制 . 此外,符号函数 )(tSgn 也常常作为神经元的激励函数,如图 1-3b 所示 . 0,1 0,1)(iii vvvS g n 若若 ( 1-5) u ( t )10t图 1-3 a 阀值函数 6 si g n ( t )10-1图 1-3 b 阀值函数 ( 2)分段线性函数( Piecewise-Linear Function) 1,111,1,1)(vvvvvf ( 1-6) 该函数在 -1,+1线性区内的放大系数是一致的,如图 1-4 所示,这种形式的激励函数可看作是非线性放大器的近似,以下是两种情况是分段线性函数的特殊形式: 01-1-11图 1-4 分段线性函数 1)若在执

19、行中保持线性区域而使其不进入饱和状态,则会产生线性组 合器 . 2)若线性区域的放大倍数无限大,则分段线性函数简化为阀值函数 . ( 3) Sigmoid 函数 7 Sigmoid 函数也称 s 函数 .到目前为止,它是人工神经网络中最常用的激励函数 .s 型函数的定义如下: )e x p (1 1)( avvf ( 1-7) 其中 a 为 Sigmoid 函数 的斜率参数,通过改变参数 a ,我们会获取不同斜率的Sigmoid 函数,如图 1-5 所示 . - 1 0 -8 -6 -4 -2 0 2 4 6 8 1000 . 10 . 20 . 30 . 40 . 50 . 60 . 70

20、. 80 . 91a 增大图 1-5 Sigmoid 函数 但斜率 参数接近无穷大时,此函数转化为简单的阀值函数,但 Sigmoid 函数对应 0到 1 一个连续区域,而阀函数对应的只是 0 和 1 亮点,此外 Sigmoid 函数是可微的,而阀值函数是不可微的 . Sigmoid 函数也可用双曲正切函数来表示,如图 1-6 所示 . )tanh()( vvf ( 1-8) - 1 0 -8 -6 -4 -2 0 2 4 6 8 10-1- 0 . 500 . 51vt a n h ( v )图 1-6 双曲正切函数 由式( 1-8)定义的 Sigmoid 类型激励函数所得到的负责具有分析价值

21、 . 8 1.4 人工神经网络的分类及学习规则 前面介绍人工神经元模型,将大量的神经元进行连接可构成人工神经网络 .神经网络中神经元的联结方式与用于训练网络的学习算法是紧密结合的,可以认为应用于神经网络设计中的学习算法是被结构化了的 . 1.4.1 人工神经网络的分类 本文将网络结构和学习算法相结合,对人工神经网络进行分类 . 1. 单层前向网络 所谓单层前向网络是指拥有的计算节 点(神经元)是“单层”的,如图 1-7 所示 .这里原节点个数的“输入层”看作一层神经元,因为该“输入层”不具有执行计算的功能 .后面介绍的单层感知器属于单层前向网络 . 2. 多层前向网络 多层前向网络和单层前向网

22、络的区别在于:多层前向网络含有一个或多个的 隐含层,其中计算节点被相应地称为隐含神经元或隐含单元,如图 1-8 所示 . 图 1-8 所示的多层前向网络由含有 10 个神经元输入层、含有 4 个神经元隐含层和 2个神经元输出层所组成 . 网络输入层中的每个源节点的激励模式(输入向量)单元组成了应用于第二层(如第一隐层)中神经元(计算 节点)的输入信号,第二层输出信号成为第三层的输入,其余层类似 .网络每一层的神经元只含有作为它们输入前一层的输出信号,网络输出层(终止层)神经元的输出信号组成了对网络中输入层(起始层)源节点产生的激励模式的全部响应 .即信号从输入层输入,经隐含层传给输出层,由输出

23、层得到输出信号 . 图 1-7 单层前向网络 9 神 经 元 隐 含 层 神 经 元 输 出 层源 节 点 输 入 层图 1-8 多层前向网络 通过加入一个或更多的隐层,使网络能提取出更高的统计,尤其当 输入层规模庞大时,隐神经元提取高序统计数据的能力便显得格外重要 . 后面我们介绍的多层感知器属于多层前向网络 . 3. 反馈网络 所谓反馈网络是指在网络中至少含有一个反馈回路的神经网络 .反馈网络可以包含一个单层神经元,其中每个神经元将自身的输出信号反馈给其他所以神经元的输入,如图 1-9 所示,图中所示的网络即为著名的 Hopfied 网络 .图 1-10 所示的是另一类型的含有隐层的反馈网

24、络,图中的反馈联结起始于隐神经元和输出神经元 .图 1-9 和图 1-10 所示的网络结构中没有自反馈回路 .自反馈是指一个神经元的输出反馈至其输入,含有 自反馈的网络也属于反馈网络 . Z- 1Z- 1Z- 1Z- 1图 1-9 无自反馈和隐含层的反馈网络 10 Z- 1Z- 1Z- 1Z- 1图 1-10 含有隐含层的反馈网络 此外,常见的人工神经网络该有竞争神经网络和随机神经网络,在这里就不详加探讨 . 1.4.2 神经网络的学习 神经网络的学习也称为训练,它是通过向环境学习而获取知识并改进自身性能,是NN 的一个重要特点 .一般情况下,性能的改善是按某种预定的度量通过调节自身参数(如权值)逐步达到的,学习 方式(按环境所提供信息的多少分)有三种 . ( 1) 监督学习(有教师学习) 这种学习方式需要外界存在一个“教师”,他可对一组给定输入提供应有的输出结果(正确答案) .这组已知的输入 输出数据称为训练样本集 .学习系统( NN)可根据已知的输出与实际输出之间的差值(误差信号)来调节系统参数 .(如图 1-11)所示 . 环 境描 述 环 境 状 态的 信 号教 师学 习系 统+-实 际响 应应 有响 应误 差 信 号图 1-11 监督学习框图

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育教学资料库 > 复习参考

Copyright © 2018-2021 Wenke99.com All rights reserved

工信部备案号浙ICP备20026746号-2  

公安局备案号:浙公网安备33038302330469号

本站为C2C交文档易平台,即用户上传的文档直接卖给下载用户,本站只是网络服务中间平台,所有原创文档下载所得归上传人所有,若您发现上传作品侵犯了您的权利,请立刻联系网站客服并提供证据,平台将在3个工作日内予以改正。