人工神经网络在认知科学的研究中的应用状况的报告.doc

上传人:文****钱 文档编号:42649 上传时间:2018-05-09 格式:DOC 页数:32 大小:2.33MB
下载 相关 举报
人工神经网络在认知科学的研究中的应用状况的报告.doc_第1页
第1页 / 共32页
人工神经网络在认知科学的研究中的应用状况的报告.doc_第2页
第2页 / 共32页
人工神经网络在认知科学的研究中的应用状况的报告.doc_第3页
第3页 / 共32页
人工神经网络在认知科学的研究中的应用状况的报告.doc_第4页
第4页 / 共32页
人工神经网络在认知科学的研究中的应用状况的报告.doc_第5页
第5页 / 共32页
点击查看更多>>
资源描述

1、学号3080419285题目类型论文设计、论文、报告桂林理工大学GUILINUNIVERSITYOFTECHNOLOGY本科毕业设计论文题目人工神经网络在认知科学的研究中的应用状况的报告学院机械与控制工程学院专业方向自动化(控制)班级学生指导教师2015年6月1日桂林理工大学本科毕业设计论文I摘要人工神经网络是一种基于生物神经网络结构和机制的算法或模型。认知科学是一种研究人类大脑处理认知信号并做出反应过程的科学。利用对人类认知现象的了解来设计的人工神经网络具有很好的处理信息的能力,这对现实应用很有帮助。现在,人工神经网络模拟认知科学已经成为了人工智能的重要分支。首先简单说明了人类大脑神经元特点

2、,生物神经元的简单组成和复杂联系构成了生物神经网络模型。其次简述了人工智能和认知科学的历史,从古希腊哲学认知研究到现代的人工神经网络模拟认知。接着总结了典型的人工神经网络结构,共有十五组经典神经网络模型。然后重点论述了十个近年来关于人工神经网络模拟认知的模型,主要从模型模拟认知的优势、模型结构、模型信息处理过程和模型应用等方面阐述。接着讲述作者总结的人工神经网络模拟认知现象的发展规律,即模型机制的完全生物性与部分生物性问题。再接着介绍了五个关于人工智能神经网络国际会议,特别列出了会议的投稿主题。最后,对人工神经网络模拟认知的发展趋势做预测,多学科综合和复杂性成为未来神经网络研究的方向。关键词人

3、工神经网络;认知;国际会议桂林理工大学本科毕业设计论文IITHEREPORTTHATTHESITUATIONOFARTIFICIALNEURALNETWORKONTHESTUDYOFCOGNITIONSCIENCEINRECENTYEARSSTUDENTLIANGCHENGHETEACHERXUJIANYUABSTRACTARTIFICIALNEURALNETWORKWHICHISBASEDONTHESTRUCTUREANDTHEORYOFBIOLOGICALNEURALNETWORKISALGORITHMANDMODELCOGNITIONSCIENCEISASUBJECTWHICHDISCU

4、SSESTHEPROCESSOFDISPOSINGINFORMATIONANDRESPONSEARTIFICIALNEURALNETWORKHAVETHECAPABILITYOFDEALINGWITHINFORMATIONWHICHISDESIGNEDFORUNDERSTANDBIOLOGICALCOGNITIONPHENOMENONONCOGNITIONSCIENCEBETTERTHANOTHERMODEL,ANDITISUSEFULTOTHENEEDOFTHEREALITYINRECENTYEARS,ARTIFICIALNEURALNETWORKMODELOFCOGNITIONSCIENC

5、EBECOMEONEBRANCHOFARTIFICIALINTELLIGENCEFIRST,WEINTRODUCETHATTHECHARACTERISTICSOFHUMANBEINGOFBRAINNEURONS,WHICHISMADEUPOFSIMPLEELEMENTANDCOMPLEXCONNECTION,ANDTHEHISTORYOFTHEARTIFICIALINTELLIGENCEANDCOGNITIVESCIENCEFROMANCIENTGREEKPHILOSOPHYTOARTIFICIALNEURALNETWORKMODELOFCOGNITIONINRECENTYEARSNEXT,W

6、ESUMMARIZETHATTHETYPICALSTRUCTUREOFTHEARTIFICIALNEURALNETWORK,TOGETHERFIFTEENNEURALNETWORKMODELSTHEN,WEDISCUSSTHATTHETENARTIFICIALNEURALNETWORKSWHICHAREMODELOFTHECOGNITIONINRECENTYEARS,INCLUDINGTHEMODELOFTHEADVANTAGEOFTHEMODEL,THECOGNITIVESTRUCTUREOFTHEMODEL,THEASPECTSOFINFORMATIONPROCESS,THEUSEOFMO

7、DELSTHEAUTHORSUMMARIZETHATTHEDEVELOPMENTLAWOFARTIFICIALNEURALNETWORK,INCLUDINGALLOFBIOLOGICALMODELANDTHEPARTOFBIOLOGICALMODELANDTHENITINTRODUCESTHATFIVEINTERNATIONALMEETINGSOFARTIFICIALINTELLIGENCENEURALNETWORK,ANDMAKEALISTWHICHISMEETINGCONTRIBUTETHEMEFINALLY,THEARTICLESAIDTHATTHEDEVELOPMENTOFTHEART

8、IFICIALNEURALNETWORKMODELOFCOGNITIVE,WHICHWILLBECOMECOMPLEXANDMULTIDISCIPLINEINTHEFUTUREKEYWORDSARTIFICIALNEURALNETWORK;COGNITION;INTERNATIONALCONFERENCE桂林理工大学本科毕业设计论文III目次摘要IABSTRACTII1引言111基本原理112人工神经网络发展简史213文章内容32对神经网络发展有重要影响的神经网络模型43模拟认知的人工神经网络模型531模拟记忆5311RNETS模型5312非线性动态人工神经网络模型6313竞争网络模型和周期联

9、想记忆模型7314计算机认知神经学模型932模拟注意力10321注意运动推导模型1033模拟情绪12331DUONN模型1234模拟语言12341语法理解模型12342数字空间模型13343多时间周期神经网络模型144人工神经网络模拟认知现象现状165人工智能中关于人工神经网络和认知科学的国际会议1751国际人工智能协会年会1752神经信息处理系统年会1753国际神经网络年会1854国际人工智能联合会议1855国际人工智能工具会议186未来197结论20桂林理工大学本科毕业设计论文IV致谢21参考文献22附录124桂林理工大学本科毕业设计论文11引言11基本原理现代人大脑的平均重量约为1400

10、G,大脑内约含1000亿个神经元,每个神经元与其他神经元间有约1000个连接,大脑内总共约有1000000亿个连接。人脑的基本组成单元是神经元,是一种特殊化学细胞。神经元由树突与轴突组成,树突位于神经元表面,轴突周围有腱鞘。树突与其他神经元轴突末梢相联系,构成突触。神经元间信号传递是一种复杂的生物化学过程电过程。总之,简单神经元的复杂联系构成了人类智能的物质基础。人的智能涉及许多领域,包括感知和认知,语言能力及视觉功能,记忆,学习与知识预测,自适应和鲁邦性,创新和发明,行动和动作,优化,计划、判断和决定,博弈与对策,深层智能因素(意识,感情,意志,注意力,直觉,理解)1。其中认知的研究,是本文

11、讨论的重点1。人工神经网络简称作神经网络,他是一种基于生物神经网络的功能和结构的数学模型或计算模型。神经网络由人工神经元组成,神经元间相互连接构成了神经网络系统。大多数情况下,人工神经网络是自适应系统,在学习期间,他能通过观察流过网络的外部或内部信息来变换他的结构,以适应信息加工的变化。现代神经网络是非线性统计数据模型工具,他们通常是在输入和输出关系复杂的模式或查询数据中得到应用。认知科学是一个交叉性学科,其研究思维和思维过程,探索什么是认知、认知做什么、怎么工作。其研究主要是在人类的智力和行为上,特别是人类的神经系统。在神经系统中信息怎样表述、怎样产生、怎样转换,是认知科学的研究课题。认知科

12、学涉及心理学、人工智能、哲学、神经科学、语言学、社会学、教育学、人类学,其分析层次既有低水平学习和机械式决定又有高水平逻辑和计划,不仅关注神经元的连接而且关注大脑分子组织。在研究人类认知能力中,利用人工神经网络模型来模拟认知能力是一种重要的研究方法。模拟认知利用的是现有已知的认知运行机制,虽然这些机制并不完美,但通过模拟我们还是能利用其解决许多问题,甚至能透过人工神经网络模型进一步了解认知。这类人工神经网络的模拟理论,被称为联结主义。联结主义的原理是神经网络及神经网络间连接机制与学习算法,理论认为人的思维基元是神经元,而不是符号处理过程。人工神经网络发展起于20世纪,认知科学研究起于古希腊哲学

13、,而将人工神经网络用于研究认知科学则是近几十年的事。桂林理工大学本科毕业设计论文212人工神经网络发展简史2早期古希腊哲学,代表人物DESCARTES,DAVIDHUME,IMMANUELKANT,BENEDICTDESPINOZA,NICOLAS,MALEBRANCHE,PIERRECABANIS,LEIBNIZ,JOHNLOCKE,这个时期的认知科学研究与现代认知科学不同,其最终发展成了心理学和哲学。启蒙期1880年美国心理学家WILLIAMJAMES出版了第一部详细论述人脑结构及功能的专著PRINCIPLESOFPSYCHOLOGY,对与学习、联想记忆相关的基本原理做了开创性研究。193

14、0年代到1940年代(自动控制化时期),WARRENMCCULLOCH和WALTERPITTS寻求解释思维的组织原则,第一次提出了人工神经网络。1943年生物学家WSMCCULLOCH和数学家WAPITTS发表了一篇神经网络的文章,提出了神经元的数学模型MP模型。1949年心理学家DONALDOLDINGHEBB出版了名为ORGANIZATIONOFBEHAVIOR的书,提出了HEBB算法的连结权值训练算法和联结主义。1958年计算机学家FRANKROSENBLATT发表文章提出了三层网络特性的神经网络结构,称为“感知机”。1940年代到1950年代,计算机理论和数字计算机的快速发展,ALAN

15、TURING和JOHNVONNEUMANN在认知科学研究中首次运用了现代计算机理论和技术。1959年,NOAMCHOMSKY评论BFSKINNER的书语言行为。提出了为解释语言,我们需要一个产生语法的理论,它不仅能归属内在表达,而且有潜在的顺序特征。1960年电机工程师BERNARDWIDROW和MARCIANHOFF发表了文章ADAPTIVESWITCHINGCIRCUITS实现了人工神经网络的计算机仿真和硬件电路的设计。低潮期1969年MMINSKY和SPAPERT评论“感知机”,认为其存在无法扩展到多层网络的问题。1969年SGROSSBERG和GACARPENTER提出了自适应响应理论

16、模型。1972年TKOHOMEN提出了自组织映射(SOM)理论。同年,JANDERSON也提出了一个相似的“交换存储器”。1973年,CHRISTOPHERLONGUETHIGGINS在他的文献LIGHTHILLREPORT中提到了认知科学的术语。1980年到1983年KUNIHIKOFUKUSHIMA发表了文章NEOCOGNITRON,并开发了许多神经网络结构与训练算法复兴期1982年JOHNJHOPFIELD发表文章提出了HOPFIELD网络。1987年美国电话与电报公司贝尔实验室利用HOPFIELD网络,仿真出耳蜗与视网膜等硬件网络。同年GEHINTON和TJSEJNOWSKI提出学习过

17、程使用模拟退火技术的BLOTZMANN机(波尔兹曼机)。1988年DAVIDERUMELHART和JAMESLMCCELLAND及其领导小组发表了PARALLELDISTRIBUTEDPROCESSING。新时期1987年6月首届国际神经网络学术会议在美国加州圣地亚哥召开,而且在会上成立了国际神经网络学会(INNS)。1989年STEPHENGROSSBERG、TEUVOKOHONEN和SHUNICHIAMARI主持创办了世界第一份神经网络杂志NEURALNETWORK。桂林理工大学本科毕业设计论文313文章内容文章第二部分论述了部分对人工神经网络发展有重大影响的网络模型,然后第三部分重点介绍

18、了近十年内十个模拟人类认知的人工神经网络模型,分别从人工神经网络模型的结构、优势和原理等方面论述。第四部分总结了作者对近年人工神经网络模拟认知现象的发展规律。第五部分讲述了五个国际著名的人工智能会议及投稿主题。第六部分对人工智能特别是人工神经网络模拟认知的发展趋势进行了预测。桂林理工大学本科毕业设计论文42对神经网络发展有重要影响的神经网络模型2PERCEPTRON(感知机)FRANKROSENBLATT(康奈尔大学)在1957年提出的ADALINE(自适应线性单位)和MADALINE(多个ADALINE的组合网络)BERNARDWIDROW(斯坦福大学)在1960年到1962年提出的AVAK

19、ABCHE(雪崩网)SDROSSBERG在1967年提出CERELLATRON(小脑自动机)DMARR麻省理工学院在1969年到1982年提出BACKPROPAGATION(误差反传网络)PWERBOS(哈佛大学)、DAVIDRUMELHART(斯坦福大学)JAMESMCCLELLAND(斯坦福大学)在1979年到1990年提出ADAPTIVERESONANCETHEORY(自适应共振理论ART)有ART1、ART2、ART3三种类型GCARPENTER和SGROSSBERG(波士顿大学)在1976年到1990年提出的BRAINSTATEINABOX(盒中脑BSB网络)JAMESANDERSO

20、N(布朗大学)在1977年提出NEOCOGNITION(新认知机)FUKUSHIMA(日本广播协会)在1978年到1984年提出SELFORGANIZINGFEATUREMAP(自组织特征映射网络)TUEVOKONHONEN(芬兰赫尔辛基技术大学)在1980年提出HOPFIELD网络JOHNHOPFIELD(加州理工大学)在1982年提出BOLTZMANMACHINE(波尔兹曼机)和CAUCHYMACHINE(柯西机)JHINTON(多伦多大学)和TSEJNOWSKI(霍布金斯大学)在1985到1986年提出的BIDIRECTIONALASSOCIATIVEMEMORY(BAM,双向联想记忆网

21、)BAAARTKOSKO(南加州大学)1985年到1988年提出COUNTERPROAGATION(CPN,双向传播网)ROBERTHECHTNIELSEN在1983年提出RADIALBASISFUNCTIONS(RBF,径向基函数网络)BROOMHEADLOWE在1988年提出SUPPORTVECTORMACHINE(SVM,支持向量机)VAPNIK在1992年到1988年提出桂林理工大学本科毕业设计论文53模拟认知的人工神经网络模型31模拟记忆311RNETS模型3在人类大脑中,信息是存储在大脑内神经元中的,不同神经元间不同连接强度构成了特定的信息,这些信息在大脑中被称作记忆。生物大脑的信

22、息存储容量和效率是现代电子计算机的许多倍,如果能模拟出大脑记忆的机制,将会给计算机存储带来深远的影响。RNETS模型是一种模拟记忆现象的存储模型。RNETS中有两个重要的组成部分,训练集和回忆集,其中的神经元分为兴奋神经元和抑制神经元,模型结构见图311,光滑球形是兴奋神经元,尖状球形是抑制神经元,RNETS大约有3000到75000个兴奋神经元组成。在模型中,兴奋神经元到抑制神经元的比率和突触的数量是不等的。RNETS神经网络的存储能力由随机选择兴奋神经元和训练突触估算出来。网络中部分神经元被训练成训练集,训练集中半数兴奋神经元又组成回忆集。网络可以运行100个循环,训练集的数量是持续增长的

23、,直至训练集中每个目标组的错误数量达到目标组尺寸的10。在网络整体尺寸大幅增长下,回忆集的尺寸也是小幅增长的,这可以有效的存储信息。而对于训练集而言,训练集尺寸与网络尺寸要相适应,否则会出现许多错误偏差。训练集对网络整体相对较小时,其错误偏差主要由于神经元中存在虚假的连结,使得训练组不能连结到回忆集。训练集对网络整体相对较大时,错误主要原因则是网络的过度训练。由于存储空间和突触数量是线性的,使得网络间出现密集的连接。图311RNETS模型结构桂林理工大学本科毕业设计论文6RNETS网络模型相对于传统神经网络模型的优势在于,其信息存储能力更强而且更符合生物学上神经系统的运行方式。对于信息存储而言

24、,网络的学习算法和回忆算法是独立于网络结构的,且不需要设定临界值也不需要对突触进行分级。对于符合生物神经系统运行模式而言,模型表现在不仅体现了大脑的物质情况,而且提供了特别的仿生物连接矩阵。虽然模型的生物特征可能会限制其求解更低水平的问题的能力,但是这些特征在非现实突触模拟中是有用的。由于其符合大脑内神经元存储信息的结构,使得他可以模拟许多心理现象,如串行记忆,次级加强,再加工记忆,预测制造,不完整再加工记忆等。他还能模拟在刺激作用下的感官反应,并能通过回忆感官反应的结果来重复运动。他不仅能在特殊刺激下预测行为,也能在没有特殊刺激下预测行为。312非线性动态人工神经网络模型4非线性动态人工神经

25、网络,简称为NDANN模型,他是以非线性动态系统(NDS)理论为基础的人工神经网络。NDS是一个理论方法,其目的是有两点首先,他能作为一个分析数据的工具;第二,他能模拟不同领域的调查研究。在NDS方法中,时间和变化是两个重要的变量。对系统而言,系统随时间而产生的变化是直接与外部环境状况相互联系、相互作用的,系统和环境的相互作用对自组织和复杂行为是非常重要的,非线性动态系统(NDS)理论在微观和宏观上都能反应这些联系。NDS理论可以应用在很多领域中,包括神经科学,感知心理学和认知科学和社会心理学,近来NDS理论已经成为了探测和理解认知现象的必要工具。NDANN模型不仅体现了NDS的性能水平,而且

26、可以模拟神经元活动和低水平认知现象NDANN的结构见图312,X0和Y0表示初始输入状态(刺激);T是网络的迭代数量;W和V是强度矩阵。网络模型由两层组成,模型可以加工在一个周期中流动的双向信息。网络成产生联想记忆和非联想记忆,也就是说,他可以进行有导师学习也可以进行无导师学习。模型两层的大小是不同的,强度矩阵不需要作转换阵操作。而且,网络的每一个单元都对应一个神经元种群,就好像是在生物神经网络或心理学概念上讲述的生物神经元一样。桂林理工大学本科毕业设计论文7图312非线性动态人工神经网络结构由于当前未能全部知晓脑部记忆机制,故模拟记忆现象设计的人工神经网络只能部分模拟记忆过程,这导致模型的信

27、息存储和处理等方面存在缺陷。结合生物记忆机制和NDA原理的NDANN模型可以避免这一缺陷,由于他可以模拟混沌的时间空间行为,因此他也成为一个帮助弥合生物记忆和基于行为模拟的存储模型间差距的有效工具。313竞争网络模型和周期联想记忆模型5竞争网络是通过评估他们的强度空间中训练后的随机变量来进行学习的,网络最大的特点是能在学习环境出现偏差时正常的学习。周期联系记忆(RAM)通常作为模拟不稳定原则的分析器,但是他对环境偏差很敏感。竞争神经网络是由RUMELHART和ZIPSER在1986年提出的,他是一个简单的标准前馈网络,他由两层组成,分别是隐含层和输出层,见图313(A),其中的虚线箭头表示无可

28、调节强度的抑制连接。图313(A)竞争神经网络模型结构桂林理工大学本科毕业设计论文8自适应响应理论模型,简称ART,是CARPENTER和GROSSBERG在1987年提出的,他是一个基于生物学竞争性的网络,他以两个主要问题为基础,一个是共振(GROSSBERG在1976年提出的)一个是新探测器(是VIGILANCE和GROSSBERG在1976年提出的)。共振是一个平衡状态,当一个输出能重新构建输入时,就会出现共振现象,ART1网络仅仅在平衡状态到达时学习。ART1结构见图313(B),他由两层单元,网络有两个距离强度集组成,右边部分是网络的新探测器。图313(B)自适应响应理论模型结构周期

29、联想忆模型,简称RAM,其结构见图313(C),W是强度矩阵,表示一个简单的线性网络,XT是网络在时间T时的状态,灰色正方形式是一个延迟单元。模型规则是由HOPFIELD在1982年提出的,在1977年ANDERSON再次强调了这个原则,模型的参数不会影响到模型的瞬态性能。图313(C)周期联想记忆模型结构桂林理工大学本科毕业设计论文9非线性联想记忆模型,简称NDRAM,他是一个非线性RAM,他能分类灰度值相关的模式,还能在RAMS处于新的连续刺激下学习。在学习算法下,小数量的虚假状态能显著改善了网络的性能。NDRAM的结构见图313(D),这是一个通常的联系记忆模型的主要结构,但是附加了一个

30、新颖探测器,这个探测器是用来计算输入和输出间的联系的。图313(D)NDRAM模型结构学习环境偏差是一个合理的行为,是一种先前不平等。许多证据表明人类大脑能执行一系列认知行为,而不受学习环境偏差影响。无导师学习的联结主义神经网络被用于计算机科学中的机器学习和心理学中的模拟人类认知,但是并不清楚他们对先前不平等是否敏感。从模拟记忆的方式上来分,神经网络模型可分为竞争网络模型和周期联想记忆模型。在仿真实验中,设置两个环境,一个是简单环境,实验RAM模型和竞争神经网络模型,另一个环境是复杂学习环境,实验NDRAM模型和ART1模型。通过对这两大类四个模型的仿真可知,竞争网络模型难以适应学习环境偏差,

31、而周期联想记忆模型则能很好的适应这一偏差。314计算机认知神经学模型6计算认知神经学模型,简称作CCN模型。现代的神经网络理论在模拟感知时是作为一种媒介,他们的优点是与人类大脑运行机制部分相似,包括离散表示、连续流动、把记忆模拟为突触强度等。但是这些模拟方法也有缺点,那就是他们不能完全模拟或尽可能模拟人类大脑的认知过程,构建模型结构时,他们首先考虑的是如何优化自身的模型结构。CCN结构如图314,这个网络结构是ASHBY和CROSSLEY在2011年提出的,粗大的黑色箭头表示信息的流动。从图中可知,模型由早期训练和晚期训练激活,在TAN学习前和其学习后的时期中,环境参数是得到奖励的。最初,刺激

32、不能引起TAN停止,桂林理工大学本科毕业设计论文10因此MSN不能由刺激激起。结果,在刺激开始后PRESMA/SMA单元的激励比暂时不会改变。训练进行一段时间后,TAN由刺激停止,他释放了MSN。这允许MSN接收刺激,并引起激励比在PRESMA/SMA增加超过基准值(SMA补充动力区域,VA丘脑的前腹部核心,VL丘脑的后腹部核心,GPI苍白球内部,MSN中等有刺神经元,TANTONICALLY丘脑。图314计算机认知神经学模型结构CNN模型与传统的人工神经网络认知模型相比,其有许多优点,第一,CCN模型增加了在模拟行为的数量限制。NEWELL提出认知理论在根本上是不能被数据证明的。增加神经行为

33、的数量能减少候选分类模式的数量,而且能减少分类的不均匀。第二,CNN模型能显示出在名义上并不相关的神经科学行为间的关系。第三,在很多情况下,研究神经科学本质会导致惊奇行为的发现,而这些行为很难通过一个纯粹的认知方法来追溯。第四,CNN模型使用符合聚集运作的方法来模拟实验,聚集运作方法能起到预测行为和神经科学数据的作用。32模拟注意力321注意运动推导模型7注意力瞬脱是一种指示注意力的暂态现象,注意力瞬脱即当注意力集中在第一个目标,并出现第二个目标时,注意力在注意第二目标过程中发生的瞬间注意力脱离现桂林理工大学本科毕业设计论文11象,研究表明注意力由第一个目标向第二个目标转移的时间是200500

34、MS。以脑部为基础的神经模型在模拟注意力时通常都是采用研究注意力瞬脱现象,即观察模型在刺激下对两个不同目标的反应。注意运动推导模型,简称CODAM模型,其由以下几个模块组成1,目标映射,作用是告知注意力信号的调节过程。2,注意力控制信号产生器(IMC),在工程控制方法中表达为反向模型控制器。3,目标模块,分为内在目标模块和外在目标模块,其用作偏离注意力的运动信号。4,工作记忆模块,功能是作为注意力刺激的评价器。5,注意力控制信号的推导解除器,可以通过对比注意力控制信号和目标信号快速产生对错误信号的修正,还可以在早期帮助呼叫工作记忆站加快,引入注意力刺激的过程。6,监视器,可以通过计算目标信号和

35、预测信号的值产生一个错误信号。模型结构见图321,开环表示目标,闭环表示干扰项或隐藏项,黑线表示兴奋连接,灰线表示抑制连接。图321CODAM模型结构CODAM模型原本是用于分析发动机控制的模型,最近才发现其也可用于模拟注意力。我们可以利用CODAM模型模拟注意力瞬脱现象,这可以帮助我们指定出现象的抑制过程,CODAM模型探索方法可以更为详细指明的注意力过程,这是采用模型模拟注意力并研究注意力过程的模型,他扩展了第二目标对仿真影响的理解,阐述了多刺激对仿真的影响和刺激信号间的关系。桂林理工大学本科毕业设计论文1233模拟情绪331DUONN模型8情绪DUO神经网络(DUONN)是在认知系统水平

36、上通过调查情绪集合来在机器上模拟人类感知的网络模型。相对于其他情绪DUO神经网络而言,其情绪数据更多是在他的结构中完成加工的,这使得他能调节更多情绪强度(情绪记忆)。模型能使用输入模式或视觉刺激推测出情绪反应,进而能影响网络的学习和决定过程。DUONN由三层组成一个输入层,一个包含有DUO神经元的隐含层(假如需要可以增加更多隐含层),一个输出层。除此之外,网络还附加有非加工性质的偏斜神经元和情绪神经元。其中DUO神经元有两个嵌入式神经元背部神经元和腹部神经元,他们各自对应认知和情绪的数据加工过程。模型结构见图331。图331DUONN模型结构流入DUONN的输入信号是唯一的,这是模拟大脑视觉皮

37、质中数据从一个共同源流动的结果。数据进入隐含层的DUO神经元是分成两部分,腹部情绪流和背部认知流,两种数据流是相同输入的不同版本。腹部情绪流包含输入的整体特征,由腹部神经元加工处理,背部认知流包含输入图像的局部特征,由背部神经元加工处理。两个情绪参数,焦虑和信心,分别作用在隐含层和输出层中,表示情绪强度(情绪记忆),情绪强度与在新任务和做决定时的情绪神经元模拟和计算的神经学习相联系。DUONN模型现在可以应用在面部识别方面,由于模型对整体信号和局部信号是分行处理,使得在面部识别中,对整体面部信息和局部面部特征处理中,能同步进行,这提高了面部识别的准确性和效率。34模拟语言341语法理解模型9在

38、认知神经科学中有一个中心问题,那就是在大脑中有着怎样的离散神经网络,使得他不仅能在语言学习和加工过程中使用,也能在非语言认知顺序进行学习。尽管特别的神经网络结构限制于已知的人类语言系统,但当前研究还是在尝试汇桂林理工大学本科毕业设计论文13集这些基于句子加工模型的数据。通过收集这些数据,能学习与人相同的语言,并能完成人工语法任务。为了理解这个任务,系统应该首先能从文字中区别出功能字。许多大脑潜在学习的行为和时间现象都要求模型能在一个分离方式下加工字,而且模型应该能在一个工作记忆中存储字,然后可以在非标准命令中通过功能条款取得这个记忆,重组字将通过功能字引导到主题任务。模型能标准执行非到时任务,

39、包括产生新句子。模型结构见图341,标记的每一个部件对应于一个55的漏积分神经元,闭环和开环分类字的双加工流分别对应STG和MTG。输入句子在周期网络BA47中编码,在STG中安排闭环分类字的时间表。BA45从MTG得到到开环分类字。BA44/6是一个工作记忆编码服务器,通过在BA47CAUDATE中推测闭环分类字基于语法的顺序,产生在预测、代理、目标、接受的作用。图341语法理解模型结构语法理解模型在现实中,主要应用于句子创造和修正。由于模型运行原则符合大脑对句子创造、修正的加工机制,使其相对于其他句子创造修正工具而言,修正的句子的准确性更高,更易于阅读。342数字空间模型10在人类认知中,

40、数字与空间的关系研究也是一个重要的分支。数字表示与空间表示是相互作用的,例如如当数字是从1到9时,人注意的空间是从左到右。对于数字表示和空间表示间相互作用的本质现在还很难完全弄懂,但是我们已经知道了空间形桂林理工大学本科毕业设计论文14状不能完全用固定的数字来表示(虽然空间表示和数字表示是相互分离的)。在现实中,数字表示和空间表示的相互关系是会受到物理特征和文化因素(如从小教育中,从左到右的数字是从1到9)的影响,所以在模拟这个现象时,我们忽略这两种因素的作用。模型结构见图342,模型分为四层,分布为输入层、表示层、决定层和响应层,如图可见。最下面两个单元是输入层,这两个单元映射到表示层中,表

41、示为空间(HLIP)和数字(地点代码)。决定层包含有三个不同的任务单元,分别为平价判断、数字对比、数字命名。在决定层中,给定层的单元数量反应的是每一个任务的数量(在相等评价中的奇数和偶数、在数字对比中的大小、在数字命名中的一到九)。在表示层中有两个单元,各自是左边响应和右边响应。模型中,决定层和响应层会同时处理为数字命名的任务。图342数字空间模型结构数字空间模型是以早期模型假设为基础的,他可以使用计算机仿真显示研究中的解释数据,其也可以模拟数字和空间的相互作用过程,并在解释健康人和病人的数据上十分有效。343多时间周期神经网络模型11多时间周期神经网络,简称MTRNN,他能通过自我组织作用来

42、反射句子结构和字的特征,并最终识别、产生和确认句子。模型能依靠最初状态(产生阶段)来控制句子产生,其中的初始状态能从目标句子(识别阶段)计算出来。模型还可以修正在句子中的一些置换错误,通过每训练一次就迭代一个确定的可能方式,可以增加模型错桂林理工大学本科毕业设计论文15误信息,以此可以达到训练改进句子执行过程的目的。在MTRNN模型中,神经元最快速变化的是“符号”,变化较慢的是“字”,变化最慢的是“句子”。MTRNN模型是YAMASHITA和TANI提出的,他们最初将其使用在机器人的发动机传感器流动学习任务上。近来发现这个模型能帮助我们克服语言整合的问题当使用一个无注释句子(每个句子表示为一个

43、字符顺序)训练模型时,模型的自组织作用会反射并分层语言作文。因此,哪怕没有任何先前关于词典和语法的知识,我们模型也可以识别、产生和修正句子,故模型能作为顺序产生器和识别器。模型结构见图343,语言学习模型有三个神经元组,分别为输入和输出组IO、快速上下文组CF、慢速上下文组组成CS。IO有30个代码,其中的26个代码分别对应26个字母符号,四个其他符号则分别对应空格、时间、逗号、问号。CF由40个代码组成,CS由11个代码组成,模型的A(T)、B(T)是在时间T的信号神经元的激励值,句子信号表示为连续的输入输出神经元激励。图343多时间周期神经网络模型结构模型用于收集、整理和改错句子,句子的符

44、号、词语和语法都可以进行修改整理。与之前的语法理解模型的区别在于,语法理解模型在修改句子语法错误上更突出,而MTRNN的功能更全面。桂林理工大学本科毕业设计论文164人工神经网络模拟认知现象现状近些年来,利用人工神经网络模拟认知科学中的现象是神经网络研究的一个重要分支。利用人工神经网络模拟认知现象,主要从记忆、学习、语言、注意力和情绪等几个方面进行模拟。在模拟认知现象时,对神经网络模型设计中在理论上有两种趋势,一种是严格按照生物认知现象的作用方式来设计模型结构,另一种是在生物认知现象作用方式的基础上,再加上实际非认知理论来设计模型结构。两种理论都符合联结主义的理论思想,只是前一种是完全符合生物

45、性,后一种是部分符合生物性部分符合实际性。严格按照生物认知现象设计模型的理论,在本文论述模型中,RNETS模型和计算机认知科学模型是依照这种理论设计的。模型完全符合生物性,能使模型处理认知信息时最大限度的模拟生物认知加工过程,这对理解认知现象很有好处。文章中绝大多数模型是同时按照生物认知现象和实际非认知理论联合设计模型的,如语法理解模型、数字空间模型等。这些模型部分符合生物性,只能部分模拟认知现象的加工过程,所以对认知现象的理解也只是部分。但是这类模型的好处时,特别适合实际应用领域。由于借鉴了非生物的经典理论,其实际应用更可靠。其实之所以会出现这两种不同的设计理论,主要是因为现代认知科学对生物

46、认知机制,特别是人类认知机制了解得不完全。科学家们对认知机制的研究基本上还是停留在观察特定认知现象出现后,脑部部分区域的活跃情况上。这类研究只能部分分析认知现象的形成机制,却缺乏在整体上对认知过程的把握。而在应用中的,特别是模拟认知的人工神经网络模型中,只有部分机制的研究是不足以设计出好的模型结构的,故许多模型只能在采用已知认知机制的基础上,借鉴实际应用中的非认知理论思想的方法。未来一段时间内,认知机制和非认知理论联合设计神经网络模型的方法还会继续采用,但是随着科学界对认知现象的理解不断深入,人工神经网络模型将更多的会从生物性角度设计模型,并最终完全模拟出人类大脑对认知现象处理的全过程,虽然这

47、还有很长的一段路要走。桂林理工大学本科毕业设计论文175人工智能中关于人工神经网络和认知科学的国际会议对于人工神经网络模拟认知科学,乃至对人工智能研究而言,国际会议已经成为研究者交流研究成果的舞台。在国际会议上,研究者们可以展示最新的研究成果、发表新的论文、与国际同行们就同一议题进行探讨。然而,由于会议的开会时间和会议招待经费有限,并不是所有的研究者参加会议,也不是所有参加会议的研究者都能发表所有的研究成果。对于会议论文的选题、会议演讲的要求,不同主题的会议是有不同的要求,这就要求我们在参加会议和在向会议投稿前必须了解会议投稿和会议演讲的要求。全世界关于人工智能研究的著名会议有几十个,其中涉及

48、人工神经网络或认知科学的有10个左右。会议通常是一年一次,也有部分是两年一次。关于会议投稿,会议组织者都要求投稿者必须投递电子档PDF格式的稿件,其页数和格式也有这严格的限制,这些投稿要求可以在会议的组织网站上查出。正如前文说言,要想向会议投稿,必须先了解会议的投稿要求。在投稿要求中,会议讨论主题是筛选投稿文章的重要因素,只有符合会议的投稿主题才有可能得到会议的采纳。下面列举了五个人工智能领域中涉及人工神经网络或认知科学的著名会议,并附带各个会议的投稿主题。51国际人工智能协会年会国际人工智能协会年会,其前身为美国人工智能协会年会(THEASSOCIATIONFORTHEADVANCEMENT

49、OFARTIFICIALINTELLIGENCE,简称AAAI),每一年或两年举行一次,国际人工智能协会致力于推动针对智能行为本质的科学研究。AAAI主题代理系统和多代理系统,认知建模和人机互动,常识推理,计算机视觉,满足约束,搜索和优化,进化计算,游戏和互动娱乐,信息搜索,集成和提取,知识表示和推理,机器学习和数据挖掘,模型系统,跨学科AI,自然语言处理,计划与调度,概率推理,机器人,网站和信息系统。52神经信息处理系统年会神经信息处理系统(NEURALINFORMATIONPROCESSINGSYSTEM,简称NIPS),每一年举行一次,地点固定在加拿大温哥华,会议后第二年出版论文集,讨论方向为神经科学和机器学习。NIPS主题算法与结构包括神经网络),应用(包括文本/网络分析),脑功能成像(包括认知神经学),认知科学和人工智能(包括学习,记忆,推理,解决问题,桂林理工大学本科毕业设计论文18自然语言处理和神经心理学),控制和强化学习(包括决定和控制,探索,规划),硬件技术,学习理论,神经科学(包括研究处理和信息传输的理论和实验,生物神经元网络),语言与信号处理(包括听觉感知,语言模型),视觉处理(生物和机器视觉,目标探测和识别,视觉心理物理,视觉场景分析和解释)53国际神经网络年会国际神经网络年会(INTERNATIONALJOINTCONFERENCEONNEURAL

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 学术论文资料库 > 毕业论文

Copyright © 2018-2021 Wenke99.com All rights reserved

工信部备案号浙ICP备20026746号-2  

公安局备案号:浙公网安备33038302330469号

本站为C2C交文档易平台,即用户上传的文档直接卖给下载用户,本站只是网络服务中间平台,所有原创文档下载所得归上传人所有,若您发现上传作品侵犯了您的权利,请立刻联系网站客服并提供证据,平台将在3个工作日内予以改正。