模式识别试题及总结.doc

上传人:11****ws 文档编号:3208853 上传时间:2019-05-25 格式:DOC 页数:22 大小:809KB
下载 相关 举报
模式识别试题及总结.doc_第1页
第1页 / 共22页
模式识别试题及总结.doc_第2页
第2页 / 共22页
模式识别试题及总结.doc_第3页
第3页 / 共22页
模式识别试题及总结.doc_第4页
第4页 / 共22页
模式识别试题及总结.doc_第5页
第5页 / 共22页
点击查看更多>>
资源描述

1、第 1 页 共 22 页一、 填空与选择填空(本题答案写在此试卷上,30 分) 1、模式识别系统的基本构成单元包括: 模式采集 、 特征提取与选择 和 模式分类 。2、统计模式识别中描述模式的方法一般使用 特真矢量 ;句法模式识别中模式描述方法一般有 串 、 树 、 网 。3、聚类分析算法属于 (1) ;判别域代数界面方程法属于 (3) 。(1)无监督分类 (2)有监督分类 (3)统计模式识别方法(4)句法模式识别方法4、若描述模式的特征量为 0-1 二值特征量,则一般采用 (4) 进行相似性度量。(1)距离测度 (2)模糊测度 (3)相似测度 (4)匹配测度5、 下列函数可以作为聚类分析中的

2、准则函数的有 (1)(3)(4) 。(1) (2) (3) (4) 6、Fisher 线性判别函数的求解过程是将 N 维特征矢量投影在 (2) 中进行 。(1)二维空间 (2)一维空间 (3)N-1 维空间7、下列判别域界面方程法中只适用于线性可分情况的算法有 (1) ;线性可分、不可分都适用的有 (3) 。(1)感知器算法 (2)H-K 算法 (3)积累位势函数法 8、下列四元组中满足文法定义的有 (1)(2)(4) 。(1)( A, B, 0, 1, A01, A 0A1 , A 1A0 , B BA , B 0, A)(2)( A, 0, 1, A0, A 0A, A)(3)( S, a

3、, b, S 00S, S 11S, S 00, S 11, S)(4)( A, 0, 1, A01, A 0A1, A 1A0, A)9、影响层次聚类算法结果的主要因素有( 计算模式距离的测度、 (聚类准则、类间距离门限、预定的类别数目) ) 。10、欧式距离具有( 1、2 ) ;马式距离具有( 1、2、3、4 ) 。 (1)平移不变性(2)旋转不变性(3)尺度缩放不变性(4)不受量纲影响的特性11、线性判别函数的正负和数值大小的几何意义是(正(负)表示样本点位于判别界面法向量指向的正(负)半空间中;绝对值正比于样本点到判别界面的距离。 ) 。12、感知器算法 1 。(1)只适用于线性可分的

4、情况;(2)线性可分、不可分都适用。第 2 页 共 22 页13、积累势函数法较之于 H-K 算法的优点是(该方法可用于非线性可分情况(也可用于线性可分情况) ;位势函数 K(x,xk)与积累位势函数 K(x)的关系为(XxxKkk),()() 。 14、在统计模式分类问题中,聂曼-皮尔逊判决准则主要用于( 某一种判决错误较另一种判决错误更为重要)情况;最小最大判决准则主要用于( 先验概率未知的)情况。15、 “特征个数越多越有利于分类”这种说法正确吗?( 错误 ) 。特征选择的主要目的是(从 n 个特征中选出最有利于分类的的 m 个特征(mn )的条件下,可以使用分支定界法以减少计算量。16

5、、 散度 Jij 越大,说明 i 类模式与 j 类模式的分布(差别越大) ;当 i 类模式与 j 类模式的分布相同时,Jij=(0) 。17、 已知有限状态自动机 Af=(,Q,q0,F), =0,1;Q=q0,q1;: (q0,0)= q1,(q0,1)= q1, (q1,0)=q0,(q1,1)=q0;q0=q0;F=q0。现有输入字符串:(a) 00011101011,(b) 1100110011,(c) 101100111000,(d)0010011,试问,用 Af 对上述字符串进行分类的结果为( 1:a,d;2:b,c ) 。18、影响聚类算法结果的主要因素有( ) 。已知类别的样本

6、质量;分类准则;特征选取;模式相似性测度。19、模式识别中,马式距离较之于欧式距离的优点是( ) 。 平移不变性;旋转不变性;尺度不变性;考虑了模式的分布。20、基于二次准则函数的 H-K 算法较之于感知器算法的优点是( ) 。可以判别问题是否线性可分;其解完全适用于非线性可分的情况;其解的适应性更好;计算量小。21、影响基本 C 均值算法的主要因素有( )。样本输入顺序;模式相似性测度;聚类准则;初始类心的选取。22、位势函数法的积累势函数 K(x)的作用相当于 Bayes 判决中的( ) 。先验概率;后验概率;类概率密度;类概率密度与先验概率的乘积。23、在统计模式分类问题中,当先验概率未

7、知时,可以使用( ) 。最小损失准则;最小最大损失准则;最小误判概率准则;N-P 判决。24、在( )情况下,用分支定界法做特征选择计算量相对较少。C ndn,(n 为原特征个数,d 为要选出的特征个数) ;样本较多;选用的可分性判据 J 对特征数目单调不减;选用的可分性判据 J 具有可加性。第 3 页 共 22 页25、 散度 JD是根据( )构造的可分性判据。先验概率;后验概率;类概率密度;信息熵;几何距离。26、似然函数的概型已知且为单峰,则可用( )估计该似然函数。矩估计;最大似然估计;Bayes 估计;Bayes 学习;Parzen 窗法。27、Kn 近邻元法较之 Parzen 窗法

8、的优点是( ) 。所需样本数较少;稳定性较好;分辨率较高;连续性较好。28、从分类的角度讲,用 DKLT 做特征提取主要利用了 DKLT 的性质:( ) 。变换产生的新分量正交或不相关;以部分新的分量表示原矢量均方误差最小;使变换后的矢量能量更趋集中;29、一般,剪辑 k-NN 最近邻方法在( )的情况下效果较好。样本数较大;样本数较小;样本呈团状分布;样本呈链状分布。30、如果以特征向量的相关系数作为模式相似性测度,则影响聚类算法结果的主要因素有( ) 。已知类别样本质量;分类准则;特征选取;量纲。二、(15 分)简答及证明题(1)影响聚类结果的主要因素有那些?(2)证明马氏距离是平移不变的

9、、非奇异线性变换不变的。答:(1)分类准则,模式相似性测度,特征量的选择,量纲。(2)证明:(2 分) (2 分)(1 分)设,有非奇异线性变换: (1 分)第 4 页 共 22 页(4 分)三、(8 分)说明线性判别函数的正负和数值大小在分类中的意义并证明之。答:(1) (4 分) 的绝对值 正比于 到超平面 的距离 平面 的方程可以写成式中 。于是 是平面 的单位法矢量,上式可写成 设 是平面 中的任一点, 是特征空间 中任一点,点 到平面 的距离为差矢量 在上的投影的绝对值,即 (1-1) 上式中利用了 在平面 中,故满足方程 第 5 页 共 22 页式(1-1)的分子为判别函数绝对值,

10、上式表明, 的值 正比于 到超平面 的距离 ,一个特征矢量代入判别函数后所得值的绝对值越大表明该特征点距判别界面越远。 (2) (4 分) 的正(负)反映 在超平面 的正(负)侧 两矢量 和 的数积为 (2 分) 显然,当 和 夹角小于 时,即 在 指向的那个半空间中, 0;反之,当和 夹角大于 时,即 在 背向的那个半空间中, 0。由于 ,故和 同号。所以,当 在 指向的半空间中时, ;当 在 背向的半空间中, 。判别函数值的正负表示出特征点位于哪个半空间中,或者换句话说,表示特征点位于界面的哪一侧。五、(12 分,每问 4 分) 在目标识别中,假定有农田和装甲车两种类型,类型 1和类型 2

11、分别代表农田和装甲车,它们的先验概率分别为 0.8 和 0.2,损失函数如表 1 所示。现在做了三次试验,获得三个样本的类概率密度如下:0.3,0.1,0.6 :0.7,0.8,0.3 (1) 试用贝叶斯最小误判概率准则判决三个样本各属于哪一个类型;(2) 假定只考虑前两种判决,试用贝叶斯最小风险准则判决三个样本各属于哪一类;(3) 把拒绝判决考虑在内,重新考核三次试验的结果。表 1类型损失判决111 45 11 1第 6 页 共 22 页解:由题可知: , , ,(1) (4 分)根据贝叶斯最小误判概率准则知:,则可以任判; ,则判为 ; ,则判为;(2) (4 分)由题可知:则 ,判为 ;

12、,判为 ;,判为 ;(3) (4 分)对于两类问题,对于样本 ,假设 已知,有则对于第一个样本,则拒判;,则拒判;,拒判。 1.监督学习与非监督学习的区别:监督学习方法用来对数据实现分类,分类规则通过训练获得。该训练集由带分类号的数据集组成,因此监督学习方法的训练过程是离线的。非监督学习方法不需要单独的离线训练过程,也没有带分类号(标号)的训练数据集,一般用来对数据集进行分析,如聚类,确定其分布的主分量等。(实例:道路图)就道路图像的分割而言,监督学习方法则先在训练用图像中获取道路象素与非道路象素集,进行分类器设计,然后用所设计的分类器对道路图像进行分割。使用非监督学习方法,则依据道路路面象素

13、与非道路象素之间的聚类分析进行聚类运算,以实现道路图像的分割。第 7 页 共 22 页2.动态聚类是指对当前聚类通过迭代运算改善聚类;分级聚类则是将样本个体,按相似度标准合并,随着相似度要求的降低实现合并。3. 线性分类器三种最优准则:Fisher 准则:根据两类样本一般类内密集, 类间分离的特点,寻找线性分类器最佳的法线向量方向,使两类样本在该方向上的投影满足类内尽可能密集,类间尽可能分开。该种度量通过类内离散矩阵 Sw 和类间离散矩阵 Sb 实现。感知准则函数:准则函数以使错分类样本到分界面距离之和最小为原则。其优点是通过错分类样本提供的信息对分类器函数进行修正,这种准则是人工神经元网络多

14、层感知器的基础。支持向量机:基本思想是在两类线性可分条件下,所设计的分类器界面使两类之间的间隔为最大, 它的基本出发点是使期望泛化风险尽可能小。一、 试问“模式”与“模式类”的含义。如果一位姓王的先生是位老年人,试问“王先生”和“老头”谁是模式,谁是模式类?答:在模式识别学科中,就“模式” 与“模式类”而言,模式类是一类事物的代表,概念或典型,而 “模式”则是某一事物的具体体现,如“老头 ”是模式类,而王先生则是“模式 ”,是“老头”的具体化。二、 试说明 Mahalanobis 距离平方的定义,到某点的 Mahalanobis 距离平方为常数的轨迹的几何意义,它与欧氏距离的区别与联系。答:M

15、ahalanobis 距离的平方定义为:其中 x,u 为两个数据, 是一个正定对称矩阵(一般为协方差矩阵) 。根据定义,距某一点的Mahalanobis 距离相等点的轨迹是超椭球,如果是单位矩阵 ,则 Mahalanobis 距离就是通常的欧氏距离。三、 试说明用监督学习与非监督学习两种方法对道路图像中道路区域的划分的基本做法,以说明这两种学习方法的定义与它们间的区别。答:监督学习方法用来对数据实现分类,分类规则通过训练获得。该训练集由带分类号的数据集组成,因此监督学习方法的训练过程是离线的。非监督学习方法不需要单独的离线训练过程,也没有带分类号(标号)的训练数据集,一般用来对数据集进行分析,

16、如聚类,确定其分布的主分量等。就道路图像的分割而言,监督学习方法则先在训练用图像中获取道路象素与非道路象素集,进行分类器设计,然后用所设计的分类器对道路图像进行分割。使用非监督学习方法,则依据道路路面象素与非道路象素之间的聚类分析进行聚类运算,以实现道路图像的分割。四、 试述动态聚类与分级聚类这两种方法的原理与不同。答:动态聚类是指对当前聚类通过迭代运算改善聚类;分级聚类则是将样本个体,按相似度标准合并,随着相似度要求的降低实现合并。第 8 页 共 22 页五、 如果观察一个时序信号时在离散时刻序列得到的观察量序列表示为 ,而该时序信号的内在状态序列表示成 。如果计算在给定 O 条件下出现 S

17、 的概率,试问此概率是何种概率。如果从观察序列来估计状态序列的最大似然估计,这与 Bayes 决策中基于最小错误率的决策有什么关系。答:在给定观察序列 条件下分析它由某个状态序列 S 产生的概率似后验概率,写成P(S|O),而通过 O 求对状态序列的最大似然估计,与贝叶斯决策的最小错误率决策相当。六、 已知一组数据的协方差矩阵为 ,试问1 协方差矩阵中各元素的含义。2 求该数组的两个主分量。3 主分量分析或称 K-L 变换,它的最佳准则是什么?4 为什么说经主分量分析后,消除了各分量之间的相关性。答:协方差矩阵为 ,则1) 对角元素是各分量的方差,非对角元素是各分量之间的协方差。2) 主分量,

18、通过求协方差矩阵的特征值,用 得 ,则 ,相应的特征向量为: ,对应特征向量为 ,对应 。这两个特征向量即为主分量。3) K-L 变换的最佳准则为:对一组数据进行按一组正交基分解,在只取相同数量分量的条件下,以均方误差计算截尾误差最小。4) 在经主分量分解后,协方差矩阵成为对角矩阵,因而各主分量间相关消除。七、 试说明以下问题求解是基于监督学习或是非监督学习:1. 求数据集的主分量2. 汉字识别3. 自组织特征映射4. CT 图像的分割答: 1、求数据集的主分量是非监督学习方法;2、汉字识别对待识别字符加上相应类别号有监督学习方法;3、自组织特征映射将高维数组按保留近似度向低维映射非监督学习;

19、4、CT 图像分割按数据自然分布聚类非监督学习方法;八、 试列举线性分类器中最著名的三种最佳准则以及它们各自的原理。答:线性分类器三种最优准则:Fisher 准则:根据两类样本一般类内密集, 类间分离的特点,寻找线性分类器最佳的法线向量方向,使第 9 页 共 22 页两类样本在该方向上的投影满足类内尽可能密集,类间尽可能分开。该种度量通过类内离散矩阵 Sw 和类间离散矩阵 Sb 实现。感知准则函数:准则函数以使错分类样本到分界面距离之和最小为原则。其优点是通过错分类样本提供的信息对分类器函数进行修正,这种准则是人工神经元网络多层感知器的基础。支持向量机:基本思想是在两类线性可分条件下,所设计的

20、分类器界面使两类之间的间隔为最大, 它的基本出发点是使期望泛化风险尽可能小。九、 在一两维特征空间,两类决策域由两条直线 H1 和 H2 分界,其中 而包含 H1 与 H2 的锐角部分为第一类,其余为第二类。试求: 1用一双层感知器构造该分类器2用凹函数的并构造该分类器答:按题意要求1) H1 与 H2 将空间划分成四个部分,按使 H1 与 H2 大于零与小于零表示成四个区域,而第一类属于()区域,为方便起见,令 则第一类在 ()区域。用双层感知器,神经元用域值,则在第一类样本输入时,两隐层结点的输出均为1,其余则分别为() ,() ,( ), 故可按图设置域值。第 10 页 共 22 页2) 用凹函数的并表示: 或表示成 ,如 ,则 ,否则十、 设有两类正态分布的样本基于最小错误率的贝叶斯决策分界面,分别为 X2=0,以及 X1=3,其中两类的协方差矩阵 ,先验概率相等,并且有 , 。试求: 以及 。答:设待求 ,待求由于 ,先验概率相等。则基于最小错误率的 Bayes 决策规则,在两类决策面分界面上的样本 X 应满足(1)其中按题意 , (注:为方便起见,在下面计算中先去掉系数 4/3) 。按题意分界面由 x1=3 及 x2=0 两条直线构成,则分界面方程为(2)对(1)式进行分解有

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育教学资料库 > 精品笔记

Copyright © 2018-2021 Wenke99.com All rights reserved

工信部备案号浙ICP备20026746号-2  

公安局备案号:浙公网安备33038302330469号

本站为C2C交文档易平台,即用户上传的文档直接卖给下载用户,本站只是网络服务中间平台,所有原创文档下载所得归上传人所有,若您发现上传作品侵犯了您的权利,请立刻联系网站客服并提供证据,平台将在3个工作日内予以改正。