系统辨识大作业报告.DOC

上传人:国*** 文档编号:957728 上传时间:2018-11-09 格式:DOC 页数:30 大小:485.50KB
下载 相关 举报
系统辨识大作业报告.DOC_第1页
第1页 / 共30页
系统辨识大作业报告.DOC_第2页
第2页 / 共30页
系统辨识大作业报告.DOC_第3页
第3页 / 共30页
系统辨识大作业报告.DOC_第4页
第4页 / 共30页
系统辨识大作业报告.DOC_第5页
第5页 / 共30页
点击查看更多>>
资源描述

1、系 统 辨 识 大 作 业 报 告班 级 13202-4 学 号 2013260318 姓 名 亓子龙 报告日期 2013.12.03 一、辨识方法1.最小二乘法及其递推方法(1)最小二乘法:构造 阵,利用公式 计算;1()Ty(2)递推最小二乘法:取前 20 个数据,利用基本最小二乘法给出 和 的初值 和NP0,然后利用公式:0P111 ()TNNNyKP11TNN迭代计算。2.辅助变量法及其递推方法(1) 辅助变量法:首先利用基本最小二乘估计 作为计算 的初值,利用计算结果构LSy造 阵,依据公式 迭代计算直至 收敛。Z1()TVZyV(2) 递推辅助变量法:前 50 个数据利用递推最小二

2、乘估计 和 初值 和 ,然NP0后依据递推公式进行迭代计算: 111 ()TNNNyKPzz11TNN3.广义最小二乘法及其递推方法(1)广义最小二乘法:使用 和 按基本最小二乘求出 估计值 ,计算残差()uky用残差 代替 并计算 的估值 , 的计算公式为ey-()eff。利用 进行数据滤波,再按最小二乘法重新估计 ,重复这些步1()TTff 骤直至 收敛。(2)递推广义最小二乘法:前 20 个数据利用基本最小二乘求得递推的初值,然后按以下公式计算 ,f (2)111 )TNNNefKf(2)()(2)PP()()(2)()11TNN根据所得结果对新的观测值进行数据滤波,然后进行 的递推,递

3、推公式如下:(1)1 1 )TNNNyK()()()1PP(1)()()(1)TNN4.夏氏偏差修正法、夏氏改良法及递推夏氏法(1)夏氏偏差修正法:首先计算 并作为 的初值,然后计算残差1()TLSy并构造矩阵 ,同时计算矩阵 和 。其ey-T1()TMI次由 计算 和 ,其中 。利用公式 获1fDMyBfD=LSB得 的估计值,循环迭代直到 基本保持不变。(2)夏氏改良法:基本同夏氏偏差修正法,只是 的计算变为 ,减f1()fe小了计算量。(3)夏氏递推算法:利用基本最小二乘获得递推初值 和 ,递推公式如下:NP111()TNNyrNrP11TNNr5.增广矩阵法利用基本最小二乘构造 阵,进

4、而计算递推初值 和 。构造向量NP11 (1)()()(TNynyunnN 其中 ,然后根据递推方程递推计算 :()TNn111()TNNyKNP11TN6.极大似然法(1)选定初值 , 、 由 LS 方法获得, 可任意指定;0Tiiabciaibic(2)计算残差 及指标 ;()()kkey21()knNeJ(3)计算梯度 及海赛(Hassian)矩阵 ;J2(4)计算 的新估值 ; 021102()J(5)返回第(2)步直到 收敛。7.辨识结果及噪声特性 分析()k对于数据 uy1.txt,辨识结果如表 1:表 1 uy1 辨识结果辨识结果辨识方法1a21b21f2f基本最小二乘 1.48

5、55 0.7869 0.4837 0.1982递推最小二乘 1.4855 0.7869 0.4837 0.1982辅助变量法 1.4964 0.7588 0.4878 0.1910递推辅助变量法 1.5353 0.8332 0.4873 0.2156广义最小二乘法 1.5022 0.7998 0.4844 0.2034递推广义最小二乘法 1.4257 0.2646 0.4129 0.1062夏氏修正法 1.4886 0.7973 0.4822 0.2022夏氏改良法 1.4886 0.7973 0.4822 0.2022夏氏递推法 1.4825 0.7945 0.4797 0.2018增广矩阵

6、法 1.4836 0.7864 0.4828 0.1991 -0.0006 0.0074极大似然法 1.4630 0.7861 0.4793 0.1956 0.2382 0.3530对于数据 uy2.txt,辨识结果如表 2:表 2 uy2 辨识结果辨识结果辨识方法1a1b21f2f基本最小二乘 1.1113 0.4963 0.3791 0.1879递推最小二乘 1.1113 0.4963 0.3791 0.1879辅助变量法 1.3875 0.8036 0.3649 0.3289递推辅助变量法 1.3965 0.7072 0.3802 0.2970广义最小二乘法 1.2382 0.5884

7、0.3777 0.2368递推广义最小二乘法 1.6700 0.9022 0.1731 0.0060夏氏修正法 1.3834 0.7146 0.3884 0.2873夏氏改良法 1.3834 0.7146 0.3884 0.2873夏氏递推法 1.3574 0.6954 0.3998 0.2719增广矩阵法 1.1674 0.5579 0.3862 0.2133 0.0834 0.0353极大似然法 1.8196 0.9711 0.3888 0.4478 1.1479 0.0574对于数据 uy3.txt,辨识结果如表 3:表 3 uy3 辨识结果辨识结果辨识方法1a21b21f2f基本最小二

8、乘 1.1158 0.4801 0.4254 0.1245递推最小二乘 1.1158 0.4801 0.4254 0.1245辅助变量法 4.3487 2.5628 0.5347 1.1997递推辅助变量法 1.6172 0.8687 0.4325 0.3138广义最小二乘法 1.2763 0.6117 0.4257 0.1898递推广义最小二乘法 1.4892 0.6173 0.0571 0.5818夏氏修正法 1.4628 0.7749 0.4711 0.2252夏氏改良法 1.4628 0.7749 0.4711 0.2252夏氏递推法 1.3088 0.6296 0.4642 0.18

9、64增广矩阵法 1.2564 0.6139 0.4481 0.1699 0.1998 0.1012极大似然法 1.6559 0.9770 0.4175 0.3879 1.0662 0.4991三组数据输入值都一样,输出值不同。对上面表 1-表 3 的辨识结果进行分析,可以看出, uy1 的噪声近似为白噪声,因为其他辨识方法的辨识结果和最小二乘法的结果很接近。而 uy2 和 uy3 的噪声是有色噪声,其他辨识方法的结果和最小二乘法的结果出入较大。二、辨识方法比较分析1.分析比较各种方法估计的精度1) 最小二乘法是成批处理观测数据,即离线辨识,在输入为白噪声的情况下其辨识精度是最高的,但是在有色噪

10、声的情况下偏差比较大,且估计的均方差随噪声均方差的增大而增大。2) 递推最小二乘法是在线辨识。理论上讲,其辨识精度应等于采用离线辨识的最小二乘法,但是由于在递推被辨识参数的初值中,P 的取值相当大时,递推最小二乘法的结果很接近于最小二乘法的结果。其基本思想可以概括成:新的估计值=旧的估计值+修整项。它是一种实时控制算法。3) 辅助变量法在输入为有色噪声的情况下能克服上述两种方法的有偏估计缺点。但本题前一部分的输入是白噪声,因而辅助变量法的辨识精度差于上述两种方法。在输入为有色噪声的情况下,辨识结果较好。在计算时需构造辅助变量矩阵。4) 广义最小二乘法:如果输入是有色噪声,则广义最小二乘法能克服

11、估计的有偏性。但是广义最小二乘法是一种迭代方法,且收敛速度比较慢。在系统的噪声较大时,最小二乘法的指标 J 可能是多峰的,因此该算法未必收敛于真实参数,本题中,广义最小二乘法在白噪声情况下,其辨识的效果略差于最小二乘法和递推最小二乘法,尔在有色噪声情况下,其辨识的效果好于那两种方法。实际估计效果较好,工程上广泛应用。缺点是计算量大。5) 夏氏法也是为了克服输入为有色噪声而导致辨识的有偏性而提出的,改善广义最小二乘法的计算速度,提高计算效率。它还可以应用到多输入多输出系统。对于本题,它的优缺点基本同广义最小二乘法,其辨识结果同广义最小二乘法差不多。6) 增广矩阵法:它是无偏估计,收敛性好,系统参

12、数与噪声参数同时辨识。由于考虑了系统噪声的影响,采用递推方法,其精度和收敛性比递推最小二乘法有提高。7) 极大似然法以观测值的出现概率最大作为标准,为离线辨识方法,在输入为白噪声的情况下,结果的精度与最小二乘法不相上下。在输入为有色噪声的情况下,精度比最小二乘法能好。2.分析其计算量1) 最小二乘法:算法最简单,但是当输入输出数据量较大时,会出现维数较高的矩阵求逆和相乘。 所以数据量越大计算量将明显增加。2) 递推最小二乘法:递推最小二乘法在每一次迭代过程中都不需要矩阵求逆,只需要做矩阵或向量乘法,故每次迭代过程中,递推最小二乘法的计算量很小。3) 辅助变量法:每一次迭代都需要求辅助模型的输出

13、变量,并由此构造求辅助变量矩阵Z,做一次(2n+1) *(2n+1)的矩阵求逆,故计算量是最小二乘法的计算量整数倍。4) 广义最小二乘法:每一次迭代都需要利用上一次估计出的被辨识参数来求出残差,利用残差来构造(2n+1)*(2n+1)的残差阵 ,然后求得新的输入和输出序列,再一次利用最小二乘法重新估计被辨识参数 ,故每次迭代都需要利用两次最小二乘法,另外还要作数据滤波,故计算量远远大过辅助变量法。5) 夏氏法:每一次迭代过程中求残差矩阵,不需要数据的反复滤波,故计算量远小于广义最小二乘法,但明显大于辅助变量法的计算量。6) 增广矩阵法:增广矩阵法的估计参数中增加了噪声的模型参数,故相应的矩阵及

14、向量都比递推最小二乘法大,计算量也比递推最小二乘法大的多。7) 极大似然法: 极大似然法的计算量较大,但其参数估计量具有良好的渐进性质。3.分析噪声方差的影响由各种辨识方法可以看出,当噪声的方差增大时,估计的偏差明显增大,各项估计值得均方差也稍有增大。当噪声的方差为 0,即系统输入输出数据不含噪声时,估计结果就是系统参数的真值。4.比较白噪声和有色噪声对辨识的影响噪声为白噪声时比噪声为有色噪声所引起的误差要小,且当噪声为白噪声时,最小二乘法估计具有无偏性和一致性。三、系统模型阶次的辨识1.用三种方法确定系统的阶次并辨识(1)按残差方差定阶:利用基本最小二乘法估计各阶次时的 , 按公1()Ty式

15、 求得残差 ,然后计算 。对某一系统,11()()()ekazykbzuk()ek21nNkJe当 时, 随着 的增大而减小。假定系统为 阶,则在 时出现最后一,23n nJ 00次陡峭的下降,从而判定系统阶次。(2)确定阶的 Akaike 信息准则:这个准则给出了一个定量的判断标准,它不要求建模人员主观的判断“陡峭的下降” 。在一组可供选择的随机模型中,AIC 最小的那个模型是一个可取的模型。白噪声情况下的 AIC 定阶公式为 ;有色噪声2ln()eabAICNn情况下的 AIC 定阶公式为 。2ln()eabcAICN(3) 按残差白色定阶:计算残差的估值的自相关函数,检查其白色性,即可判

16、断模型的阶次。残差的自相关函数为 1()()nNkRie210nk将 规格化可得 。()Ri()0Rir(1)按残差方差和 F 检验法定阶1 2 3 4 5 6 7 8 9 10200400600800 噪噪噪噪噪噪uy1nJn1 2 3 4 5 6 7 8 9-2000200400 F噪噪噪噪噪uy1nF1 2 3 4 5 6 7 8 9 10200250300350400 噪 噪 噪 噪 噪 噪 uy2nJn1 2 3 4 5 6 7 8 9-50050100 F噪 噪 噪 噪 噪 uy2nF1 2 3 4 5 6 7 8 9 10500600700800 噪 噪 噪 噪 噪 噪 uy3nJn1 2 3 4 5 6 7 8 9020406080 F噪 噪 噪 噪 噪 uy3nF(2)AIC 定阶1 2 3 4 5 6 7 8 9 10-400-300-200-1000100200 噪 噪 噪 噪 AIC噪 噪 uy1噪 噪nAIC

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 重点行业资料库 > 1

Copyright © 2018-2021 Wenke99.com All rights reserved

工信部备案号浙ICP备20026746号-2  

公安局备案号:浙公网安备33038302330469号

本站为C2C交文档易平台,即用户上传的文档直接卖给下载用户,本站只是网络服务中间平台,所有原创文档下载所得归上传人所有,若您发现上传作品侵犯了您的权利,请立刻联系网站客服并提供证据,平台将在3个工作日内予以改正。