从理论到应用——浅谈lasso模型.doc

上传人:99****p 文档编号:1441365 上传时间:2019-02-27 格式:DOC 页数:13 大小:411.29KB
下载 相关 举报
从理论到应用——浅谈lasso模型.doc_第1页
第1页 / 共13页
从理论到应用——浅谈lasso模型.doc_第2页
第2页 / 共13页
从理论到应用——浅谈lasso模型.doc_第3页
第3页 / 共13页
从理论到应用——浅谈lasso模型.doc_第4页
第4页 / 共13页
从理论到应用——浅谈lasso模型.doc_第5页
第5页 / 共13页
点击查看更多>>
资源描述

1、 本科生学年论文题目:从理论到应用浅谈 lasso 模型指导教师: 学院: 姓名: 学号: 班级: - 0 -从理论到应用浅谈 lasso 模型【摘要】回归模型是我们在处理数据中常用的方法。其中,Lasso 模型是一种适用于多重共线性问题,能够在参数估计的同时实现变量的选择的回归方法。本文从 lasso 模型的概念谈起,对其起源、思想、与岭回归的比较、通过 lar 的算法实现等方面进行了探究。另外还使用 R 语言对简单案例进行 lasso 模型的应用。最后简述了 lasso 模型的研究现状。【abstract】Regression model is our commonly used meth

2、od in processing data. Lasso model is a kind of regression method for multiple linear problems, which can be used to achieve parameter estimation and variable selection at the same time. This paper starts from the concept of the lasso model, including its origin, ideas, and the comparison of ridge r

3、egression, through lar algorithm implementation, etc. In addition, using R language to solve a simple case through lasso. At last, the research status of lasso model is introduced.【关键词】Lasso 岭回归 最小角回归 R 语言【key words】Lasso ridge regression lar R language- 1 -目录一、 定义及基本信息 .4二、 起源与原理 .4三、 模型的思想 .4四、 La

4、sso 与岭回归 .51、 岭回归的概念 .52、 Lasso 与岭回归的比较 .5五、 Lasso 的算法步骤 .61、 lasso 算法实现的背景 .62、 最小角回归 .73、 用 lar 实现 lasso .7六、 案例分析 .81、 问题描述 .82、 简单线性回归求解 .93、 利用 lasso 求解 .11七、 应用与研究现状 .12八、 参考资料 .13- 2 -1、定义及基本信息Lasso 模型是由 Robert Tibshirani 在 1996 年 JRSSB 上的一篇文章 Regression shrinkage and selection via the lasso

5、所提出的一种能够实现指标集合精简的估计方法。在参数估计的同时实现变量的选择(可以解决回归分析中的多重共线性问题)。全称:Least Absolute Shrinkage and Selection Operator读音:lsu: 而不是lsoRobert Tibshirani 简介:生于 1956 年 7 月 10 日,担任斯坦福大学 the Departments of Statistics and Health Research and Policy 的教授。1985-1998 年担任多伦多大学的教授。 他主要研究方向是致力于开发处理复杂数据的分析统计工具。Lasso 模式是他最著名的贡献

6、。同时在著名的 “Generalized Additive Models“, “An Introduction to the Bootstrap“, and “The Elements of Statistical Learning“三本书中都有他的编著。 12、起源与原理在常规的回归分析中,假设我们有一组(x i,y i),i=1,2,.,N,其中 xi=(xi1,.,xip)T,yi 是第 i 维观测值的回归量的数据。普通最小二乘 (OLS)通过最小化残差平方和来进行估计。它对数据的分析不那么令人满意通常有两个原因。一是预测精度:OLS 往往偏差较低但方差大;预测精度有时可以用缩小或设置一

7、些系数为 0 的方法来提高。通过这样做,我们牺牲一点偏差减少预测的方差值,因此可以提高整体预测准确性。第二个原因是可解释性的问题。在大量的预测值中,我们通常想确定一个展现出最强影响的更小的子集。两个公认优秀的改善 OLS 估计的方法是子集选择( subset selection)和岭回归(ridge regression)它们都有缺点。子集选择提供了可解释的模型但是可变性非常强,因为它是一个离散的过程回归量要么保留要么从模型中去掉。小的数据变化就会使得模型的选择改变,这会降低预测准确度。岭回归是连续缩小参数的过程,因此更稳定:然而它不会使得任何参数为 0,没办法得出简单的可解释的模型。lass

8、o 模型就此提出,The least absolute shrinkage and selection operator,同时缩小(shrinkage)和设置成参数为 0(selection ),保持了子集选择和岭回归的良好特征。 23、模型的思想lasso 是在回归系数的绝对值之和小于一个常数的约束条件下,使残差平方和最小化,从而能够产生某些严格等于 0 的回归系数,得到解释力较强的模型。- 3 -给出一组测量数据 x1, x2 .xp 以及测量结果 y,lasso 符合线性模型yhat=b0 + b1x1+ b2x2 + . bpxp 它所使用的标准是: 当| bj |cement cementlm.solsummary(lm.sol)可以看到虽然 R2 接近于 1,拟合优度较理想,但是自变量的 p 值均大于 0.05,回归系数没有通过显著性检验。利用简单线性回归得到回归方程中的 X 与 Y 的关系不明显。F检验的值也非常大,说明自变量的显著性较低,需要进行变量选择。利用 car 包中的 vif()函数查看各自变量间的共线情况library(car)vif(lm.sol)

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 实用文档资料库 > 策划方案

Copyright © 2018-2021 Wenke99.com All rights reserved

工信部备案号浙ICP备20026746号-2  

公安局备案号:浙公网安备33038302330469号

本站为C2C交文档易平台,即用户上传的文档直接卖给下载用户,本站只是网络服务中间平台,所有原创文档下载所得归上传人所有,若您发现上传作品侵犯了您的权利,请立刻联系网站客服并提供证据,平台将在3个工作日内予以改正。