ImageVerifierCode 换一换
格式:DOC , 页数:8 ,大小:513.88KB ,
资源ID:3794509      下载积分:20 文钱
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,省得不是一点点
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.wenke99.com/d-3794509.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: QQ登录   微博登录 

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(机器学习常用模型及优化.doc)为本站会员(hw****26)主动上传,文客久久仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知文客久久(发送邮件至hr@wenke99.com或直接QQ联系客服),我们立即给予删除!

机器学习常用模型及优化.doc

1、第一章 模型建立1.1 回归模型:条件:1. 数据2. 假设的模型结果:用模型对数据学习,预测新数据1.1.1 一元线性回归模型(最小二乘法)它通过最小化误差的平方和寻找数据的最佳函数匹配我们以最简单的一元线性模型来解释最小二乘法。什么是一元线性模型呢?监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等) ,如果预测的变量是连续的,我们称其为回归假设从总体中获取了 n 组观察值(X1,Y1) , (X2,Y2) , , (Xn,Yn)平方损失函数1.1.2 逻辑回归模型将线性回归中的一次模型变成逻辑回归函数,即 sigmoid 函数。或者:其他的思路和想法与线性回归一样

2、,所以说逻辑回归的模型是一个非线性模型,但是它本质上又是一个线性回归模型损失函数(误差函数)为:1.1.3 softmax 回归它是逻辑回归的扩展从分类的角度来说,逻辑回归只能将东西分成两类(0,1) ,softmax 可以分成多类逻辑回归中,模型函数(系统函数)为:Softmax 回归中,模型函数(系统函数)为:1.2 神经网络模型1.2.1 神经元首先来一个三输入单输出的神经元,输入输出都是二进制(0,1) 。举例来说:X1 表示天气是否好X2 表示交通是否好X3 表示是否有女朋友陪你Y 表示你是否去电影院看电影要让这个神经元工作起来,需要引入权重,w1,w2,w3。这样就有了:(1)W1

3、 表示”天气是否好”对你做决定的重要程度W2 表示”交通是否好”对你做决定的重要程度W3 表示”是否有女朋友陪你 ”对你做决定的重要程度Threshold 越低表示你越想去看电影,风雨无阻你都想去。Threshold 越高表示你越不想去看电影,天气再好也白搭。Threshold 适中表示你去不去电影院要看情况,看心情。 1.2.2 神经网络现在扩展一下:这样就出现神经网络了,可以看出这是很多神经元组合成的。把上面的(1)式中的 threshold 用偏移量-b 表示,并且移到不等式左边,出现下面(2)式:(2)例子就不举了,原文是实现与非门的一个例子,说明这个东西可以进行逻辑推理,它就很有潜力

4、了,电脑就是靠逻辑加运算来实现各种功能。现在要用这个东西学习识别手写字体,我们的想法是这样的:举例来说,电脑错把 9 当成了 8,那么我们希望通过自动调整 w 或 b 来对output 进行调整,以达到正确的结果。这时网络会自己“学习”了。具体是这样的: 1 if(w+b)0.50outp其中 是 sigmoid 函数:()下面是 sigmoid 函数的图形它是阶梯函数的一个平滑:输出通过 w 和 b 进行微调的式子是这样的:这个式子比较抽象,它只是战略性的一个式子,下面引入 cost 函数来进行战术实践。Cost 函数是评价模型准确与否的一个函数,它可能越大越好,也可能越小越好,看你怎么构造

5、了。这里用均方误差来构造:这个函数越小越好,所以通过使这个函数变得最小来得到最好的 w 和 b,也就是达到最好的学习效果。1.3 最大似然估计X 的一个样本 X1,X2,Xn 独立同分布,其观测值为x1,x2,xn。,其中参数 未知()(;)Pxp根据 X1,X2,Xn 的观测值 x1,x2,xn 来估计模型参数 。假如这组数据服从 B(1,p),p 未知1()() (x=0,)xPXp11().1(),.)ninixxnLXp求 得到 取极大值时的 p,即为所求ln0dp(L第二章 模型优化2.1 遗传算法有个博客讲的很好,用袋鼠跳问题形象的比喻这个问题,类似的算法还有模拟退火法。2.2 梯

6、度下降法一句话来说就是求损失函数或似然函数的极值,我们自己算的话就是求个导就完事了,但是有些函数的导数特别难求,这时候就需要梯度下降法,交给电脑迭代几次就算出来了举例来说,求损失函数的最小值:2.3 牛顿法对于非线性优化,假设任务是优化一个目标函数,求解其极大极小值,转化为求问题,是不是回到了上面的问题?二阶泰勒级数: 21()()()fxfxfx二阶泰勒级数成立的充要条件是 无限趋于 0,两边约去 和 ,()fx(fx并对 求导,得到:()0fxf解得: ()nfx所以得到迭代式: 1()nnfxx红色是牛顿法,绿色是梯度下降法,牛顿法更容易收敛。高维情况的牛顿迭代公式: 11()(), 0nnnxHfxf其中, 是 hessian 矩阵:HHessian 矩阵的引入使得高维情况下牛顿法较为少用,但是有人已提出解决方案 Quasi-Newton method。

Copyright © 2018-2021 Wenke99.com All rights reserved

工信部备案号浙ICP备20026746号-2  

公安局备案号:浙公网安备33038302330469号

本站为C2C交文档易平台,即用户上传的文档直接卖给下载用户,本站只是网络服务中间平台,所有原创文档下载所得归上传人所有,若您发现上传作品侵犯了您的权利,请立刻联系网站客服并提供证据,平台将在3个工作日内予以改正。