ImageVerifierCode 换一换
格式:PPT , 页数:17 ,大小:150KB ,
资源ID:378808      下载积分:2000 积分
快捷下载
登录下载
邮箱/手机:
温馨提示:
如需开发票,请勿充值!快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝扫码支付 微信扫码支付   
注意:如需开发票,请勿充值!
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【http://www.mydoc123.com/d-378808.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(Backpropagation Algorithm.ppt)为本站会员(unhappyhay135)主动上传,麦多课文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知麦多课文库(发送邮件至master@mydoc123.com或直接QQ联系客服),我们立即给予删除!

Backpropagation Algorithm.ppt

1、2018/10/9,1,Backpropagation Algorithm,郝红侠2006.11.13,2018/10/9,2,Perceptron : Single Layer Feed-forward,Input layer of source nodes,Output layer of neurons,Rosenblatts Perceptron: a network of processing elements (PE):,2018/10/9,3,XOR问题,任何一个逻辑电路都可以只用XOR门来实现, XOR是通用门 (universal logic gate) 感知器不能解决XOR问

2、题 两层感知器可以解决XOR问题,异或问题的二层感知器,2018/10/9,4,Perceptron : Multi Layer Feed- forward,2018/10/9,5,MLP的特性,除了输入输出,MLP含有一层或多层隐单元,隐单元从输入模式中提取更多有用的信息,使网络完成更复杂的任务。 MLP神经元的激励函数一般采用Sigmoid函数,即,式中ni是第i个神经元的输入信号,ai是该神经元的输出信号。,2018/10/9,6,当隐层神经元足够多时,Sigmoid结构原则上可以以任意精度逼近的多元非线性函数 MLP的适用范围大大超过单程网络 为了提高神经网络的分类能力,必须采用MLP

3、,但当要精确逼近复杂问题时,隐层神经元和连接突触可能会达到“爆炸”量。,2018/10/9,7,Backpropagation Algorithm,Late 1980s - NN re-emerge with Rumelhart and McClelland (Rumelhart, D., McClelland, J., Parallel and Distributed Processing, MIT Press, Cambridge, 1986.),Why BP is a learning method?,它之所以是一种学习方法,就是因为用它可以对组成前向多层网络的各人工神经元之间的连接权值

4、进行不断修改,从而使该前向多层网络能够将输入它的信息变换成所期望的输出信息。如果将该多层网络看成一个变换,而网络中各人工神经元之间的连接权值看成变换中的参数,那么这种学习算法就是要求得这些参数。,Why a Backpropagation learning method?,之所以将其称作为反向学习算法,是因为在修改各人工神经元的连接权值时,所依据的是该网络的实际输出与期望的输出之差。将这一差值反向一层一层的向回传播,来决定连接权值的修改。,2018/10/9,8,Learning Rule,Measure error Reduce that error By appropriately adj

5、usting each of the weights in the network,2018/10/9,9,BP Network Details,Forward Pass: Error is calculated from outputs Used to update output weights Backward Pass: Error at hidden nodes is calculated by back propagating the error at the outputs through the new weights Hidden weights updated,2018/10

6、/9,10,BP Algorithm,正向过程:,输出层所有神经元的误差能量总和 sum squared error, SSE,权值修正: delta学习规则,2018/10/9,11,Case 1: 输出层权值修正,对于sigmoid函数:,局部 梯度,2018/10/9,12,Case 2:隐层权值修正,2018/10/9,13,BP算法的步骤,初始值选择 前向计算,求出所有神经元的输出 对输出层计算 从后向前计算各隐层 计算并保存各权值修正量: 修正权值: 判断是否收敛,如果收敛则结束,不收敛则转至Step2,2018/10/9,14,收敛性和局部极小值,对于多层网络,误差曲面可能含有多

7、个不同的局部极小值,梯度下降可能陷入这些局部极小值中的任何一个 对于多层网络,反向传播算法仅能保证收敛到误差E的某个局部极小值,不一定收敛到全局最小误差 尽管缺乏对收敛到全局最小误差的保证,BP算法在实践中仍是非常有效的函数逼近算法,2018/10/9,15,BP算法的改进,学习率影响系统学习过程的稳定性。大的学习率可能使网络权值每一次的修正量过大,甚至会导致权值在修正过程中超出某个误差的极小值呈不规则跳跃而不收敛;但过小的学习率导致学习时间过长,不过能保证收敛于某个极小值。所以,一般倾向选取较小的学习率以保证学习过程的收敛性(稳定性),通常在0.010.8之间。增加冲量项的目的是为了避免网络训练陷于较浅的局部极小点。理论上其值大小应与权值修正量的大小有关,但实际应用中一般取正数。通常在01之间,而且一般比学习率要大。,2018/10/9,16,增加冲量项,Here we modify weights of neurons with:,(1),(2),当本次与前一次同符号时,其求和权值增大,使Wij较大,从而在稳定调节时加快了w的调节速度。当与前次符号相反时,指数加权求和的结果使得Wij减小了,起到了稳定的作用。,2018/10/9,17,THANK YOU!,

copyright@ 2008-2019 麦多课文库(www.mydoc123.com)网站版权所有
备案/许可证编号:苏ICP备17064731号-1