1、,基于组合模型的网络流量预测,兰州大学-张洋,CONTENTS,1,4,2,5,3,研究背景,实验结果及分析,研究方法,结论与建议,模型设计,RESEARCH BACKGROUNDS,RESEARCH FR METHODS,model design,experiment results and analysis,CONCLUSION AND SUGGESTION,PPT模板下载: 行业PPT模板: 节日PPT模板: PPT素材下载: PPT背景图片: PPT图表下载: 优秀PPT下载: PPT教程: Word教程: Excel教程: 资料下载: PPT课件下载: 范文下载: 试卷下载: 教
2、案下载: PPT论坛:,1,研究背景,RESEARCH BACKGROUNDS,Internet的普及率越来越广,网民数量呈爆炸式的增长,这对计算机网络的安全及管理提出巨大挑战网络流量分析是对网络进行管理最为广泛和重要的手段之一 有效的网络流量预测可以对网络管理提供依据,研究现状,1,研究背景,RESEARCH BACKGROUNDS,Poisson模型,线性模型,非线性模型,组合 模型,流量数据服从指数分布,网络具有尺度特性,Poisson不再合适。,随机性、突发性等非线性特点。,网络流量数据拥有组合特性和复杂性,BP,RBF,SVM,ARMA,通过分析时间序列历史数据发掘研究事物变化的规律
3、性,2,研究方法,RESEARCH METHODS,ARMA模型,由自回归模型与滑动平均模型为基础“混合”构成。,如果时间序列yt满足:,则称时间序列为yt服从(p,q)阶自回归滑动平均混合模型。 或者记为(B)yt = (B)t 特殊情况:q=0,模型即为AR(p),p=0,模型即为MA(q)。,2,研究方法,极限学习机,第一步:确定隐含层神经元个数,随机设定输入层与隐含层间的连接权值w和隐含层神经元的阈值b;第二步:选择一个可以无限可微的函数作为隐含层神经元的激活函数,进而计算隐含层输出矩阵H;第三步:计算输出层权值,是一种特殊类型的单隐层前馈神经网络,仅有一个隐结点层。,极限学习机的结构
4、原理图,RESEARCH METHODS,2,研究方法,小波分解,一种基于信号的时间、尺度的分析方法 它具有在时间和频率两个域中提取信号局部特征的能力,非常适合对非平稳的序列进行特征提取和分析,连续小波变换,离散小波变换,RESEARCH METHODS,2,研究方法,小波分解,Mallet算法,Mallat 分解算法示意图,RESEARCH METHODS,小波分解及参数选择,Daubechies(dbN)小波 Symlet(symN)小波 Coiflet(coifN)小波 Biorthogonal(biorNr.Nd)小波,3,模型设计,model design,小波基选择,分解层数选择,
5、+,ARMA建模过程,3,模型设计,model design,1,4,2,5,3,6,平稳性判定,自相关系数,偏自相关系数,模型识别,模型检验,模型预测,基于小波变换的组合模型设计与实现,方法二,3,模型设计,model design,小波分解平稳性判断 ARMA建模 ELM建模 重构,4,实验结果及分析,experimental results and analysis,性能评价指标,为了检验实验的预测精度,我们使用了三种不同的统计指标:平均绝对误差百分比(Mean Absolute Percentage Error),平均绝对误差(Mean Absolute Error)和均方根误差(Ro
6、ot Mean Square Error)。,4,实验结果及分析,experimental results and analysis,实验数据,一共七天的每天08:00到24:00之间的192条数据进行实验,将前六天的数据作为训练数据,最后一天的数据作为测试数据.,4,实验结果及分析,experimental results and analysis,UK数据经过小波变换之后得到的细节部分dx(x=1-6)和趋势部分ax(x=1-6),4,实验结果及分析,experimental results and analysis,UK数据经过小波变换之后得到的子序列的自相关和偏自相关函数,4,实验结果及分析,experimental results and analysis,不同预测模型分别对教育网数据和网通数据的预测汇总,(1)小波变换利用小波变换的比例收缩特性,将具有长程相关或者自相似等本质特性的网络流量数据进行分解和重构,变成多条短相关的子序列,然后使用自相关和偏自相关相结合的方式确定序列的平稳性。(2)组合:ARMA+ELM由于线性短相关模型ARMA对平稳序列有非常大预测优势,非线性ELM方法对非平稳数据预测效果更好,5,结论,CONCLUSION,THANKS,谢谢!,