ImageVerifierCode 换一换
格式:PPT , 页数:53 ,大小:2.27MB ,
资源ID:377798      下载积分:2000 积分
快捷下载
登录下载
邮箱/手机:
温馨提示:
如需开发票,请勿充值!快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝扫码支付 微信扫码支付   
注意:如需开发票,请勿充值!
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【http://www.mydoc123.com/d-377798.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(-Artificial Neural Network(ANN) - Introduction.ppt)为本站会员(李朗)主动上传,麦多课文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知麦多课文库(发送邮件至master@mydoc123.com或直接QQ联系客服),我们立即给予删除!

-Artificial Neural Network(ANN) - Introduction.ppt

1、-Artificial Neural Network(ANN) - Introduction,朝陽科技大學 資訊管理系 李麗華 教授,A Slice of Neurons,Question: What is this?,朝陽科技大學 李麗華 教授,3,Examples of multipolar cells Kan91,Spinal motor neuron,Hippocampal pyramidal cell,Purkinje cell of cerebellum,脊髓運動神經,海馬錐體神經細胞,小腦蒲金氏細胞,Enlarge the neuron,朝陽科技大學 李麗華 教授,4,Backg

2、round,自古人類即對”人”為什麼能有這麼多能力很好奇,人們很好奇大腦的功能,人類也不斷的從生物的角度來觀察人的智慧如何產生及如何運作。 你大頭啦 http:/www.dls.ym.edu.tw/neuroscience/nsdivide_c.htm#cns大頭真聰明 http:/www.dls.ym.edu.tw/neuroscience/brainsize_c.html 真是神經”析析” http:/www.dls.ym.edu.tw/neuroscience/alz_c.html 在電腦早期出現時(1940年代)即有許多學者不斷提出想要模擬人類思考或推理的學理,最有名的就像是AI領域及

3、ANN。,朝陽科技大學 李麗華 教授,5,人類的好奇與探索花絮,1.解剖高手達文西(Leonardo da Vinci):達文西他不但是義大利的建築師、雕刻家、發明家、 工程師、畫家,他也是位解剖學者,達文西共解剖了30具人體,依解剖內容繪製超過200篇畫作,其中包含腦的頭骨形態及腦部不同的交叉截面圖(橫斷面、縱切面、正切面) 。他的手稿亦包含論人的記憶、智力等。(資料來源: http:/zh.wikipedia.org/http:/zh.wikipedia.org/w/index.php?title=%E5%88%97%E5%A5%A5%E7%BA%B3%E5%A 4%9A%C2%B7%E8

4、%BE%BE%E8%8A%AC%E5%A5%87&variant=zh-tw),朝陽科技大學 李麗華 教授,6,人類的好奇與探索花絮,2.愛因斯坦大腦人人愛-1985年,由美國神經科學家戴蒙(Marian Diamond)領銜, 發表了第一篇研究愛因斯坦大腦的報告。-報告指出,愛因斯坦的左頂葉,神經元與神經膠細胞的比例小於常人。-根據過去的研究,哺乳類神經元與神經膠細胞比例,從小鼠到人有逐步降低的趨勢,有些學者因而推測,神經元執行的功能越複雜,越需要神經膠細胞的支持。-第二篇研究論文發表於1996年,由神經學安德森(Britt Anderson)助理教授提出,愛因斯坦的大腦皮質中,神經元密度較

5、高。這表示愛因斯坦大腦皮質神經元有較佳的傳訊效率,因而可以解釋愛因斯坦的超卓天才。 (資料來源: http:/ 李麗華 教授,7,Postsynaptic cells,Presynaptic cell,Terminal,Axon,Myelin sheath,Node of Ranvier,Axon (initial segment),Axon hillock,Basal dendrites,Nucleus,Perikaryon,Cell body,Excitatory Terminal fiber of an axon,Inhibitory terminal fiber of an axon,

6、Apical dendrites,Presynaptic terminal,Synaptic cleft,Postsynaptic dendrite,Dendrite,Expanded view of single neuron morphology Kan91,照過來瞧瞧我神經CC的內在美,朝陽科技大學 李麗華 教授,8,朝陽科技大學 李麗華 教授,9,Biological Neural,人類自古即對解開人類的大腦及如何思考有極大的興趣。早期學者欲透過人腦的結構及運作方式,思考人腦的奧妙 人腦:大約有1000億個神經細胞(neuron),每個神經細胞約有1000個神經連結(共約有100萬億根

7、的神經連結) 神經細胞主要元素: - Axon(神經軸) - Cell body(neuron)神經元- Nucleus(神經核)- Dandrites(神經樹) - synapse(神經節)作用方式: 可傳導化學物質Two Status:ExcitatoryInhibitory,朝陽科技大學 李麗華 教授,11,Process of Synapse,朝陽科技大學 李麗華 教授,12,Photos of Neural,The Nucleus of a human neuron,朝陽科技大學 李麗華 教授,13,Photos of Neural,Humans Neural Networks,朝陽

8、科技大學 李麗華 教授,14,Photos of Neural,用 diffusion MRI方法拍到的腦神精線條,朝陽科技大學 李麗華 教授,15,Introduction to ANN,Def: A structure (network) composed of a number of interconnected units (artificial neurons). Each unit has an I/O characteristic and implements a local computation or function. The output of any unit is d

9、etermined by its I/O characteristic, its interconnection to other units, and (possibly) external inputs.Although “hand crafting” of the network is possible, the network usually develops an overall functionality through one or more forms of training.,朝陽科技大學 李麗華 教授,16,Introduction to ANN,中文的ANN定義: 類神經

10、網路是一種計算系統,包括軟體與硬體,它使用大量簡單的相連人工神經來模仿生物神經網路的能力. 人工神經是生物神經的簡單模擬,它從外界環境或者其它人工神經取得資訊,並加以簡單運算,並將其結果輸出到外界環境或者其它人工神經元.,朝陽科技大學 李麗華 教授,17,ANN History,Creation Age(孕育期)(before1956) Birth Age(誕生期)(1957-1968) Dark Age(挫折期)(1969-1981) Reborn Age(重生期)(1982-1986) Mature Age(成熟期)(1987present),朝陽科技大學 李麗華 教授,18,Creati

11、on Age,In 1943, McCulloch & Pitts first proposed the neural mathematical model, earlier than the first computer were created. Their premises(assumptions) are: Neuron has two status, i.e., all or none. (excitatory or inhibitory) A neuron is triggered by certain amount of accumulated synapses and the

12、trigger action has nothing to do with the previous status. Only synapse can be delayed. When under inhibitory status a neuron can not be trigged. The neuron net structure is not changed.,朝陽科技大學 李麗華 教授,19,Creation Age,In 1949, Hebb proposed the Hebb learning rule: Information resides in Synapes learn

13、ing rule symmetrical weights When a group of weak neurons is triggered, the strength of connection between them is increased. (即鄰近neuron的訊號可以累積增強weights的值),朝陽科技大學 李麗華 教授,20,Birth Age,In 1957, Rosenblatt proposed the first network model, i.e., Perceptron. (即感知器;當時僅有單層架構) In 1960, Widrow porposed anot

14、her model, i.e., Adaline.(這是屬於連續值的線性網路, 己開始採用learning rule與當時人工智慧邏輯推理很不同),朝陽科技大學 李麗華 教授,21,Dark Age,In 1969, Minsky & Papert proved that Perceptron has limited learning usage, because this model cannot solve the XOR problem. (註) 因當時AI較紅,電腦速度慢, 由於被Minsky的證明困住等原因,ANN研究因此而限於低潮) 但此時期仍有: 芬蘭的Kohonen所提出的Se

15、lf Organization Map(SOM)與 Grossberg學者等提出Adaptive Resonance Theory(ART) model.,朝陽科技大學 李麗華 教授,22,Reborn Age,In 1982, Hopfield proposed the Hopfield Network and the Autoassociative Memory Models. In 1985, Hopfield proposed another Hopfield & Tank Network to solve the Traveling Salesman Problem. After t

16、hese researches, the ANN models were again treated as a promising research area .,朝陽科技大學 李麗華 教授,23,Reborn Age,In 1986, Rumelhart et al. introduced the BPN in their book: “Parallel Distributed Processing” in which generalized delta rule are explained. In addition, they explain how BPN can solve the X

17、OR problem. Until 1990, BPN had become one of the most popular and highly utilized ANN model.,朝陽科技大學 李麗華 教授,24,Mature Age,Up to now, the ANN models has been widely studied and many models has been proposed. Conferences and Journals are created for ANN studies, such as ICNN(International Conference o

18、n NN, IJCNN( International Joint Conference on NN, held by IEEE & INNS). Besides, many tools and software,such as SNNS and MatLab, are been developed for making applying NN easier,朝陽科技大學 李麗華 教授,25,The Node Characteristics of ANN,Input: training sets(or training patterns), X=X1, X2, ., Xn. Output: co

19、mputed output Y=Y1,Y2,Yj, testing sets T=T1,T2,Tj Connections: Weights, Wij. Processing Element(PE): Summation function, Activity function, & Transfer function.,朝陽科技大學 李麗華 教授,26,視覺應用案例,朝陽科技大學 李麗華 教授,27,視覺應用案例,模擬人腦的判斷要項,朝陽科技大學 李麗華 教授,28,Types of ANN,According to Learning Type: Supervise Learning: 運用已

20、知的一組輸入範例及預期答案來訓練網路,例如: Perceptron, BPN, PNN, LVQ, CPN Unsupervise Learning: 不斷透過輸入的範例來做學習與修正網路, 例:SOM, ART Associative memory Learning: 直接訓練並記憶所訓練過的所有對照資料or 圖形, 例: Hopfield, Bidirectional Associative Memory(BAM), Hopfield-Tank Optimization Application:找尋最佳解, 例: ANN, HTN,朝陽科技大學 李麗華 教授,29,Types of ANN

21、,According to Network Structure: Feedforward (one-way) Feedforward (Two-way) Feedback,朝陽科技大學 李麗華 教授,30,Feedforward (one-way),朝陽科技大學 李麗華 教授,31,Feedforward (two-way),朝陽科技大學 李麗華 教授,32,Feedback (one-way),朝陽科技大學 李麗華 教授,33,監督式 Supervised,非監督式 Unsupervised,朝陽科技大學 李麗華 教授,34,(a)差距法則,(b)通用差距法則,(c)波茲曼機學習法則,Lea

22、rning Type of Supervised Network,朝陽科技大學 李麗華 教授,35,Problem Solving Area,Classification Clustering Prediction Memorizing Learning,Optimization Control Recognition Decision-making,朝陽科技大學 李麗華 教授,36,Classification problem,Classification line y,Paremeters,EX: A simple case of classification problem,朝陽科技大學

23、 李麗華 教授,37,Application Area,信用評估 管制圖判讀 生產製程變數預測 顧客篩選 銷售預測 製程監控 石油探勘 汽車診斷 工廠排程 資源配置 股價預測,投資決策 稅務稽查 代款審核 債券分級 醫學診斷 氣象預測 儀器分析 目標追蹤 電腦音樂 專家系統,朝陽科技大學 李麗華 教授,38,Example using ANN model,The credit prediction for a customer who applys for loan., 1.Customers salary 2.Customers house debt 3.Customers car debt

24、 4.Customers average living cost 5.Customers credit history, 1.O.K. Qualified for loan 2.Sorry, no new loan is available for the loaner.,ANN Model,朝陽科技大學 李麗華 教授,39,The comparison of ANN with Regression(1/2),Variable prediction vs. Regression AnalysisFor regression, the main task is to find out the p

25、arameters a0,a1,a2,a3,an . Therefore, Regression can be used to do the classification or prediction. However, if the problem is belongs to non-linear type, then it will become difficult to solve. ANN is good for the nonlinear problem, especially when the problem is very complex.,朝陽科技大學 李麗華 教授,40,The

26、 comparison of ANN with Regression(2/2),ANN vs. Regression The ANN advantages: Can solve non-linear problem Parameters can be modified easily Easy to construct the model Accepts any type of input ANN vs. Regression The disadvantage: Takes time to find the global minimum(the best solution) May be ove

27、r learning Accepts any type of input,朝陽科技大學 李麗華 教授,41,The comparison of ANN with Time Series,Time SeriesBased on the (time) history values to predict future results. EX: prediction of stock market, prediction of volcano eruption,朝陽科技大學 李麗華 教授,42,The comparison of ANN with Decision Making,Decision Ma

28、king By Applying the same inputs to find out which fi has the best outcome. The decision is made based on the best outcome. EX: Credit evaluation, Scheduling, Strategic decision,朝陽科技大學 李麗華 教授,43,類神經網路模式列表(1/3),朝陽科技大學 李麗華 教授,44,類神經網路模式列表(2/3),朝陽科技大學 李麗華 教授,45,類神經網路模式列表(3/3),朝陽科技大學 李麗華 教授,46,Typical L

29、earning Methods for Basic Learning Strategies,Learning Strategy,Supervised Delta Rule Backpropagation Hebbian Stochastic,Unsupervised Competitive Hebbian,Reinforcement Learning Automata,朝陽科技大學 李麗華 教授,47,Categories of Network Types by Broad Learning Method,Learning Method,Supervised ADALINE Boltzmann

30、 Cascade Correlation GRNN Hopfield LVQ MLFF with BP PNN RBF RNN RCE,Unsupervised ART Hopfield LVQ Neocognitron SOFM,Reinforcement,朝陽科技大學 李麗華 教授,48,Categories of Network Types by Learning Type,Learning Type,Error Correction ADALINE CCN GRNN Hopfield MLFF with BP Perceptron RBF RNN,Stochastic Boltzman

31、n Machine Cauchy Machine,Competitive ART CPN LVQ SOFM,Hebbian AM BSB BAM Hopfield Neocognitron,朝陽科技大學 李麗華 教授,49,Categories of Network Types by Architectural Type,Architecture Type,Singer Layer Feedforward ADALINE AM Hopfield LVQ Perceptron SOFM,Recurrent ART BAM Boltzmann Machine Cauchy Machine Hopf

32、ield RNN,Multilayer Feed Forward CCN GRNN MADALINE MLFF with BP Neocognitron RBF RCE,朝陽科技大學 李麗華 教授,50,Categories of Network Types by Application Type,Application Type,Associative Memory ART AM BAM BSB Hopfield MLFF with BP,Optimization ADALINE Boltzmann Hopfield MLFF with BP RNN SOFM,General Mapping

33、 CCN GRNN,Prediction ADALINE CCN GRNN MADALINE MLFF with BP RBF RNN SOFM,Pattern RecognitionART CCNCPN GRNNLVQ MLFF with BPRBF NeocognitronRCE SOFM,Classification ADALINE ART CCN CPN GRNN LVQ MLFF with BP RBF RCE SOFM,朝陽科技大學 李麗華 教授,51,Neural Network Taxonomies,Perceptron Hopfield ADALINE (Adaptive L

34、inear Neural Element) MADALINE (Multilayer ADALINE) BPN (Back Propagation Network) ART (Adaptive Resonant Theory) AM (Associative Memories) BAM (Bidirectional Associative Memory) Boltzmann Machine CCN (Cascade Correlation) CPN (Counter Propagation Network) GRNN (Generalized Regression Neural Network

35、),朝陽科技大學 李麗華 教授,52,Neural Network Taxonomies,LVQ (Learning Vector Quantization) MLFF with BP (Multilayer Feedforward Backpropagation) PNN (Probabilistic Neural Network) RBF (Radial Basic Function) RNN (Recurrent Neural Networks) SOM (Self-Organizing Map) or SOFM (Self-Organizing Feature Map) NLN (Ne

36、urologic Networks),朝陽科技大學 李麗華 教授,53,What should be learned in this lecture,In this lecture, you should learn the followings: Human Neural Terminologies, Definition of ANN, Characteristics of an ANN node, A brief idea of where ANN can be applied, A brief idea of types and Models of ANN, Varies structure of ANN, A brief concept of supervised & unsupervised learning.,

copyright@ 2008-2019 麦多课文库(www.mydoc123.com)网站版权所有
备案/许可证编号:苏ICP备17064731号-1