ImageVerifierCode 换一换
格式:PDF , 页数:12 ,大小:94.28KB ,
资源ID:1076612      下载积分:10000 积分
快捷下载
登录下载
邮箱/手机:
温馨提示:
如需开发票,请勿充值!快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝扫码支付 微信扫码支付   
注意:如需开发票,请勿充值!
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【http://www.mydoc123.com/d-1076612.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(VDI VDE 3550 Blatt 1-2001 Computational Intelligence - Artificial neuronal network in automation - Terms and definitions.pdf)为本站会员(bonesoil321)主动上传,麦多课文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知麦多课文库(发送邮件至master@mydoc123.com或直接QQ联系客服),我们立即给予删除!

VDI VDE 3550 Blatt 1-2001 Computational Intelligence - Artificial neuronal network in automation - Terms and definitions.pdf

1、VEREIN DEUTSCHERINGENIEUREVERBAND DERELEKTROTECHNIKELEKTRONIKINFORMATIONSTECHNIKComputational IntelligenceKnstliche Neuronale Netze in der AutomatisierungstechnikBegriffe und DefinitionenArtificial neuronal network in automationTerms and definitionsVDI/VDE 3550Blatt 1 / Part 1Ausg. deutsch/englischI

2、ssue German/EnglishVDI/VDE-Gesellschaft Mess- und Automatisierungstechnik (GMA)Fachausschuss Neuronale Netze und Evolutionre AlgorithmenVDI/VDE-Handbuch RegelungstechnikVDI/VDE-RICHTLINIENZu beziehen durch / Available from Beuth Verlag GmbH, 10772 Berlin Alle Rechte vorbehalten / All rights reserved

3、 Verein Deutscher Ingenieure, Dsseldorf 2001Vervielfltigung auchfr innerbetriebliche Zwecke nicht gestattet / Reproduction even for internal use not permittedDie deutsche Version dieser Richtlinie ist verbindlich.ICS 17.020 September 2001The German version of this guideline shall be taken as authori

4、ta-tive. No guarantee can be given with respect to the English trans-lation.Inhalt SeiteVorbemerkung . . . . . . . . . . . . . . . . . . . . 21 Motivation, Zweck und Geltungsbereich . . . 22 Begriffe und Definitionen. . . . . . . . . . . . 33 Englische Begriffe mit Verweisen auf dasGlossar . . . . .

5、 . . . . . . . . . . . . . . . . . 11Schrifttum . . . . . . . . . . . . . . . . . . . . 12Contents PagePreliminary note . . . . . . . . . . . . . . . . . . . 21 Motivation, purpose and scope of application 22 Terms and definitions . . . . . . . . . . . . . . 33 English terms with reprimands to the g

6、lossary . . . . . . . . . . . . . . . . . . . . . . 11Bibliography . . . . . . . . . . . . . . . . . . . . . 12Frhere Ausgabe: 09.99, Entwurf,deutschFormer edition: 09/99, draft, in German onlyInhaltlich berprftund unverndertweiterhin gltig2008SeptemberB55EB1B3E14C22109E918E8EA43EDB30F09DCCB7EF86D9N

7、ormCD - Stand 2012-08All rights reserved Verein Deutscher Ingenieure, Dsseldorf 20012 VDI/VDE 3550 Blatt 1 / Part 1VorbemerkungUnter der Bezeichnung Computational Intelligence,kurz CI, haben in der Vergangenheit drei zunchstvoneinander unabhngige Wissensgebiete Knstliche Neuronale NetzeEvolutionre A

8、lgorithmenFuzzy ControlEingang in die industrielle Praxis gefunden.Allen drei Wissensgebieten ist gemeinsam, dass sieauf einer subsymbolischen Datenverarbeitung basie-ren und Problemlsungsstrategien objektivieren.Zudem lassen sich insbesondere komplexe Aufga-benstellungen erst durch hybride Anstze,

9、d.h. dengemeinsamen Einsatz von Neuronalen Netzen, Evo-lutionren Algorithmen und Fuzzy Control lsen.Um bei der industriellen Anwendung dieser Wissens-gebiete eine fr Entwickler, Hersteller und Anwendereinheitliche Sprachregelung zu treffen, hat sich dieGMA entschlossen, fr das Fachgebiet Computatio-

10、nal Intelligence eine Richtlinie mit Begriffen undDefinitionen zu erarbeiten, die aus folgenden Blt-tern besteht:Blatt 1 Knstliche Neuronale Netze in der Auto-matisierungstechnik; Begriffe und Definiti-onenBlatt 2 Fuzzy- Logik und Fuzzy Control; Begriffeund DefinitionenBlatt 3 Evolutionre Algorithme

11、n in der Auto-matisierungstechnik; Begriffe und Definiti-onenDas hier vorliegende Blatt 1 wurde von einer Arbeits-gruppe des GMA-Fachausschusses NeuronaleNetze und Evolutionre Algorithmen“ erarbeitet.1 Motivation, Zweck und GeltungsbereichDie Motivation fr den Einsatz Neuronaler Netze inder Automati

12、sierungstechnik ergibt sich aus der Er-kenntnis, dass selbst mit modernster Rechnertechno-logie eine Reihe von alltglichen Aufgaben nicht ge-lst werden knnen, die biologischen Gehirnenkeinerlei Probleme bereiten. Obwohl die Arbeits-weise des Gehirns bei weitem noch nicht verstandenist, sind doch ein

13、fache Prinzipien erkannt und frtechnische Realisierungen bernommen worden, diein vielen Bereichen gute Ergebnisse erbringen.Mit dieser Richtlinie wird der Zweck verfolgt, fr in-dustrielle Anwender Neuronaler Netze eine einheit-liche Basis zur Verwendung der mageblichen Be-Preliminary noteUnder the d

14、esignation Computational Intelligence, inshort CI, three fields of knowledge which initiallywere different from one another artificial neuronal networksevolutionary algorithmsfuzzy controlhave, in the past, been introduced into industrial prac-tice.All three fields of knowledge have in common thatth

15、ey are based on subsymbolic data processing andobjectify problem-solving strategies. Moreover, es-pecially complex tasks can only be solved by meansof hybrid approaches, i.e. by the joint use of neuronalnetworks, evolutionary algorithms and fuzzy control.In order to establish a uniform terminology f

16、or devel-opers, manufacturers and users in the industrial prac-tice of these fields of knowledge, the VDI/VDE Soci-ety for Measurement and Automatic Control (GMA)has decided to prepare a directive containing termsand definitions for the technical field of Computa-tional Intelligence, which consists

17、of the followingParts:Part 1 Artificial neuronal networks inautomation; Terms and definitionsPart 2 Fuzzy logic and fuzzy control; Terms anddefinitionsPart 3 Evolutionary algorithms in automation;Terms and definitionsThe present Part 1 was prepared by a study group ofthe GMA Technical Committee ”Neu

18、ronal Networksand Evolutionary Algorithms“.1 Motivation, purpose and scope of applicationThe motivation for using neuronal networks in auto-mation stems from the realization that a series ofdaily tasks which present no problem whatever tobiological brains cannot be solved using the most ad-vanced co

19、mputer technology. Although we are stillfar from understanding how the brain works, simpleprinciples have already been discovered and used forcarrying out technical projects, giving good results inmany fields.The purpose of this guideline is to provide industrialusers of neuronal networks with a uni

20、form basis forusing the most important terms and to store the termsB55EB1B3E14C22109E918E8EA43EDB30F09DCCB7EF86D9NormCD - Stand 2012-08Alle Rechte vorbehalten Verein Deutscher Ingenieure, Dsseldorf 2001 VDI/VDE 3550 Blatt 1 / Part 1 3 griffe zu schaffen und die Begriffe mit Definitionenzu hinterlege

21、n.Die Richtlinie gilt fr die Anwendung NeuronalerNetze im industriellen Einsatz.along with their definitions.This guideline applies to the use of neuronal net-works in industrial application.2 Begriffe und DefinitionenTerms and definitionsABAdaline Netzmodell, das sich auf lineare Aktivierungsfunkti

22、onen be-schrnkt und Schwellwert-funktionen als Ausgabefunk-tionen hatAnmerkung: Von Widrow und Hoff ein-gefhrtAdaption a) Vorgang der geeigneten Vern-derung der Gewichte einesNeuronalen Netzes fr ein ver-bessertes Systemverhalten Im-plementierung von Lernenb) Permanente Anpassung einesNeuronalen Net

23、zes im BetriebAdaptionsphase siehe Trainingsphase Adaptionsregel siehe LernregelaktivierendeVerbindungsiehe exzitatorische Verbin-dungAktivierung Interner Wert eines Neurons, deraus den gewichteten Eingangs-werten berechnet wirdAktivierungsfunk-tionFunktion, welche aus den Ein-gangssignalen eines Ne

24、uronsdessen Aktivierung berechnetANN ArtificialNeural NetworkKnstliches Neuronales Netz Approximator siehe universeller Approxima-torART Adaptive Re-sonance TheoryVo n Grossberg und Carpenterentwickelte Theorie zur ber-windung des Stabilitts-Plas-tizitts-Dilemmas- bei Modellenmit lateraler Inhibitio

25、nAnmerkung: Die auf dieser Theorie beru-henden Netz-Modelle wurden zur auf-merksamkeitsgesteuerten Klassifikationentwickelt.Assoziativ-speicherSystem, das einen inhaltsorien-tierten Zugriff statt eines Zugriffsber eine zustzliche Adressie-rung realisiertAnmerkung: Beim assoziativem Zugriffmuss der S

26、chlssel nicht exakt angegebenwerden, sondern kann aus Teilen des Ori-ginals, einem verrauschten Original etc.,bestehen.Ausgabefunktion Funktion zur Bestimmung deraktuellen Ausgabe eines Neu-rons in Abhngigkeit von der ak-tuellen AktivierungAnmerkung 1: Einige Netzmodelle wh-len als Ausgabefunktion d

27、ie Identitt, sodass der Aktivierungszustand einer Verar-beitungseinheit ohne weitere Transforma-tion weitergegeben wird.Anmerkung 2: Die Aktivierungsfunk-tion und die Ausgabefunktion werdenoft unter dem Terminus Transferfunk-tion“ zusammengefasst.Ausgabeknoten/-neuron Neuron mit unmittelbarer Ver-bi

28、ndung zur AuenweltAnmerkung: Der Ausgabewert des Neu-rons wird als Ausgabewert des Netzes ge-nutzt.Ausgabeschicht Schicht der AusgabeneuronenAuto-Assoziation Assoziation, bei der jedes Ein-gabemuster sich selbst wieder alsAusgabe zugeordnet istBackpropa-gation-AlgorithmusOptimierungsalgorithmus fr d

29、ie Gewichte in einem mehr-schichtigen Feed-ForwardNetzAnmerkung: Mit der Vernderung der Gewichte wird in der Ausgabeschichtbegonnen und in der Eingabeschichtbeendet. Es handelt sich um ein Lernver-fahren fr MLP, das auf einem Gradi-entenabstiegsverfahren beruht.B55EB1B3E14C22109E918E8EA43EDB30F09DCC

30、B7EF86D9NormCD - Stand 2012-08All rights reserved Verein Deutscher Ingenieure, Dsseldorf 2001 4 VDI/VDE 3550 Blatt 1 / Part 1CDBackpropagation Through TimeLernverfahren fr ein rckge-koppeltes (rekurrentes) Netzdurch Entfaltung“ in ein mehrschichtiges NetzAnmerkung: Es bercksichtigt, dass beirekurren

31、ten Netzen manche Eingnge vonvergangenen Netzausgngen abhngen.Batch-Training siehe Datensatz-basiertBias-Neuron Neuron, das ohne Eingngeimmer eine 1“ am Ausgang lie-fertAnmerkung: Wird zum Hinzufgen kon-stanter Terme innerhalb des Netzes be-nutzt.Bias-VarianzDilemmaFehler eines Neuronalen Netzesbei

32、der GeneralisierungAnmerkung: Dieser Fehler lsst sich inzwei Anteile zerlegen: Der Bias-Anteilbeschreibt den Fehleranteil, der auf Grundeines zu unflexiblen Netzes, d.h. mit zuwenigen Parametern, zu Stande kommt.Der Varianz-Anteil beschreibt den Fehler-anteil, der durch ungenau geschtzte Gewichte (P

33、arameter) auf Grund vonRauschen zu Stande kommt. Das Di-lemma besteht darin, die Summe beiderAnteile mglichst klein zu halten, wobeiprinzipiell mit zunehmender Netzkomple-xitt der Bias fllt und die Varianz steigt.Boltzmann-Maschine Ein rekurrentes, stochastischesNetzAnmerkung: Die Zustnde des Netzes

34、werden durch die Boltzmann-Verteilungbestimmt. Das Lernen erfolgt auf der Ba-sis von Simulated Annealing.Brain-State-in-a-BoxEin von Anderson entwickeltes,auf dem Basismodell des linea-ren Assoziators beruhendes Mo-dell, das versucht, einen Bezugzu kognitiven Vorgngen immenschlichen Gehirn herzustel

35、-lenAnmerkung: Das Modell sieht die mgli-chen Zustnde des menschlichen Gehirnsals die Eckpunkte eines Wrfels in einemRaum an, der durch die Dimensionierungdes Aktivierungsvektors aufgespanntwird. Jede beliebige Aktivierung wirddurch lineare Transformation schrittweisein einen Vektor berfhrt, der ein

36、em derEckpunkte des Hyper-Wrfels entspricht.Cascade Correla-tionKonstruktives Verfahren zur Er-zeugung von MLPClustering Verfahren, die Daten nach einemhnlichkeitsma gruppieren undso eine Informationskompres-sion durchfhrenCMAC Cerebel-lar Model Articu-lation ControllerEin von Albus entwickeltesMode

37、ll fr die Bewegungssteue-rung durch das KleinhirnAnmerkung: Der CMAC-Algorithmussimuliert die Grobcodierung eines mehr-dimensionalen Eingangssignals, die ver-teilte Speicherung der Information sowieden inhaltsadressierten (assoziativen) Zu-griff auf gespeicherte Daten.Competitive learning siehe Wett

38、bewerbslernen Counterpropaga-tion-Netz Feed-Forward Netz, das eineKombination von Lernverfahrennach Kohonen und GrossbergverwendetCross ValidierungVerfahren zur Abschtzung derGte eines Neuronalen NetzesAnmerkung 1: Der Datensatz wird in kTeile geteilt und das Neuronale Netz je-weils mit k-1 Teilen t

39、rainiert und demrestlichen Teil getestet. Danach werdenalle k Generalisierungsfehler auf den Test-daten summiert und als Ma fr die Gtedes Neuronalen Netzes verwandt.Anmerkung 2: Ein bekanntes Beispiel frCross Validierung ist die Leave-one-out“Methode, bei welcher k gleich der Anzahlder Daten ist.Dat

40、enpunkt-basiertVernderung der Gewichte ei-nes Neuronales Netzes nach Pr-sentation eines einzelnen Daten-punktesDatensatz-basiert Vernderung der Gewichte ei-nes Neuronalen Netzes nach Pr-sentation eines abgeschlossenenDatensatzesDelta-Regel Von Widrow und Hoff entwik-kelte Lernregel, die als Gre zurB

41、erechnung der Vernderung der Gewichte die Differenz zwi-schen der gewnschten und dertatschlich vom Netz produzier-ten Ausgabe verwendetAnmerkung: Die generalisierte Delta-Regel findet im BackpropagationAlgorithmus Anwendung.dynamischeNeuronale NetzeNeuronale Netze, die dynami-sches Verhalten nachbil

42、den kn-nenAnmerkung: Dies geschieht entwederdurch die Erweiterung der Netzstrukturmit dynamischen Elementen (interne Dy-namik) oder durch das Vorschalten einerKette von dynamischen Elementen vor einstatisches Neuronales Netz (externe Dy-namik).B55EB1B3E14C22109E918E8EA43EDB30F09DCCB7EF86D9NormCD - S

43、tand 2012-08Alle Rechte vorbehalten Verein Deutscher Ingenieure, Dsseldorf 2001 VDI/VDE 3550 Blatt 1 / Part 1 5 EFGHEingabeknoten/-neuronNeurone mit unmittelbarer Ver-bindung zur AuenweltAnmerkung: Sie dienen zur Einspeisungder Eingabe des Netzes.Eingabeschicht Schicht aus EingabeneuronenEnergiefunk

44、tion Funktion, die die Gesamtenergieeines Systems beschreibt, welcheim Rahmen einer Optimierungs-aufgabe minimiert werden kannAnmerkung: Eine der wichtigsten Gr-en bei rckgekoppelten Netzen ist dieEnergie E des Systems. hnlich wie inphysikalischen Systemen ist der stabileZustand durch ein Minimum an

45、 Gesamt-energie E(t) gekennzeichnet.Epoche Die Verarbeitung des gesamtenDatensatzesAnmerkung: Beim Datensatz-basier-ten Training entspricht jede Iteration einerEpoche.Erregungs-zustand siehe AktivierungError-Backpropa-gation siehe Backpropagation Algo-rithmusevolutionre AlgorithmenMassiv parallele O

46、ptimierungs-verfahren, welche die natrlicheEvolution nachahmenExtrapolation Verhalten eines NN auerhalbdes durch die Trainingsdaten auf-gespannten Eingangsraumsexzitatorische Verbindung Verbindung mit positivem Ge-wicht, die die Aktivierungeiner Verarbeitungseinheit erh-hen kannFan-In Anzahl der ein

47、gangsseitig ver-bundenen NeuronenFan-Out Anzahl der ausgangsseitig ver-bundenen NeuronenFeed-Forward NetzNetz, bei dem ein Signalpfad nie-mals zum selben Knoten zurck-fhrtAnmerkung: Gegensatz zu Rekurren-ten NetzenFeedback Rckkopplung: Nutzen von Aus-gangssignalen als Eingabewertedes NetzesFehlerflc

48、he Mglichkeit zur Darstellung aller Fehlersignale eines NetzesAnmerkung: Fasst man alle n Gewichteeines Feed-Forward Netzes als Vernder-liche in n Dimensionen auf, so kann mansich alle Werte des Fehlersignals e auf ei-ner Hyperflche im n+l-dimensionalenRaum vorstellen. Fehlergebirge siehe Fehlerflch

49、eFehlersignal Durch Soll/Ist-Vergleich derAusgabe an einer Verarbeitungs-einheit ermittelter Wertgeneralisierte Delta-Regel Vo n Rumelhart und Hinton ein-gefhrte Erweiterung der Delta-Regel, die fr mehr-schichtige Netze mit verborge-nen Neuronen eingesetzt werdenkann (siehe auch Backpropa-gation Algorithmus)Generalisierung Fhigkeit, neue, noch nie gese

copyright@ 2008-2019 麦多课文库(www.mydoc123.com)网站版权所有
备案/许可证编号:苏ICP备17064731号-1