1) Motivation 6
2) Kurzdarstellung der verwendeten
SOM-Modelle 6
2.1) Sensorische-SOM (S-SOM)
6
2.2) Unüberwachtes, wachsendes
Neuronen-Gas (GNG-SOM) 8
2.3) Interpolierende SOM
(I-SOM) 9
2.4) Local-Weighted-Regression-SOM
(LWR-SOM) 12
2.5) Gelernte Erwartungen
in GNG-SOMs (LE-GNG-SOM) 13
3) Neuronen-Cluster-SOM (NC-SOM)
15
3.1) Stimulus-Präsentation
und Gewinner-Ermittlung 15
3.2) Verbindungsaufbau 16
3.3) Adaption 17
3.4) Einfügen und Löschen
von Clustern 17
3.5) Spaltung und Fusion
von Clustern 18
3.6) Austausch von Neuronen
in einer überlappungs-Region 20
4) Stimulus-Cluster-SOM (SC-SOM)
22
4.1) Disjunkte Stimulus-Cluster
23
4.1.1) Effiziente lokale
Umverteilungen von Stimuli 23
4.1.2) Voraktivierung
und Startpunkte 26
4.1.3) Lokale zufällige
Stimuluswahl 27
4.1.4) Analyse von Stimulus-Clustern
29
4.1.5) Distanzverteilung
von Stimulus-Clustern 32
4.1.6) Mischverfahren
mit Grob- und Fein-Adaption 34
4.1.7) Stetiger übergang
zwischen Grob- und Fein-Adaption 43
4.1.8) Wechselnde Phasen
der Grob- und Fein-Adaption 48
4.1.9) Test-Stimulus-Cluster
und aktive Lern-Stimulus-Auswahl 51
4.1.10) Test-Stimulus-Cluster
und Bewegung innerhalb Verbindungsgraphen 55
4.1.11) Vergleich der
Analysen von Lern- und Test-Stimulus-Cluster 57
4.1.12) übergang zu einer
neuen Lernmenge durch Nachadaption 58
4.1.13) Bootstrap-Verfahren
innerhalb von Testphasen in SC-SOM 61
4.2) überlappende Stimulus-Cluster
67
4.2.1) Erzeugung von überlappten
Stimulus-Clustern 68
4.2.2) Bezugspunktwahl
in überlappenden Stimulus-Clustern 70
4.2.3) Künstliche überlappung
von Stimulus-Clustern 71
4.2.4) Zugehörigkeitsfunktion
innerhalb überlappungsregionen 76
5) Interpolation im Rahmen
der SC-SOM (I-SC-SOM) 78
5.1) Interpolations-Output-Schätzung
auf der Basis der Lern-Stimuli 78
5.2) Interpolations-Output-Schätzung
zweiter Ordnung 79
5.3) Allgemeine Definition
von Interpolations- und Extrapolations-Regionen 79
5.4) Interpolations- und
Extrapolations-Regionen durch Neurone und Stimuli 86
5.5) Nicht-zufällige Initialisierungs-Achsenabschnitte
89
5.6) Nicht-zufällige Initialisierung
mit übereinstimmenden Gewinner-Listen 93
6) Local-Weighted-Regression
im Rahmen der SC-SOM (LWR-SC-SOM) 94
6.1) KR-Output-Schätzung
auf der Basis der Lern-Stimuli 94
6.2) KR-Output-Schätzung
auf der Basis der Gewichtsvektoren 95
6.3) KR-Output-Schätzung
zweiter Ordnung 95
6.4) LOESS-Output-Schätzung
auf der Basis eines lokalen Stimulus-Clusters 96
6.5) KR-Input-Schätzung
96
6.6) Nutzung der KR in Testphasen
und Parameter-Optimierung 97
7) Gelernte Erwartungen in
SC-SOMs (LE-SC-SOM) 100
7.1) LE-Prinzip bei globaler
Präsentation 101
7.2) LE-Prinzip bei lokaler
Präsentation 101
8) Qualitätsabhängige Regelung
von Verfahrensparametern bei SC-SOM 102
8.1) Regelung der Adaptionsphasen-Länge
105
8.2) Regelung der Einfüge-Wahrscheinlichkeit
108
8.3) Regelung der Anzahl
der Einfüge-Operationen 109
8.4) Regelung der Lernraten
110
8.4.1) Wahrscheinlichkeitsverteilungen
der globalen Lernraten 111
8.4.2) Lokale Lernraten
112
8.5) Regelung der maximalen
Verbindungsdauer 112
8.5.1) Wahrscheinlichkeitsverteilungen
der globalen Verbindungsdauer 116
8.5.2) Lokale Verbindungsdauer
116
8.6) Regelung des Suchradius
bei der Feinadaption 117
8.6.1) Deterministische
Regelung des Suchradius 118
8.6.2) Stochastische Regelung
des Suchradius 119
8.6.3) Lokale Suchradien
119
Literaturverzeichnis 121
Abbildungsverzeichnis 125
|