1) Motivation 6
2) Competitive-Strategien
7
2.1) Allgemeine Competitive-Strategien
7
2.2) Beispiele für Competitive-Strategien
8
2.2.1) Winner-takes-all-Learning
(Kohonen-Learning) 8
2.2.2) n-best-Learning
10
3) Sensorische-SOM (S-SOM)
11
4) Kontext-SOM (K-SOM) 15
5) Temporäre-SOM (T-SOM) 17
6) Motorische-SOM (M-SOM)
21
7) Neuronen-Gas (NG-SOM) 23
8) Wachsende Zellstrukturen
(GCS-SOM) 32
8.1) Adaptions-Phase 34
8.2) Einfüge-Phase 34
8.3) Lösch-Phase 36
8.4) Dimensiosreduzierung
durch das Kugel-Gummiband-Modell 37
9) Wachsende Gitterstruktur
(GG-SOM) 39
10) Wachsendes Neuronen-Gas
(GNG-SOM) 42
10.1) Unüberwachte GNG-SOM
44
10.1.1) GNG-SOM mit direkter
Nachbarschafts-Adaption 44
10.1.2) GNG-SOM mit Rangfolge-Adaption
47
10.1.3) GNG-SOM mit Graphen-Rangfolge-Adaption
48
10.1.4) GNG-SOM mit Wettkampf-Adaption
49
10.1.5) Mehrfache Einfüge-Operation
innerhalb einer Einfügephase 50
10.2) überwachte GNG-SOM
51
10.2.1) GNG mit Radial
Basis Funktionen (GNG-RBF-SOM) 51
10.2.2) GNG-RBF-SOM und
Dynamic Decay Adjustment (DDA) 59
10.2.3) GNG mit Local
Linear Mappings (GNG-LLM-SOM) 62
10.2.4) GNG mit motorischem
Raum (GNG-M-SOM) 66
10.2.5) GNG mit entkoppeltem
unüberwachtem und überwachtem Lernen 69
11) Parametrische-SOM (P-SOM)
72
11.1) P-SOM-Basismodell
72
11.2) Local-P-SOM (LP-SOM)
77
11.3) Chebyshev-Verteilte-P-SOM
(CP-SOM) 77
11.4) Effizienzsteigerung
durch abhängige Stimuli-Sequenzen 78
12) Interpolierende SOM (I-SOM)
80
12.1) Lokales Koordinatensystem
82
12.2) Interpolation durch
Projektion 83
12.3) Interpolation durch
Matrix-Inversion 85
12.4) Interpolation durch
Iteration 86
12.5) Vergleich der Interpolationsmethoden
87
12.6) Extrapolation mit
Hilfe der iterativen Interpolation 88
12.7) Vergleich der Interpolationsmethode
mit LLM und RBF 90
12.8) Nutzung der Interpolation
in Testphasen und Parameter-Optimierung 92
12.9) Asymptotische Interpolation
96
12.10) Resampling-Interpolation
100
12.10.1) Delete-d-Jackknife-Interpolation
101
12.10.2) Paar-Bootstrap-Interpolation
101
12.11) Kombination von asymptotischer
Interpolation und Resampling 103
12.12) Unstetige Erweiterungen
der I-SOM 104
12.12.1) Kontinuierlich
wechselndes Koordinatensystem (Ic-SOM) 106
12.12.2) Fixierte Koordinatensysteme
(If-SOM und If-CPN) 108
12.12.3) Vergleich der
Recheneffizienz und der Approximationsqualität 110
12.13) Stetige Erweiterungen
der I-SOM (CI-CPN und CI-SOM) 111
12.13.1) Stetig interpolierende,
fixierte CPN (CIf-CPN, CRIf-CPN) 111
12.13.2) Stetig interpolierende,
fixierte SOM (CIf-SOM, CRIf-SOM) 112
12.13.3) Stetig interpolierende,
kontinuierliche SOM (CIc-SOM, CRIc-SOM) 113
12.13.4) Vergleich der
Recheneffizienz und der Approximationsqualität 114
12.14) Optimierung der Output-Gewichtsvektoren
durch I-SOM-Nachtraining 116
13) Local-Weighted-Regression-SOM
(LWR-SOM) 118
14) Selektive-Aufmerksamkeits
SOM (SA-SOM) 119
14.1) Diskrete SA-SOM 120
14.2) Kontinuierliche SA-SOM
123
15) Gelernte Erwartungen in
GNG-SOMs (LE-GNG-SOM) 124
16) Fuzzy-SOM (F-SOM) 132
17) Adaptive-Subraum-SOM (AS-SOM)
141
Literaturverzeichnis 149
Abbildungsverzeichnis 155
|