Psychologie Lexikon der Argumente

Home Screenshot Tabelle Begriffe

Autor/Titel Begriff Zusammenfassung Metadaten

Terrence W. Deacon über Neuronale Netze – Lexikon der Argumente

I 130
Neuronale Netze/Lernen/Deacon: der grundlegende Aufbau besteht aus drei Schichten: Inputeinheiten, Outputeinheiten und verborgene Einheiten (hidden units, mittlere Schicht) sowie deren Verbindungen. Die Zustände der Knoten der mittleren Schicht (0 oder 1) werden zunächst durch die Input-Knoten beeinflusst. Dabei ist entscheidend, dass die Stärke der Verbindungen sich erst durch den häufigeren Gebrauch herausbildet. Trainiert werden die Verbindungen nun dadurch, dass der Erfolg des Outputsignals (richtige oder falsche Assoziation) mit dem Input verglichen wird.
I 131
Dieses Training entspricht dann einem Anpassen an einen Vorrat an externen Verhaltensformen und ist ein Analogon zum Lernen. Solche Systeme sind viel stärker in der Lage, Muster zu erkennen als herkömmlich programmierte Computer. Wenn neuronale Netze trainiert werden, Stimuli zu kategorisieren, können sie das leicht fortsetzen, wenn neue Stimuli auftreten. Beim Auftreten von zufälligen Störungen sind sie konventionellen Computern darin überlegen,
I 132
zu reagieren und problematische Verbindungen nicht weiter zu verstärken. D.h. sie reagieren nicht in einer Alles-oder-Nichts-Weise. Das ähnelt der Reaktion von Nervensystemen auf Beschädigungen.
Informationsverarbeitung innerhalb neuronale Netze hat man mit Hologrammen verglichen, die Information aus mehreren Perspektiven zugleich zur Verfügung haben.
Kurzzeitgedächtnis: kann man mit rekurrenten Netzen nachbilden (vgl. J. Elman)(1). Hierbei werden frühere Zustände der verborgenen Schicht als neuer Input eingegeben und verarbeitet.
Spracherwerb/Elman: damit konnte Sprachlernen simuliert werden: das Problem des Syntax-Lernens wurde in das Problem übersetzt, frühere Sequenzen auf zukünftige Inputsequenzen abzubilden. Unvollständige Sequenzen wurden von dem System durch die wahrscheinlichsten Ergänzungen vervollständigt. Hierbei ging es zunächst um das Auftreten von 0 und 1, d.h. Bedeutungen wurden vernachlässigt.
Problem: Neuronale Netze konvergieren manchmal in suboptimalen Lösungen, da sie nur lokale Muster berücksichtigen.
Lösung: Damit die Netze nicht in solchen „learning potholes“ (Schlaglöchern) gefangen bleiben, kann man „Geräusche“ (zufällige Störungen) einbauen, die das System dazu zwingen, mögliche Lösungen in einem weiteren Gebiet zu suchen.
I 133
Spracherwerb/Elman/Deacon: indem Elman verschiedene Stadien des Lernens komplexerer Strukturen auseinander hielt, konnten diese sich nicht gegenseitig stören.
I 134
Deacon: es wurde die Produktion grammatisch korrekter Formen induktiv gelernt, ohne irgendeine Grammatik, geschweige denn, eine Universalgrammatik vorauszusetzen.
I 135
Pointe: es wurde gezeigt, dass die Struktur des Lernprozesses damit zu tun hat, was gelernt werden kann und was nicht. Wichtiger noch: es legt nahe, dass die Struktur der Sprache und die Weisem, wie sie gelernt werden muss, zusammenhängen.


(1) Elman, J. (1991): Incremental learning, or the importance of starting small. In: 13th Annual Conference oft he Cognitive Science Society, NJ, L. Erlbaum, 443-448.


_____________
Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders. Übersetzungen: Lexikon der Argumente

Dea I
T. W. Deacon
The Symbolic Species: The Co-evolution of language and the Brain New York 1998

Dea II
Terrence W. Deacon
Incomplete Nature: How Mind Emerged from Matter New York 2013

Send Link
> Gegenargumente zu Neuronale Netze

Autoren A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z  


Begriffe A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z