Philosophie Lexikon der Argumente

Home Screenshot Tabelle Begriffe

 
Neuronale Netze: Neuronale Netze sind Rechenmodelle nach dem Vorbild des menschlichen Gehirns, die Muster erkennen und komplexe Probleme lösen sollen. Sie bestehen aus Schichten miteinander verbundener Knoten (analog zu Neuronen), die Eingabedaten verarbeiten und lernen, Aufgaben zu erfüllen, indem sie die Stärke der Verbindungen auf der Grundlage von Rückmeldungen anpassen. Sie werden häufig beim maschinellen Lernen eingesetzt und ermöglichen Anwendungen wie Bilderkennung, Sprachverarbeitung und Vorhersageanalysen. Siehe auch Künstliche Neuronale Netze, Konnektionismus, Computermodelle, Computation, Künstliche Intelligenz, Maschinenlernen.

_____________
Anmerkung: Die obigen Begriffscharakterisierungen verstehen sich weder als Definitionen noch als erschöpfende Problemdarstellungen. Sie sollen lediglich den Zugang zu den unten angefügten Quellen erleichtern. - Lexikon der Argumente.

 
Autor Begriff Zusammenfassung/Zitate Quellen

Terrence W. Deacon über Neuronale Netze – Lexikon der Argumente

I 130
Neuronale Netze/Lernen/Deacon: Der grundlegende Aufbau besteht aus drei Schichten: Inputeinheiten, Outputeinheiten und verborgene Einheiten (hidden units, mittlere Schicht) sowie deren Verbindungen. Die Zustände der Knoten der mittleren Schicht (0 oder 1) werden zunächst durch die Input-Knoten beeinflusst. Dabei ist entscheidend, dass die Stärke der Verbindungen sich erst durch den häufigeren Gebrauch herausbildet. Trainiert werden die Verbindungen nun dadurch, dass der Erfolg des Outputsignals (richtige oder falsche Assoziation) mit dem Input verglichen wird.
Vgl. >Lernen/Hebb
, >Input/Output.
I 131
Dieses Training entspricht dann einem Anpassen an einen Vorrat an externen Verhaltensformen und ist ein Analogon zum Lernen. Solche Systeme sind viel stärker in der Lage, Muster zu erkennen als herkömmlich programmierte Computer. Wenn neuronale Netze trainiert werden, Stimuli zu kategorisieren, können sie das leicht fortsetzen, wenn neue Stimuli auftreten. Beim Auftreten von zufälligen Störungen sind sie konventionellen Computern darin überlegen,
I 132
zu reagieren und problematische Verbindungen nicht weiter zu verstärken. D.h. sie reagieren nicht in einer Alles-oder-Nichts-Weise. Das ähnelt der Reaktion von Nervensystemen auf Beschädigungen.
>Maschinenlernen.
Informationsverarbeitung innerhalb neuronale Netze hat man mit Hologrammen verglichen, die Information aus mehreren Perspektiven zugleich zur Verfügung haben.
Kurzzeitgedächtnis: Das Kurzzeitgedächtnis kann man mit rekurrenten Netzen nachbilden (vgl. J. Elman)(1). Hierbei werden frühere Zustände der verborgenen Schicht als neuer Input eingegeben und verarbeitet.
Spracherwerb/Elman: Damit konnte Sprachlernen simuliert werden: das Problem des Syntax-Lernens wurde in das Problem übersetzt, frühere Sequenzen auf zukünftige Inputsequenzen abzubilden. Unvollständige Sequenzen wurden von dem System durch die wahrscheinlichsten Ergänzungen vervollständigt. Hierbei ging es zunächst um das Auftreten von 0 und 1, d.h. Bedeutungen wurden vernachlässigt.
Problem: Neuronale Netze konvergieren manchmal in suboptimalen Lösungen, da sie nur lokale Muster berücksichtigen.
Lösung: Damit die Netze nicht in solchen „learning potholes“ (Schlaglöchern) gefangen bleiben, kann man „Geräusche“ (zufällige Störungen) einbauen, die das System dazu zwingen, mögliche Lösungen in einem weiteren Gebiet zu suchen.
I 133
Spracherwerb/Elman/Deacon: Indem Elman verschiedene Stadien des Lernens komplexerer Strukturen auseinander hielt, konnten diese sich nicht gegenseitig stören.
>Spracherwerb.
I 134
Deacon: Es wurde die Produktion grammatisch korrekter Formen induktiv gelernt, ohne irgendeine Grammatik, geschweige denn, eine Universalgrammatik vorauszusetzen. (DeaconVsChomsky).
>Universalgrammatik, >Grammatik, >N. Chomsky.
I 135
Pointe: Es wurde gezeigt, dass die Struktur des Lernprozesses damit zu tun hat, was gelernt werden kann und was nicht. Wichtiger noch: es legt nahe, dass die Struktur der Sprache und die Weisem, wie sie gelernt werden muss, zusammenhängen.
>Sprache/Deacon, >Gehirn/Deacon.

1. Elman, J. (1991): Incremental learning, or the importance of starting small. In: 13th Annual Conference oft he Cognitive Science Society, NJ, L. Erlbaum, 443-448.

_____________
Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders. Übersetzungen: Lexikon der Argumente
Der Hinweis [Begriff/Autor], [Autor1]Vs[Autor2] bzw. [Autor]Vs[Begriff] bzw. "Problem:"/"Lösung", "alt:"/"neu:" und "These:" ist eine Hinzufügung des Lexikons der Argumente.

Dea I
T. W. Deacon
The Symbolic Species: The Co-evolution of language and the Brain New York 1998

Dea II
Terrence W. Deacon
Incomplete Nature: How Mind Emerged from Matter New York 2013

Send Link
> Gegenargumente gegen Deacon
> Gegenargumente zu Neuronale Netze ...

Autoren A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Y   Z  


Begriffe A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z