| Begriff/ Autor/Ismus |
Autor |
Eintrag |
Literatur |
|---|---|---|---|
| Chinese Room | Pinker | I 121f Chinese Room/Searle: These: Verstehen ist nicht Symbolverarbeitung. ChurchlandVsSearle: Dann kann man auch Maxwells Elektromagnetismus widerlegen: ein Mann schwenkt einen Stabmagneten: dann erzeugt er elektromagnetische Wellen, aber kein Licht. Falsch: Also sei Licht keine elektromagnetische Welle. Extrapolation: Dann ersteht auch bei höheren Frequenzen kein Licht. Analogie: Searle hat das Berechnen so verlangsamt, dass man darin kein Verstehen mehr sehen kann. Pinker: Wenn jemand in Sekundenschnelle alle Regeln aus dem Übersetzungshandbuch anwendete, würden wir nicht sagen, er könne kein Chinesisch. PinkerVsSearle: Er untersucht nur die Bedeutung des Wortes Verstehen; aber man braucht das Wort ja nicht zu verwenden. >Verstehen, >Übersetzung, >Denken, >Sprache, >Symbolverarbeitung, >Symbol. |
Pi I St. Pinker Wie das Denken im Kopf entsteht München 1998 |
| Computermodell | McGinn | II 201 Algorithmus/McGinn: setzt keine Intelligenz voraus, sondern nur Geduld. Er kann ohne Bewusstsein durch geführt werden. Symbolverarbeitung: rein syntaktisch . Computer/Geist/McGinn: weil Symbolverarbeitung rein syntaktisch ist, sind mentale Prozesse nicht mit symbolverarbeitenden Algorithmen gleichzusetzen. Der Geist reagiert auf Bedeutung und nicht allein auf Syntax. >Algorithmus, >Information processing/Psychologie, >Geist, >Syntax, >Bewusstsein. II 202 Computer/Empfindung/McGinn: ein Programm ablaufen zu lassen, garantiert kein empfinden, es ist weder notwendig noch hinreichend , weil Empfindungen im Allgemeinen keine Symbolverarbeitung einschließen. ((s) Ist nicht Symbolverarbeitung auf jeden Fall beteiligt? Ja, aber nicht auf der oberen Ebene. Sonst müsste man erst über Schmerz reden, um ihn zu fühlen). >Empfindung. II 206 McGinn: Ein Schmerz ist genauso wenig ein Zeichen wie ein Herzschlag. An einem schmerzgeplagten Tier ist nichts linguistisches und das gilt auch für uns! >Schmerz. I 212 ff Roboter/Empfindung/McGinn: aus alle dem folgt nicht, dass ein Roboter kein Bewusstsein haben kann, es kann es nur nicht kraft seiner Eigenschaft als Computer haben. es könnte tatsächlich ein bewusstes Artefakt geben. Wenn sich herausstellte, dass wir von Außerirdischen geschaffen wurden, hieße das nicht, dass wir kein Bewusstsein hätten. II 225 allgemeine Frage: fügt Bewusstsein der Organisation mentaler Funktionen etwas hinzu? >Künstliche Intelligenz, >Starke Künstliche Intelligenz, >Künstliches Bewusstsein. |
McGinn I Colin McGinn Die Grenzen vernünftigen Fragens Stuttgart 1996 McGinn II C. McGinn Wie kommt der Geist in die Materie? München 2001 |
| Erklärungen | Kognitionswissenschaft | Corr I 416 Erklärung/Kognitionswissenschaft/Pylyshyn/Matthews: schlugen einen Rahmen vor, der drei qualitativ unterschiedliche Ebenen der Ausweisung zulässt (Pylyshyn 1999)(1): 1. Wissen = Ziele, Absichten und persönliche Bedeutung, die die Anpassung an die äußere Umgebung unterstützen 2. Symbolverarbeitung a) Algorithmus = Formale Spezifikation des Programms zur Symbolmanipulation b) Funktionale Architektur = Echtzeit-Verarbeitungsoperationen zur Unterstützung der Symbolmanipulation 3. Biologie = Physikalische, neuronale Darstellung der Verarbeitung. >Persönlichkeit, >Arousal/Neurobiologie, >Symbolverarbeitung, >Algorithmen, >Wissen, >Ziele, >Absicht, >Intentionen, >Beschreibungsebenen, >Stufen/Ebenen. 1. Pylyshyn, Z. W. 1999. What’s in your mind?, in E. Lepore and Z. W. Pylyshyn (eds.), What is cognitive science?, pp. 1–25. Oxford: Blackwell Gerald Matthews, „ Personality and performance: cognitive processes and models“, in: Corr, Ph. J. & Matthews, G. (eds.) 2009. The Cambridge handbook of Personality Psychology. New York: Cambridge University Press |
Corr I Philip J. Corr Gerald Matthews The Cambridge Handbook of Personality Psychology New York 2009 Corr II Philip J. Corr (Ed.) Personality and Individual Differences - Revisiting the classical studies Singapore, Washington DC, Melbourne 2018 |
| Erklärungen | Pylyshyn | Corr I 416 Erklärung/Kognitionswissenschaft/Pylyshyn/Matthews: Pylyshyn schlug einen Rahmen vor, der drei qualitativ unterschiedliche Ebenen der Ausweisung zulässt. (Pylyshyn 1999)(1): 1. Wissen = Ziele, Absichten und persönliche Bedeutung, die die Anpassung an die äußere Umgebung unterstützen 2. Symbolverarbeitung a) Algorithmus = Formale Spezifikation des Programms zur Symbolmanipulation b) Funktionale Architektur = Echtzeit-Verarbeitungsoperationen zur Unterstützung der Symbolmanipulation 3. Biologie = Physikalische, neuronale Darstellung der Verarbeitung. >Persönlichkeit/Neurobildgebung, >Arousal/Neurobiologie. 1. Pylyshyn, Z. W. 1999. What’s in your mind?, in E. Lepore and Z. W. Pylyshyn (eds.), What is cognitive science?, pp. 1–25. Oxford: Blackwell Gerald Matthews, „ Personality and performance: cognitive processes and models“, in: Corr, Ph. J. & Matthews, G. (eds.) 2009. The Cambridge handbook of Personality Psychology. New York: Cambridge University Press |
PsychPyly I Zenon W. Pylyshyn Things and Places: How the Mind Connects with the World Cambrindge, MA 2011 Corr I Philip J. Corr Gerald Matthews The Cambridge Handbook of Personality Psychology New York 2009 Corr II Philip J. Corr (Ed.) Personality and Individual Differences - Revisiting the classical studies Singapore, Washington DC, Melbourne 2018 |
| Gehirn/ Gehirnzustand | Pinker | I 40 Gehirn/Pinker: das Gehirn ist langsamer als Silizium, kann aber größere Muster vergleichen. I 43 Das Gehirn liefert fehlende Information. Universaler Problemlöser/General Problem Solver/GPS: ist nur mit totaler Information möglich. - Schnee ist manchmal dunkler als Kohle. >Denken, >Geist, >Erinnerung, >Vergleich, >Vergleichbarkeit, >Symbolverarbeitung, >Problemlösen, >General Problem Solver, >Kognition, >Informationsverarbeitung, >Gedächtnis. |
Pi I St. Pinker Wie das Denken im Kopf entsteht München 1998 |
| Geist/ Geistzustand | Pinker | I 34 Def Geist/Pinker These: Der Geist ist ein System von Rechenorganen, das von der Selektion so gestaltet wurde, dass es Probleme von Jägern und Sammlern lösen kann, insbesondere indem es Gegenstände, Pflanzen, Tiere und andere Menschen versteht und überlistet. I 37 Geist/Pinker: Ansammlung von nicht gegeneinander abgeschlossenen Modulen. - Geist ist nicht gleich Gehirn, sondern Tätigkeit des Gehirns, aber nicht die einzige: das Gehirn setzt auch Fett um. Sehen/Denken/Fühlen: Informationsverarbeitung. >Denken, >Geist, >Erinnerung, >Symbolverarbeitung, >Problemlösen, >Kognition, >Informationsverarbeitung, >Gedächtnis. I 46 Geist/Fodor: Modul. >Bewusstsein/Fodor. PinkerVsFodor: das ist zu abgegrenzt - besser: Chomsky: Geist als "mentales Organ". I 182 Geist/Minsky: Gesellschaft mit Agenten. >Geist/Minsky. Geist/Dennett: Große Ansammlung teilweise fertiger Entwürfe - In dieser Ansammlung gibt es keinen "Präsidenten". >Geist/Dennett. PinkerVsDennett: Die Agenten sind hierarchisch. |
Pi I St. Pinker Wie das Denken im Kopf entsteht München 1998 |
| Psychologie | Pinker | I 87 PinkerVsFreud: Das Gehirn funktioniert nicht aufgrund irgendeines Drucks, sondern es erzeugt ihn als Taktik zur Problembewältigung. >Denken, >Geist, >Erinnerung, >Symbolverarbeitung, >Problemlösen, >Kognition, >Informationsverarbeitung, >Gedächtnis. |
Pi I St. Pinker Wie das Denken im Kopf entsteht München 1998 |
| Regeln | Chalmers | I 329 Regeln/Künstliche Intelligenz/VsKI/VsChalmers/Chalmers: Argumente im Zusammenhang mit der angeblichen Unmöglichkeit (starker) Künstlicher Intelligenz merken an, dass künstliche Systeme ausschließlich Regeln folgen und daher Unfähig zur Kreativität und Flexibilität seien. >Künstliche Intelligenz, >Künstliches Bewusstsein, >Starke Künstliche Intelligenz, >Human Level AI. ChalmersVsVs: Das gilt nur für Symbolverarbeitung und nicht alle Systeme der KI beschränken sich auf Symbolverarbeitung. Konnektionistische Modelle bestehen nicht in Symbolmanipulation. Es mag sein, dass diese Systeme auf einer Ebene Regeln folgen, aber das zeigt sich nicht im Verhalten. >Konnektionismus, >Neuronale Netze, >Künstliche Neuronale Netze, >Symbolmanipulation, >Verhalten. Ebenen/Hofstadter/Chalmers: (Hofstadter 1979)(1) die Ebene auf der ich denke ist nicht unbedingt die Ebene, auf der ich addiere. >Stufen/Ebenen. 1. D. R. Hofstadter, Gödel, Escher Bach, New York 1979 |
Cha I D. Chalmers The Conscious Mind Oxford New York 1996 Cha II D. Chalmers Constructing the World Oxford 2014 |
| Reize | Pinker | I 196 Reiz/Reaktion/Pinker: Reflexe beim Menschen brauchen wesentlich länger als z.B. bei Insekten. Das heißt, dass irgendwelche Denkprozesse ablaufen. >Denken, >Geist, >Erinnerung, >Symbolverarbeitung, >Problemlösen, >Kognition, >Informationsverarbeitung, >Gedächtnis, >Vergleich, >Vergleichbarkeit. |
Pi I St. Pinker Wie das Denken im Kopf entsteht München 1998 |
| Symbole | Deacon | I 79 Symbole/Deacon: Die Tradition nimmt an, dass symbolische Assoziation durch das Lernen der Verbindung zwischen einem Geräusch oder einer Zeichenkette mit etwas anderem in der Welt gebildet wird. DeaconVsTradition: Das ist es, was wir dagegen mit Index bzw. indexhafter oder indizierender Assoziation meinen. >Icons/Deacon. I 80 Auch Wörter können ein Index sein: Bsp „Aha!“, „dort“ usw. >Indexikalität. Verstehen: Ein Zeichen dafür, dass jemand ein Wort verstanden hat ist seine Fähigkeit, dieses Wort in anderen Sätzen zu verwenden. Wenn das Wort allerdings nur irgendwo eingebaut wird, wäre das nur ein indexartiges oder ikonisches Verstehen. >Verstehen, >Sprachgebrauch. Symbol: Um etwas als Symbol zu verwenden, müsste man auch die referentiellen Funktionen (worauf bezieht es sich?) handhaben können. >Referenz, >Symbolische Referenz. Def Reizverallgemeinerung: Der Transfer von Assoziationen von einem Reiz auf einen ähnlichen. Ähnlich die Übertragung von gelernten Mustern auf einen ähnlichen Kontext. Das wird oft mit symbolischen Assoziationen verwechselt. >Assoziation, >Reize, >Reizbedeutung, >Sprachgebrauch, >Verallgemeinerung. I 81 Lernen/DeaconVsTradition: Solche Übertragungen sind keine besonderen Lernformen, sondern einfach ikonische Projektionen. Das geschieht von selbst, weil immer Mehrdeutigkeit im Spiel ist. Psychologische Modelle sprechen oft von Regeln für diese Übertragung. >Lernen, >Regeln. DeaconVs: Da es sich um eine ikonische Relation handelt, gibt es keine implizite Liste von Kriterien, die gelernt wird. ((s) Bilder werden direkt verglichen, nicht anhand von Listen von Kriterien). Icon/Deacon: Wörter oder Reize stehen für eine Menge von Dingen, die sich mehr oder weniger voneinander unterscheiden. Menschen und auch Tiere lernen das. Dieses Lernen geschieht nicht durch Kriterien für Symbole, sondern durch ikonische Überlappung. Diese liefert die Basis für indexhafte Referenz. I 83 Symbol/Lernen/Deacon: Die Schwierigkeit des symbolischen Lernens rührt von der komplexen Relation her, die ein Symbol (z.B. ein Wort) zu anderen Symbolen hat. Solche komplexen Relationen gibt es nicht zwischen Indices (einfachen Zeichen mit physischer Verbindung zu einem Objekt). I 92 Symbole/Deacon: Problem: Symbole können nicht einzeln gelernt werden, da sie untereinander ein System bilden. I 93 Bevor eine einzige Assoziation Symbol-Objekt überhaupt festgestellt werden kann, muss das vollständige logische System der Symbole gelernt sein. Problem: selbst bei wenigen Symbolen gibt es eine sehr große Zahl von möglichen Kombinationen, von denen die meisten sinnlos sind. Diese müssen aussortiert, d.h. „verlernt“ werden. I 99 Symbole/Deacon: Symbole sind keine unstrukturierte Menge von Tokens die Gegenstände repräsentieren, sondern sie repräsentieren sich auch untereinander. Symbole referieren nicht direkt auf Dinge in der Welt, sondern sie tun dies indirekt, indem sie auf andere Symbole referieren ((s) Weil sie in einem syntaktischen und semantischen System lokalisiert sind). I 100 Begrenzung/Grenzen: Zufällige uninterpretierte Zeichenketten haben keine Referenz und daher keine Begrenzung in ihrer Menge. Anders Symbole: Ihre Menge ist begrenzt wegen des (praktischen, externen) Gebrauchs und wegen des Gebrauchs der anderen Symbole, durch die sie definiert sind. Frage: warum sind nur einige Arten von Symbolsystemen in menschlichen Sprachen verwirklicht, andere aber nicht? I 266 Symbole/Deacon: es ist falsch anzunehmen, sie wären irgendwo im Gehirn lokalisiert. Sie sind vielmehr Relationen zwischen Tokens, nicht die Tokens selbst. Sie symbolische Funktion wird auch nicht durch eine spezielle Assoziation konstituiert, sondern durch die Menge der Assoziationen, die in jeder Instanz des Symbols teilweise abgebildet sind. I 267 Im Gehirn sind die Operationen für die Organisation dieser kombinatorischen Relationen im präfrontalen Cortex angesiedelt. I 336 Symbole/Sprache/Gehirn/Evolution/Deacon: These: Es ist der Symbolgebrauch, der es erforderlich machte dass unser menschliches Gehirn sich so entwickelte, dass ein besonderes Gewicht auf Aktionen im präfrontalen Cortex gelegt werden konnte. >Adaption/Deacon. I 339 Symbole/Evolution/Gehirn/DeaconVsPinker/DeaconVsChomsky: Was immer wir „Sprachinstinkt“ nennen, Symbolverarbeitung ist so stark im Gehirn verteilt, dass sie nicht der natürlichen Selektion unterworfen sein kann. Damit ist Sprache von dem abgeschnitten, was die biologische Evolution formen kann. >Denken, >Kognition, >Informationsverarbeitung/Psychologie, vgl. >Kognitionspsychologie. I 339/340 Universalgrammatik/Sprachentstehung/Lösung/Deacon: Ko-Evolution von Sprachen mit Rücksicht auf die Gegebenheiten und Dispositionen des Gehirns. Das kann eine Erklärung für eine entstehende grammatische Universalität sein. >Universalgrammatik, >Symbolische Kommunikation, >Symbolisches Lernen, >Symbolische Repräsentation. |
Dea I T. W. Deacon The Symbolic Species: The Co-evolution of language and the Brain New York 1998 Dea II Terrence W. Deacon Incomplete Nature: How Mind Emerged from Matter New York 2013 |
| Symbole | Gärdenfors | I 74 Symbole/Gärdenfors: Da das Imitieren von Bereichen von Objektkategorien schwierig ist, sind willkürlich gewählte Symbole effizienter für die Kooperation von Menschen. (Tylén et al. (2010(1), p. 6). Symbolische Sprache/Gärdenfors: These: Intersubjektivität und das Teilen korrespondierender semantischer Bereiche bilden die entscheidenden Merkmale menschlicher Kooperation und diese Mechanismen bilden den evolutionären Hintergrund für die Ausbildung kommunikativer Fähigkeiten, die zu symbolischen Sprachen führen. I 261 Symbole/Semantic Web/Gärdenfors: Symbolverarbeitung (symbolisches Denken) solte durch Kalkulation im Conceptual Space ersetzt werden. Das ist etwas ganz anderes als das, was in symbolischen Inference Engines geschieht. 1. Tylén, K., Weed, E., Wallentin, M. Roepstoorf, A., & Frith, C. D. (2010). Language as a tool for interacting minds. Mind and Language, 25, 3-29. |
Gä I P. Gärdenfors The Geometry of Meaning Cambridge 2014 |