Lexikon der Argumente


Philosophische Themen und wissenschaftliche Debatten
 
[englisch]

Screenshot Tabelle Begriffes

 

Finden Sie Gegenargumente, in dem Sie NameVs…. oder….VsName eingeben.

Erweiterte Suche:
Suchbegriff 1: Autor oder Begriff Suchbegriff 2:Autor oder Begriff


zusammen mit




Der gesuchte Begriff oder Autor findet sich in folgenden 2 Einträgen:
Begriff/
Autor/Ismus
Autor
Eintrag
Literatur
Künstliche Intelligenz Chalmers I 185
Künstliche Intelligenz/Chalmers: Angenommen, wir hätten ein künstliches System, das rational reflektiert, was es wahrnimmt. Hätte dieses System einen Begriff von Bewusstsein? Es hätte sicher einen Begriff des Selbst, es könnte sich vom Rest der Welt unterscheiden, und zu seinen eigenen kognitiven Gehalten einen direkteren Zugang als zu dem von anderen haben. So hätte es eine gewisse Art von Selbstbewusstsein. Dieses System wird nicht über sich selbst sagen, es hätte keine Ahnung wie es ist, ein rotes Dreieck zu sehen. Es braucht aber auch keinen Zugang zu seinen Elementen auf einer tieferen Ebene (Hofstadter 1979 1, Winograd 1972 2 ). Pointe: ein solches System hätte damit eine ähnliche Einstellung zu seinem Innenleben wie wir zu unserem.
I 186
Verhaltenserklärung/Chalmers: um das Verhalten solcher Systeme zu erklären, brauchen wir niemals Bewusstsein zuzuschreiben. Vielleicht haben solche Systeme Bewusstsein, oder auch nicht, aber die Erklärung ihres Verhaltens ist unabhängig davon.
I 313
Künstliche Intelligenz/VsKünstliche Intelligenz/VsKI/Chalmers: DreyfusVsKünstliche Intelligenz: (Dreyfus 1972 7): Maschinen können nicht das flexible und kreative Verhalten von Menschen erreichen. LucasVsKünstliche Intelligenz/PenroseVsKünstliche Intelligenz/Chalmers: (Lucas 1961 3, Penrose 1989 4): Computer können niemals das mathematische Verständnis des Menschen erreichen, weil sie durch Gödels Theorem beschränkt sind auf eine Weise, in der Menschen es nicht sind. Chalmers: das sind externe Einwände. Die internen Einwände sind interessanter:
VsKünstliche Intelligenz: internes Argument: bewusste Maschinen können keine Geist entwickeln. SearleVsKünstliche Intelligenz: >Chinese Room-Argument. (Searle 1980 5). Danach ist ein Computer bestenfalls eine Simulation von Bewusstsein, ein Zombie.
Künstliche Intelligenz/ChalmersVsSearle/ChalmersVsPenrose/ChalmersVsDreyfus: es ist zwar nicht offensichtlich, dass gewisse physikalische Strukturen im Computer zu Bewusstsein führen, aber das gilt genauso für die Strukturen im Gehirn.
I 314
Def Starke Künstliche Intelligenz/Searle/Chalmers: These: Es gibt eine nichtleere Klasse von Rechenoperationen (computations) sodass die Implementierung jeder Operation aus dieser Klasse hinreichend ist für einen Geist und insbesondere für bewusste Erlebnisse. Das gilt nur mit natürlicher Notwendigkeit, denn es ist logisch möglich, dass jedwede Rechenoperation ohne Bewusstsein auskommt, aber das gilt auch für Gehirne.
I 315
Implementierung/Chalmers: diesen Begriff brauchen wir als Brücke für die Verbindung zwischen abstrakter Rechenoperation und konkretem physikalischem System in der Welt. Wir sagen auch manchmal, dass unser Gehirn Rechnungen implementiert. Implementierung/Searle: (Searle 1990b 6): These ist ein beobachterrelativer Begriff. Wenn man will kann man jedes System als alles implementierend betrachten, z.B: eine Wand.
ChalmersVsSearle: man muss die Implementierung spezifizieren, dann umgeht man dieses Problem.
I 318
Bsp ein kombinatorischer Zustandsautomat hat ganz andere Implementierungsbedingungen als ein endlicher Zustandsautomat. Die kausale Interaktion zwischen den Elementen ist unterschiedlich feinkörnig. Kombinatorische Automaten können zudem verschiedene andere Automaten reflektieren wie
I 319
Turingmaschinen und zelluläre Automaten, im Gegensatz zu endlichen oder unendlichen Zustandsautomaten. ChalmersVsSearle: jedes System implementiert die eine oder andere Computation. Es wird nur nicht jeder Typ (z.B. ein kombinatorischer Zustandsautomat) von jedem System implementiert. Die Beobachterrelativität bleibt, aber sie bedroht nicht die Möglichkeit der Künstlichen Intelligenz.
I 320
Über die Art der Kausalrelationen ist damit nicht viel gesagt.

1. D. R. Hofstadter Gödel, Escher Bach, New York 1979
2. T. Winograd, Understanding Natural Language, New York 1972
3. J. R. Lucas, Minds, machines and Gödel, Philosophy 36, 1961, p. 112-27.
4. R. Penrose, The Emperor's New Mind, Oxford 1989
5. J. R. Searle, Minds, brains and programs. Behavioral and Brain Sciences 3, 1980: pp. 417 -24
6. J. R. Searle, Is the brain an digital computer? Proceedings and Adresses of the American Philosophical association, 1990, 64: pp. 21-37
7. H. Dreyfus, What Computers Can't Do. New York 1972.

Cha I
D. Chalmers
The Conscious Mind Oxford New York 1996

Cha II
D. Chalmers
Constructing the World Oxford 2014
Starke Künstliche Intelligenz Chalmers I 314
Def Starke Künstliche Intelligenz/Searle/Chalmers: These: Es gibt eine nichtleere Klasse von Rechenoperationen (computations) sodass die Implementierung jeder Operation aus dieser Klasse hinreichend ist für einen Geist und insbesondere für bewusste Erlebnisse. Das gilt nur mit natürlicher Notwendigkeit, denn es ist logisch möglich, dass jedwede Rechenoperation ohne Bewusstsein auskommt, aber das gilt auch für Gehirne.
I 320
Durch eine computationale Beschreibung eines Systems wird eine formale Beschreibung der kausalen Organisation dieses Systems geliefert.
I 321
Invarianzprinzip: jedes System mit bewussten Erlebnissen, das dieselbe funktionale Organisation aufweist wie ein anderes System mit bewussten Erlebnissen, wird qualitativ identische bewusste Erlebnisse haben. Zwischen elektronischen Komponenten können entsprechende kausale Relationen bestehen wie zwischen Neuronen im Gehirn. Verschwindende Qualia/fading qualia/tanzende Qualia: können wir als Argumente für die starke KI benutzen.
I 322
Wenn es zwei organisatorisch identische Systeme gäbe, von denen eins bewusste Erlebnisse hätte, das andere aber nicht, könnte man ein System mit verschwindenden oder tanzenden Qualia konstruieren, das zwischen diesen zwei Systemen läge. Das wäre unplausibel. Wenn verschwindende und tanzende Qualia ausgeschlossen sind, gilt die These der Starken Künstlichen Intelligenz. (>Qualia/Chalmers).
I 329
VsKünstliche Intelligenz/Gödel/Chalmers: in einem widerspruchsfreien formalen System das ausdrucksstark genug für eine bestimmte Art der Arithmetik ist, kann man einen Satz konstruieren, der in diesem System nicht beweisbar ist. Im Gegensatz zur Maschine, sieht der Mensch aber, dass der Satz wahr ist.
I 330
Daher hat der Mensch eine Fähigkeit, die das formale System nicht hat. ChalmersVsVs: es gibt keinen Grund anzunehmen, dass der Mensch die Wahrheit des Satzes einsieht. Bestenfalls können wir sagen, dass, wenn das System widerspruchsfrei ist, der Satz wahr ist. Wir können nicht immer die Widerspruchsfreiheit komplexer Systeme bestimmen.
PenroseVsKI/Chalmers: (Penrose 1994)(1) bringt ein Argument auf einer niedrigeren Stufe: es kann sein, dass nicht alle physikalischen Prozesse computabel (berechenbar) sind. ChalmersVsVs: Das stützt sich aber auf das obige Gödel-Argument. Nichts in der physikalischen Theorie selbst stützt es.
VsKI/VsSimulation/Chalmers: was, wenn Bewusstseinsprozesse wesentlich kontinuierlich, unsere Simulationen jedoch diskret sind?
I 331
ChalmersVsVs: es gibt Gründe anzunehmen, dass absolute Kontinuität für unsere kognitive Kompetenz nicht wesentlich ist. Allerdings könnte es sein, dass ein System mit unbegrenzter Präzision (erreicht durch Kontinuität) kognitive Fähigkeiten hat, die ein diskretes System nicht erreicht.


1. R. Penrose, Shadows of the Mind, Oxford 1994

Cha I
D. Chalmers
The Conscious Mind Oxford New York 1996

Cha II
D. Chalmers
Constructing the World Oxford 2014

Der gesuchte Begriff oder Autor findet sich in folgenden Kontroversen:
Begriff/
Autor/Ismus
Autor Vs Autor
Eintrag
Literatur
Penrose Bewusstsein Pauen Vs Eccles, J.C. Pauen I 52
Def Psychonen/Eccles: die kleinsten Elemente mentaler Zustände. Ihre Aktivität verändert lediglich die Wahrscheinlichkeit für das Ausschütten von Transmittern. Daher kein Konflikt mit Energieerhaltung. Lösung quantenmechanische Abweichungen. (>Bewusstsein/Penrose). Eccles/Pauen: damit nähert er sich wieder dem Substanzdualismus an! Psychonen sind keine Eigenschaften, sondern selbständige Entitäten, die Bewusstsein instantiieren.
Nur der Dualismus kann die Willensfreiheit sichern (wie Popper).
Eccles/Popper: These: der selbstbewusste Geist ist damit beschäftigt, Gehirnereignisse gemäß seinem Interesse aktiv zu modifizieren.
Def Bindungsproblem/Pauen: die Einheitlichkeit der Perspektive der ersten Person kann angesichts der Vielfalt neuronaler Aktivitäten nur durch das Eingreifen eines bewussten Geists, nicht aber durch die neuronalen Aktivitäten erklärt werden.
I 53
Bindungsproblem/Pauen: mittlerweile gibt es konkrete neurobiologische Vorschläge zur Lösung. Bindungsproblem/Eccles: bringt empirische Belege: >Libet. "Fähigkeit des selbstbewussten Geists". zu "zeitlichen Tricks".
Geist/Bewusstsein/Gehrin/Experiment/Benjamin Libet/Pauen: Bsp schwache Hautreize werden zwar erst nach 0,5 Sek registriert, werden aber auf den Zeitpunkt zurückdatiert, an dem sie tatsächlich stattgefunden haben.
Geist/Gehirn/Experiment/Kornhuber: auch bei vollständiger Abwesenheit physischer Stimuli kann neuronale Aktivität allein durch mentale Prozesse bewirkt werden.
EcclesVsMaterialismus/EcclesVsIdentitätstheorie: unwissenschaftlicher Aberglaube.
PauenVsEccles: unklar ist, ob man die unbestrittenen Wirkungen der ideellen Welt 3 auf die physische Welt 1 nur erklären kann, wenn man die Existenz autonomer mentaler Prozesse unterstellt.
Bsp Wenn ein Glas zerspringt, während eine Sopranistin übt, ist diese Erklärung jedenfalls unzulässig!
I 54
Bsp Kongresse haben unbestritten physikalische Abläufe, doch die sind sämtlich innerphysikalisch zu erklären. z.B. der Energiehaushalt im Kongreßzentrum. Die bloße Entdeckung einer neuen Methode bringt die Wissenschaftler nicht zusammen. Erst wenn neurobiologisch nicht zu erklärende Willensakte gefunden würden, wäre die Position des Monisten erschüttert.
I 55
VsEccles: dieser behauptet, solche Beweise zu besitzen, die Experimente von Libet und Kornhuber geben das aber nicht her: als Produkte autonomer mentaler Akte könnte die Ergebnisse nur gewertet werden, wenn physische Ursachen ausgeschlossen werden könnten, und das haben die Experimente nicht im geringsten gezeigt. Da das Gehirn die Fähigkeit hat, Aktivitäten über längere Zeit auch ohne äußere Reize aufrechtzuerhalten, lassen sich auch scheinbar "spontane" Reaktionen neurobiologisch erklären.

Pauen I
M. Pauen
Grundprobleme der Philosophie des Geistes Frankfurt 2001