Lexikon der Argumente


Philosophische Themen und wissenschaftliche Debatten
 
[englisch]

Screenshot Tabelle Begriffes

 

Finden Sie Gegenargumente, in dem Sie NameVs…. oder….VsName eingeben.

Erweiterte Suche:
Suchbegriff 1: Autor oder Begriff Suchbegriff 2:Autor oder Begriff

zusammen mit




Der gesuchte Begriff oder Autor findet sich in folgenden 5 Einträgen:
Begriff/
Autor/Ismus
Autor
Autor
Eintrag
Eintrag
Literatur
Literatur
Künstliche Intelligenz Chalmers I 185
Künstliche Intelligenz/Chalmers: Angenommen, wir hätten ein künstliches System, das rational reflektiert, was es wahrnimmt. Hätte dieses System einen Begriff von Bewusstsein? Es hätte sicher einen Begriff des Selbst, es könnte sich vom Rest der Welt unterscheiden, und zu seinen eigenen kognitiven Gehalten einen direkteren Zugang als zu dem von anderen haben. So hätte es eine gewisse Art von Selbstbewusstsein. Dieses System wird nicht über sich selbst sagen, es hätte keine Ahnung wie es ist, ein rotes Dreieck zu sehen. Es braucht aber auch keinen Zugang zu seinen Elementen auf einer tieferen Ebene (Hofstadter 1979 1, Winograd 1972 2 ). Pointe: ein solches System hätte damit eine ähnliche Einstellung zu seinem Innenleben wie wir zu unserem.
I 186
Verhaltenserklärung/Chalmers: um das Verhalten solcher Systeme zu erklären, brauchen wir niemals Bewusstsein zuzuschreiben. Vielleicht haben solche Systeme Bewusstsein, oder auch nicht, aber die Erklärung ihres Verhaltens ist unabhängig davon.
I 313
Künstliche Intelligenz/VsKünstliche Intelligenz/VsKI/Chalmers: DreyfusVsKünstliche Intelligenz: (Dreyfus 1972 7): Maschinen können nicht das flexible und kreative Verhalten von Menschen erreichen. LucasVsKünstliche Intelligenz/PenroseVsKünstliche Intelligenz/Chalmers: (Lucas 1961 3, Penrose 1989 4): Computer können niemals das mathematische Verständnis des Menschen erreichen, weil sie durch Gödels Theorem beschränkt sind auf eine Weise, in der Menschen es nicht sind. Chalmers: das sind externe Einwände. Die internen Einwände sind interessanter:
VsKünstliche Intelligenz: internes Argument: bewusste Maschinen können keine Geist entwickeln. SearleVsKünstliche Intelligenz: >Chinese Room-Argument. (Searle 1980 5). Danach ist ein Computer bestenfalls eine Simulation von Bewusstsein, ein Zombie.
Künstliche Intelligenz/ChalmersVsSearle/ChalmersVsPenrose/ChalmersVsDreyfus: es ist zwar nicht offensichtlich, dass gewisse physikalische Strukturen im Computer zu Bewusstsein führen, aber das gilt genauso für die Strukturen im Gehirn.
I 314
Def Starke Künstliche Intelligenz/Searle/Chalmers: These: Es gibt eine nichtleere Klasse von Rechenoperationen (computations) sodass die Implementierung jeder Operation aus dieser Klasse hinreichend ist für einen Geist und insbesondere für bewusste Erlebnisse. Das gilt nur mit natürlicher Notwendigkeit, denn es ist logisch möglich, dass jedwede Rechenoperation ohne Bewusstsein auskommt, aber das gilt auch für Gehirne.
I 315
Implementierung/Chalmers: diesen Begriff brauchen wir als Brücke für die Verbindung zwischen abstrakter Rechenoperation und konkretem physikalischem System in der Welt. Wir sagen auch manchmal, dass unser Gehirn Rechnungen implementiert. Implementierung/Searle: (Searle 1990b 6): These ist ein beobachterrelativer Begriff. Wenn man will kann man jedes System als alles implementierend betrachten, z.B: eine Wand.
ChalmersVsSearle: man muss die Implementierung spezifizieren, dann umgeht man dieses Problem.
I 318
Bsp ein kombinatorischer Zustandsautomat hat ganz andere Implementierungsbedingungen als ein endlicher Zustandsautomat. Die kausale Interaktion zwischen den Elementen ist unterschiedlich feinkörnig. Kombinatorische Automaten können zudem verschiedene andere Automaten reflektieren wie
I 319
Turingmaschinen und zelluläre Automaten, im Gegensatz zu endlichen oder unendlichen Zustandsautomaten. ChalmersVsSearle: jedes System implementiert die eine oder andere Computation. Es wird nur nicht jeder Typ (z.B. ein kombinatorischer Zustandsautomat) von jedem System implementiert. Die Beobachterrelativität bleibt, aber sie bedroht nicht die Möglichkeit der Künstlichen Intelligenz.
I 320
Über die Art der Kausalrelationen ist damit nicht viel gesagt.

1. D. R. Hofstadter Gödel, Escher Bach, New York 1979
2. T. Winograd, Understanding Natural Language, New York 1972
3. J. R. Lucas, Minds, machines and Gödel, Philosophy 36, 1961, p. 112-27.
4. R. Penrose, The Emperor's New Mind, Oxford 1989
5. J. R. Searle, Minds, brains and programs. Behavioral and Brain Sciences 3, 1980: pp. 417 -24
6. J. R. Searle, Is the brain an digital computer? Proceedings and Adresses of the American Philosophical association, 1990, 64: pp. 21-37
7. H. Dreyfus, What Computers Can't Do. New York 1972.

Cha I
D. Chalmers
The Conscious Mind Oxford New York 1996

Cha II
D. Chalmers
Constructing the World Oxford 2014
Künstliche Intelligenz Pentland Brockman I 200
Künstliche Intelligenz/Pentland: Am Horizont zeigt sich eine Vision, wie wir die Menschheit intelligenter machen können, indem wir eine menschliche KI aufbauen. Es ist eine Vision, die aus zwei Strängen besteht. Einer davon sind Daten, denen wir alle vertrauen können - Daten, die von einer umfassenden Gemeinschaft überprüft wurden, Daten, bei denen die Algorithmen bekannt sind und überwacht werden, ähnlich wie die Zensusdaten, bei denen wir uns alle automatisch darauf verlassen, dass sie zumindest annähernd korrekt sind. Der andere ist eine faire, datengesteuerte Bewertung von öffentlichen Normen, Politik und Regierung, die auf zuverlässigen Daten über die aktuellen Bedingungen basiert. >Kybernetik/Pentland, >Ökosysteme/Pentland, >Entscheidungsprozesse/Pentland, >Daten/Pentland.
Brockman I 204
Eine Sache, die die Leute oft nicht erwähnen, ist, dass alle Sorgen um KI die gleichen sind wie die Sorgen um die heutige Regierung. Für die meisten Teile der Regierung - das Justizsystem, etc. - gibt es keine zuverlässigen Daten darüber, was sie tun und in welcher Situation. VsKünstliche Intelligenz/Pentland: Die aktuelle KI führt deskriptive Statistiken auf eine Weise durch, die keine Wissenschaft ist und die fast unmöglich in Wissenschaft umwandelbar wäre. Um robuste Systeme aufzubauen, müssen wir die Wissenschaft hinter den Daten kennen.
Lösung/Pentland: Die Systeme, die ich als KIs der folgenden Generation betrachte, resultieren aus diesem wissenschaftlich fundierten Ansatz: Wenn du eine KI erschaffen willst, um mit etwas Physischem umzugehen, dann solltest du die Gesetze der Physik als deine beschreibenden Funktionen in sie integrieren - anstelle dieser dummen kleinen Neuronen. >Ökosysteme/Pentland.
Wenn Sie die dummen Neuronen durch solche ersetzen, die die Grundlagen des menschlichen Verhaltens erfassen, dann können Sie Trends mit sehr wenig Daten identifizieren und mit riesigen Rauschpegeln umgehen.
Die Tatsache, dass Menschen ein "vernünftiges" Verständnis haben, das sie den meisten
Brockman I 205
Problemen entgegenbringen, deutet auf das hin, was ich die menschliche Strategie nenne: Die menschliche Gesellschaft ist ein Netzwerk, genau wie die neuronalen Netze, die für das Deep Learning ausgebildet wurden - die "Neuronen" in der menschlichen Gesellschaft sind aber viel intelligenter.

Pentland, A. “The Human strategy” in: Brockman, John (ed.) 2019. Twenty-Five Ways of Looking at AI. New York: Penguin Press.

Brockman I
John Brockman
Possible Minds: Twenty-Five Ways of Looking at AI New York 2019
Künstliche Intelligenz Wittgenstein Metzinger II 720
Künstliche Intelligenz/KI/WittgensteinVsKünstliche Intelligenz/Birnbacher: für Wittgenstein ist Künstliche Intelligenz logisch unmöglich, weil wir den Begriff nur Menschen zuschreiben. - (Philosophische Untersuchungen § 360) - Birnbacher: die Wahrheitswerte könnten dennoch erfüllt sein - nur nicht die Behauptbarkeitsbedingungen.

W II
L. Wittgenstein
Vorlesungen 1930-35 Frankfurt 1989

W III
L. Wittgenstein
Das Blaue Buch - Eine Philosophische Betrachtung Frankfurt 1984

W IV
L. Wittgenstein
Tractatus logico-philosophicus Frankfurt/M 1960

Metz I
Th. Metzinger (Hrsg.)
Bewusstsein Paderborn 1996
Simulation Chalmers I 327
Simulation/Künstliche Intelligenz/Bewusstsein/Searle/Chalmers: SearleVsKünstliche Intelligenz (Searle 1980)(1), HarnadVsKI (Harnad 1989)(2): These: Die Simulation eines Phänomens ist nicht dasselbe wie eine Replik des Phänomens. Bsp Die digitale Simulation des Verdauungsvorgangs verdaut keine Nahrung.
I 328
Simulation/Chalmers: während einige Simulationen keine echten Verdoppelungen sind, wie z.B. die Simulation von Wärme, so sind andere es doch: z.B. die Simulation eines Systems mit einer kausalen Schleife ist ein System mit einer kausalen Schleife. Def Echte Simulation/Chalmers: eine Simulation von X ist ein X, wenn die Eigenschaft, X zu sein, eine organisationale Invarianz ist. D.h. wenn das System nur von der funktionalen Organisiertheit des zugrundliegenden Systems abhängt und von nichts anderem. Die übrigen Eigenschaften bleiben nicht erhalten. Bsp die Eigenschaft, ein Hurrikan zu sein, ist nicht organisational invariant, weil sie teilweise von nichtroganisationalen Eigenschaften wie Geschwindigkeit, Form, usw. abhängt. Ebenso hängen Wärme oder Verdauung von Aspekten der physikalischen Beschaffenheit ab und sind nicht völlig organisational.
Bewusstsein/Simulation/Chalmers: phänomenale Eigenschaften sind anders: sie sind organisational invariant, d.h. bei identischem physikalischem Aufbau werden zwei Systeme dieselben phänomenalen Erlebnisse haben. Damit wird Bewusstsein zu einer von den anderen verschiedenen Eigenschaft.



1. J. R. Searle, Minds, brains and programs. Behavioral and Brain Sciences 3, 1980: pp. 417 -24
2. S. Harnad, Minds, machines, and Searle. Journal of Experimental and Theoretical Artificial Intelligence 1, 1989: pp.5-25.

Cha I
D. Chalmers
The Conscious Mind Oxford New York 1996

Cha II
D. Chalmers
Constructing the World Oxford 2014
Starke Künstliche Intelligenz Chalmers I 314
Def Starke Künstliche Intelligenz/Searle/Chalmers: These: Es gibt eine nichtleere Klasse von Rechenoperationen (computations) sodass die Implementierung jeder Operation aus dieser Klasse hinreichend ist für einen Geist und insbesondere für bewusste Erlebnisse. Das gilt nur mit natürlicher Notwendigkeit, denn es ist logisch möglich, dass jedwede Rechenoperation ohne Bewusstsein auskommt, aber das gilt auch für Gehirne.
I 320
Durch eine computationale Beschreibung eines Systems wird eine formale Beschreibung der kausalen Organisation dieses Systems geliefert.
I 321
Invarianzprinzip: jedes System mit bewussten Erlebnissen, das dieselbe funktionale Organisation aufweist wie ein anderes System mit bewussten Erlebnissen, wird qualitativ identische bewusste Erlebnisse haben. Zwischen elektronischen Komponenten können entsprechende kausale Relationen bestehen wie zwischen Neuronen im Gehirn. Verschwindende Qualia/fading qualia/tanzende Qualia: können wir als Argumente für die starke KI benutzen.
I 322
Wenn es zwei organisatorisch identische Systeme gäbe, von denen eins bewusste Erlebnisse hätte, das andere aber nicht, könnte man ein System mit verschwindenden oder tanzenden Qualia konstruieren, das zwischen diesen zwei Systemen läge. Das wäre unplausibel. Wenn verschwindende und tanzende Qualia ausgeschlossen sind, gilt die These der Starken Künstlichen Intelligenz. (>Qualia/Chalmers).
I 329
VsKünstliche Intelligenz/Gödel/Chalmers: in einem widerspruchsfreien formalen System das ausdrucksstark genug für eine bestimmte Art der Arithmetik ist, kann man einen Satz konstruieren, der in diesem System nicht beweisbar ist. Im Gegensatz zur Maschine, sieht der Mensch aber, dass der Satz wahr ist.
I 330
Daher hat der Mensch eine Fähigkeit, die das formale System nicht hat. ChalmersVsVs: es gibt keinen Grund anzunehmen, dass der Mensch die Wahrheit des Satzes einsieht. Bestenfalls können wir sagen, dass, wenn das System widerspruchsfrei ist, der Satz wahr ist. Wir können nicht immer die Widerspruchsfreiheit komplexer Systeme bestimmen.
PenroseVsKI/Chalmers: (Penrose 1994)(1) bringt ein Argument auf einer niedrigeren Stufe: es kann sein, dass nicht alle physikalischen Prozesse computabel (berechenbar) sind. ChalmersVsVs: Das stützt sich aber auf das obige Gödel-Argument. Nichts in der physikalischen Theorie selbst stützt es.
VsKI/VsSimulation/Chalmers: was, wenn Bewusstseinsprozesse wesentlich kontinuierlich, unsere Simulationen jedoch diskret sind?
I 331
ChalmersVsVs: es gibt Gründe anzunehmen, dass absolute Kontinuität für unsere kognitive Kompetenz nicht wesentlich ist. Allerdings könnte es sein, dass ein System mit unbegrenzter Präzision (erreicht durch Kontinuität) kognitive Fähigkeiten hat, die ein diskretes System nicht erreicht.


1. R. Penrose, Shadows of the Mind, Oxford 1994

Cha I
D. Chalmers
The Conscious Mind Oxford New York 1996

Cha II
D. Chalmers
Constructing the World Oxford 2014

Der gesuchte Begriff oder Autor findet sich in Auseinandersetzungen folgender wissenschaftlicher Lager:
Begriff/
Autor/Ismus
Pro/Versus
Eintrag
Literatur
Darwinismus VsKunst Versus Dennett I 543
ChomskyVsSkinner, ChomskyVsKünstliche Intelligenz, ChomskyVsDarwin

Dennett I
D. Dennett
Darwins gefährliches Erbe Hamburg 1997

Dennett II
D. Dennett
Spielarten des Geistes Gütersloh 1999

Dennett III
Daniel Dennett
"COG: Steps towards consciousness in robots"
In
Bewusstein, Thomas Metzinger Paderborn/München/Wien/Zürich 1996

Dennett IV
Daniel Dennett
"Animal Consciousness. What Matters and Why?", in: D. C. Dennett, Brainchildren. Essays on Designing Minds, Cambridge/MA 1998, pp. 337-350
In
Der Geist der Tiere, D Perler/M. Wild Frankfurt/M. 2005

Der gesuchte Begriff oder Autor findet sich in folgenden Thesen von Autoren des zentralen Fachgebiets.
Begriff/
Autor/Ismus
Autor
Eintrag
Literatur
Computation Dennett, D. Metzinger II 709
Symbolverankerung/Künstliche Intelligenz/KI/VsKI/VsKünstliche Intelligenz/Harnad/Dennett: These: Die internen Symbole des Computers sind nicht angemessen in der Welt verankert. - DennettVsVs: das wird durch Lernen gelöst. - HaugelandVsKI/HaugelandVsKünstliche Intelligenz: Die KI weiß nicht, was echter Schmerz ist. - DennettVsVs: Wissen Muscheln, was "echter Schmerz" ist?

Metz I
Th. Metzinger (Hrsg.)
Bewusstsein Paderborn 1996