Philosophie Lexikon der Argumente

Home Screenshot Tabelle Begriffe

 
Künstliche Intelligenz: die Fähigkeit künstlicher Systeme, Muster und Redundanzen zu erkennen, unvollständige Folgen zu vervollständigen, Probleme neu zu formulieren und zu lösen und Wahrscheinlichkeiten abzuschätzen. Dabei handelt es sich nicht um eine Automatisierung menschlichen Verhaltens, denn eine solche Automatisierung könnte in einem mechanischen Nachahmen bestehen. Vielmehr werden künstliche Systeme nur dann von Menschen zur Entscheidungsfindung herangezogen, wenn diese Systeme zunächst autonome Entscheidungen getroffen haben.

_____________
Anmerkung: Die obigen Begriffscharakterisierungen verstehen sich weder als Definitionen noch als erschöpfende Problemdarstellungen. Sie sollen lediglich den Zugang zu den unten angefügten Quellen erleichtern. - Lexikon der Argumente.

 
Autor Begriff Zusammenfassung/Zitate Quellen

Stuart J. Russell über Künstliche Intelligenz – Lexikon der Argumente

Brockman I 22
Künstliche Intelligenz/Stuart Russell: Das Ziel der KI-Forschung war es, die Prinzipien des intelligenten Verhaltens zu verstehen und diese Prinzipien in Maschinen zu integrieren, die dann ein solches Verhalten zeigen können.
Brockman I 23
In den 1960er und 1970er Jahren war der vorherrschende theoretische Vorstellung von Intelligenz die Fähigkeit zum logischen Denken (...)
In jüngerer Zeit ist ein Konsens über die Idee eines rationalen Agenten entstanden, der seinen erwarteten Nutzen wahrnimmt und handelt, um ihn zu maximieren.
Die KI integrierte die Wahrscheinlichkeitstheorie zur Handhabung von Unsicherheit, die Nutzentheorie zur Definition von Zielen und das statistische Lernen, um es den Maschinen zu ermöglichen, sich an neue Gegebenheiten anzupassen. Diese Entwicklungen haben starke Verbindungen zu anderen Disziplinen geschaffen, die auf ähnlichen Begriffen aufbauen, darunter Kontrolltheorie, Ökonomie, Operations Research und Statistik.
Zweck: Beispielsweise sollte ein selbstfahrender Wagen ein Ziel als Input akzeptieren, statt ein festes Ziel zu haben. Einige Aspekte des "Fahrzwecks" des Autos sind jedoch festgelegt, beispielsweise dass es die Fußgänger nicht anfahren sollte. Einen Zweck in eine Maschine zu stecken (...) scheint ein bewundernswerter Ansatz zu sein, um sicherzustellen, dass das "Verhalten der Maschine nach für uns akzeptablen Prinzipien durchgeführt wird"!
Brockman I 24
Problem: Weder die KI noch andere Disziplinen (Ökonomie, Statistik, Kontrolltheorie, Operations Research), die auf der Optimierung von Zielen aufbauen, können viel darüber sagen, wie man die Zwecke identifiziert, die "wir uns wirklich wünschen".
>Künstliche Intelligenz/Omohundro
, >Superintelligenz/Stuart Russell.
Brockman I 29
Lösung/Stuart Russell: Die optimale Lösung für dieses Problem besteht nicht, wie man hoffen könnte, darin, sich gut zu verhalten, sondern die Kontrolle über den Menschen zu übernehmen und ihn zu zwingen, einen Strom maximaler Belohnungen bereitzustellen. Dies ist bekannt als das Wireheading-Problem, basierend auf Beobachtungen, dass die Mensch selbst für das gleiche Problem anfällig sind, wenn sie die Möglichkeit erhalten, ihre eigenen Lustzentren elektronisch zu stimulieren.
Problem: Diese Idealisierung lässt die Möglichkeit außer Acht, dass unser Verstand aus Subsystemen mit inkompatiblen Präferenzen besteht; wenn das wahr ist, würde das die Fähigkeit einer Maschine einschränken, unsere Präferenzen optimal zu erfüllen, aber es scheint uns nicht daran zu hindern, Maschinen zu entwickeln, die katastrophale Ergebnisse vermeiden.
Lösung/Stuart Russell: Eine genauere Definition gibt der Rahmen des Cooperative Inverse-Reinforcement Learning, kurz CIRL. Ein CIRL-Problem beinhaltet zwei Agenten, einer ein Mensch und der andere ein Roboter. Da es zwei Agenten gibt, wird das Problem von Ökonomen ein Spiel nennen. Es ist ein Spiel mit Teilinformationen, denn während der Mensch die Belohnungsfunktion kennt, tut es der Roboter nicht - auch wenn es die Aufgabe des Roboters ist, sie zu maximieren.
Brockman I 30
Off-Switch-Problem: Innerhalb des CIRL-Rahmens kann man das Off-Switch-Problem formulieren und lösen - also das Problem, wie man verhindern kann, dass ein Roboter seine Off-Schaltung deaktiviert. Ein Roboter, der sich über menschliche Präferenzen nicht im Klaren ist, profitiert tatsächlich davon, abgeschaltet zu werden,
Brockman I 31
weil er versteht, dass der Mensch den Ausschalter drücken wird, um zu verhindern, dass der Roboter etwas gegen diese Präferenzen unternimmt. Somit wird der Roboter dazu angeregt, den Ausschalter zu erhalten, und dieser Anreiz ergibt sich direkt aus seiner Unsicherheit über die menschlichen Präferenzen(1).
Verhaltenslernen/Präferenzen/Probleme: Es gibt jedoch offensichtliche Schwierigkeiten mit einem Ansatz, der erwartet, dass ein Roboter die zugrundeliegenden Präferenzen aus dem menschlichen Verhalten lernt. Menschen sind irrational, inkonsistent, willensschwach und rechnerisch begrenzt, sodass ihre Handlungen nicht immer ihre wahren Vorlieben widerspiegeln.

1. Cf. Hadfield-Menell et al., “The Off-Switch Game,” https:/Jarxiv.orglpdf/ 1611.0821 9.pdf.

Russell, Stuart J. „The Purpose put into the Machine”, in: Brockman, John (ed.) 2019. Twenty-Five Ways of Looking at AI. New York: Penguin Press.

_____________
Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders. Übersetzungen: Lexikon der Argumente
Der Hinweis [Begriff/Autor], [Autor1]Vs[Autor2] bzw. [Autor]Vs[Begriff] bzw. "Problem:"/"Lösung", "alt:"/"neu:" und "These:" ist eine Hinzufügung des Lexikons der Argumente.

Russell I
B. Russell/A.N. Whitehead
Principia Mathematica Frankfurt 1986

Russell II
B. Russell
Das ABC der Relativitätstheorie Frankfurt 1989

Russell IV
B. Russell
Probleme der Philosophie Frankfurt 1967

Russell VI
B. Russell
Die Philosophie des logischen Atomismus
In
Eigennamen, U. Wolf (Hg) Frankfurt 1993

Russell VII
B. Russell
On the Nature of Truth and Falsehood, in: B. Russell, The Problems of Philosophy, Oxford 1912 - Dt. "Wahrheit und Falschheit"
In
Wahrheitstheorien, G. Skirbekk (Hg) Frankfurt 1996

Brockman I
John Brockman
Possible Minds: Twenty-Five Ways of Looking at AI New York 2019

Send Link
> Gegenargumente gegen Russell
> Gegenargumente zu Künstliche Intelligenz ...

Autoren A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Y   Z  


Begriffe A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z