Lexikon der Argumente


Philosophische Themen und wissenschaftliche Debatten
 
[englisch]

Screenshot Tabelle Begriffes

 

Finden Sie Gegenargumente, in dem Sie NameVs…. oder….VsName eingeben.

Erweiterte Suche:
Suchbegriff 1: Autor oder Begriff Suchbegriff 2:Autor oder Begriff

zusammen mit




Der gesuchte Begriff oder Autor findet sich in folgenden 4 Einträgen:
Begriff/
Autor/Ismus
Autor
Autor
Eintrag
Eintrag
Literatur
Literatur
Ethik Bostrom I 257
Ethik/Moral/Superintelligenz//Bostrom: Keine ethische Theorie erlangt eine mehrheitliche Unterstützung unter den Philosophen, so dass die meisten Philosophen sich irren müssen. ((s)VsBostrom: Es ist keine Frage des Applauses, welche Theorie richtig ist).
I 369
Mehrheiten in Ethik/Bostrom: Eine kürzlich durchgeführte Befragung von Berufsphilosophen ergab den Prozentsatz der Befragten, die verschiedene Positionen "akzeptieren oder sich ihnen zuneigen". Zur normativen Ethik waren die Ergebnisse Deontologie 25,9%; - Konsequentialismus 23,6%; - Tugendethik 18,2%.
Zur Metaethik waren die Ergebnisse
moralischer Realismus 56,4%; - moralischer Anti-Realismus 27,7%.
Zum moralischen Urteilsvermögen:
Kognitivismus 65,7%; - Nicht-Kognitivismus 17,0% (Bourget und Chalmers 2009(1))
>Normen/Normativität/Superintelligenz/Bostrom, >Ethik/Superintelligenz/Yudkowsky.
Morality models:
I 259
Def CEV/Yudkowsky: Unser "kohärentes extrapoliertes Wollen" ist der Wunsch den wir hätten, wenn wir mehr wüssten, schneller dächten, mehr die Menschen wären, die wir gerne wären, wenn wir weiter zusammenwachsen würden; wo die Extrapolation konvergiert statt divergiert, wo unsere Wünsche kohärent sind statt sich zu stören; wenn sie extrapoliert würden, wie wir es wünschen, dass extrapoliert wird und interpretiert würden, wie wir es wünschen.
I 266
VsCEV/Bostrom: stattdessen: Moralische Richtigkeit / MR/Bostrom: (...) bauen wir eine KI mit dem Ziel auf, das moralisch Richtige zu tun, wobei die KI sich auf ihre überlegenen kognitiven Fähigkeiten stützt, um herauszufinden, welche Handlungen genau auf diese Beschreibung passen.
Wir können diesen Vorschlag "moralische Richtigkeit" (MR) nennen. Die Idee ist, dass wir Menschen ein unvollkommenes Verständnis davon haben, was richtig und was falsch ist (...)
((s)VsBostrom: Damit wird menschliche Verantwortung delegiert und letztlich davon ausgegangen, dass menschliche Entscheidungen nur vorläufig sind, bis nicht-menschliche Entscheidungen getroffen werden).
I 267
BostromVsYudkowsky: MR würde verschiedene freie Parameter in der CEV abschaffen, wie z.B. den Grad der Kohärenz zwischen den extrapolierten Willensäußerungen, der erforderlich ist, damit die KI auf das Ergebnis reagieren kann, die Leichtigkeit, mit der eine Mehrheit abweichende Minderheiten überstimmen kann, und die Art des sozialen Umfelds, innerhalb dessen unser extrapoliertes Selbst "weiter zusammenwachsen" soll. BostromVsMR: Problem: 1. die MR scheint auch einige Nachteile zu haben. Sie stützt sich auf den Begriff "moralisch richtig", einen notorisch schwierigen Begriff (...).
I 268
2. (...) [MR] gibt uns vielleicht nicht das, was wir wollen oder was wir wählen würden, wenn wir klüger und besser informiert wären. Lösung/Bostrom: Ziel für KI:
MP: Unter den Handlungen, die für die KI moralisch zulässig sind, nehme die KI eine, die der CEV der Menschheit vorziehen würde. Wenn jedoch ein Teil dieser Anweisung keine genau spezifizierte Bedeutung hat, oder wenn wir über ihre Bedeutung radikal uneins sind, oder wenn der moralische Realismus falsch ist, oder wenn wir bei der Schaffung einer KI mit diesem Ziel moralisch unzulässig gehandelt haben, dann unterziehe die KI sich einer kontrollierten Abschaltung.(*) Die KI folge der beabsichtigten Bedeutung dieser Anweisung.
I 373 (Anmerkung)
*Def Moralische Zulässigkeit/Bostrom: Wenn die KI die moralische Zulässigkeit unserer Handlung zur Schaffung der KI bewertet, sollte sie die Zulässigkeit in ihrem objektiven Sinne interpretieren. In einem gewöhnlichen Sinne von "moralisch zulässig" handelt eine Ärztin oder ein Arzt moralisch zulässig, wenn sie oder er ein Medikament verschreibt, von dem sie oder er glaubt, dass es ihre oder seine Patientin heilen wird - selbst wenn die Patientin oder der Patient, ohne dass die Ärztin oder der Arzt es weiß, allergisch gegen das Medikament ist und infolgedessen stirbt. Die Konzentration auf die objektive moralische Zulässigkeit macht sich die vermutlich überlegene erkenntnistheoretische Position der KI zunutze.. ((s)VsBostrom: Der letzte Satz (Salvatorische Klausel: "Die KI folge der beabsichtigten Bedeutung dieser Anweisung") ist zirkulär, insbesondere wenn es keine Personen mehr in Entscheidungspositionen gibt, die dagegen Einspruch erheben könnten.
>Ziele/Superintelligenz/Bostrom
I 312
Def Gemeinwohlprinzip/Bostrom: Superintelligenz sollte nur zum Wohle der gesamten Menschheit und im Dienste weit verbreiteter ethischer Ideale entwickelt werden.
I 380
Diese Formulierung soll so gelesen werden, dass sie eine Vorschrift einschließt, dass das Wohlergehen von nichtmenschlichen Tieren und anderen fühlenden Wesen (einschließlich des digitalen Verstandes), die existieren oder entstehen könnten, gebührend berücksichtigt wird. Sie soll nicht als Lizenz für einen KI-Entwickler gelesen werden, seine oder ihre eigenen moralischen Intuitionen durch die der breiteren moralischen Gemeinschaft zu ersetzen.

1. Bourget, David, and Chalmers, David. 2009. “The PhilPapers Surveys.” November. Available at http://philpapers.org/surveys/

Bostrom I
Nick Bostrom
Superintelligence. Paths, Dangers, Strategies Oxford: Oxford University Press 2017
Normen Bostrom I 258
Normen/Normativität/Superintelligenz/Bostrom: Indirekte Normativität ist eine Möglichkeit, auf die Herausforderung zu antworten, die sich aus der Tatsache ergibt, dass wir vielleicht nicht wissen, was wir wirklich wollen, was in unserem Interesse liegt oder was moralisch richtig oder ideal ist. Anstatt eine Vermutung auf der Grundlage unseres eigenen derzeitigen Verständnisses (das wahrscheinlich zutiefst fehlerhaft ist) anzustellen, würden wir einen Teil der für die Wertauswahl erforderlichen kognitiven Arbeit an die Superintelligenz delegieren. >Ethik/Superintelligenz/Bostrom. (...) man könnte diese Idee verallgemeinern (...):
Def Prinzip der epistemischen Achtung: Eine zukünftige Superintelligenz nimmt einen erkenntnistheoretisch überlegenen Standpunkt ein: ihre Überzeugungen sind (wahrscheinlich bei den meisten Themen) wahrscheinlicher als unsere. Wir sollten uns daher, wann immer dies möglich ist, der Meinung der Superintelligenz beugen.

((s)VsBostrom: (1) Hier wird die stillschweigende Annahme gemacht, dass moralische Entscheidungen dem Fortschritt unterworfen sind.
(2) Damit wird menschliche Verantwortung delegiert und letztlich davon ausgegangen, dass menschliche Entscheidungen nur vorläufig sind, bis nicht-menschliche Entscheidungen getroffen werden).
>Ethik/Moral/Superintelligenz/Yudkowsky
I 259
Ethik/Moral/Superintelligenz/Yudkowsky: Yudkowsky hat vorgeschlagen, einer Ausgangs-KI das Endziel zu geben, den "kohärenten extrapolierten Willen" (CEV) der Menschheit zu verwirklichen, den er wie folgt definiert: CEV/Yudkowsky: CEV/Yudkowsky: Unser "kohärentes extrapoliertes Wollen" ist unser Wunsch, wenn wir mehr wüssten, schneller dächten, mehr die Menschen wären, die wir gerne wären, wenn wir enger zusammen aufgewachsen wären; wo die Extrapolation unserer Wünsche konvergiert statt zu divergieren, wo unsere Wünsche kohärent sind statt sich zu stören; wenn sie extrapoliert werden, wie wir es wünschen, dass sie extrapoliert werden, dass sie interpretiert werden, wie wir es wünschen, dass sie interpretiert werden. >Ethik/Superintelligenz//Bostrom.

Bostrom I
Nick Bostrom
Superintelligence. Paths, Dangers, Strategies Oxford: Oxford University Press 2017
Ziele Bostrom I 126
Ziele/Superintelligenz/KI-Forschung/Bostrom: Ist es möglich etwas darüber zu sagen, was eine Superintelligenz mit einem entscheidenden
I 127
strategischen Vorteil wünschen würde?
I 129
Intelligenz und Motivation sind in gewisser Weise orthogonal: Wir können sie uns als zwei Achsen vorstellen, die sich über ein Diagramm erstrecken, in dem jeder Punkt einen logisch möglichen künstlichen Agenten darstellt. Diesem Bild könnten einige Qualifikationen hinzugefügt werden. Zum Beispiel könnte es für ein sehr unintelligentes System unmöglich sein, sehr komplexe Motivationen zu haben. ((s) Orthogonalität bedeutet Unabhängigkeit dieser Größen voneinander, weil die Achsen senkrecht aufeinander stehen.)
I 130
Def-Orthogonalitäts-These/Bostrom: Intelligenz und Endziele sind orthogonal: Mehr oder weniger jedes Intelligenzniveau könnte prinzipiell mit mehr oder weniger jedem Endziel kombiniert werden. Gemäss der Orthogonalitäts-These können künstliche Agenten völlig nicht-anthropomorphe Ziele haben.
-Vorhersagbarkeit durch Design:
I 131
(...) noch bevor ein Agent geschaffen wurde, können wir vielleicht etwas über sein Verhalten vorhersagen, wenn wir etwas darüber wissen, wer ihn bauen wird und welche Ziele er haben will. -Vorhersagbarkeit durch Vererbung. Wenn eine digitale Intelligenz direkt aus einer menschlichen Vorlage erstellt wird (wie es bei einer High-Fidelity-Emulation des gesamten Gehirns der Fall wäre), dann könnte die digitale Intelligenz die Motivationen der menschlichen Vorlage erben.
-Vorhersagbarkeit durch konvergente instrumentelle Gründe: (...) Wir können vielleicht etwas über seine unmittelbareren Ziele ableiten, wenn wir die instrumentellen Gründe berücksichtigen, die sich für jedes einer Vielzahl möglicher Endziele in einer Vielzahl von Situationen ergeben würden.
I 132
Def Instrumentale Konvergenzthese / Bostrom: Es lassen sich mehrere instrumentelle Werte identifizieren, die in dem Sinne konvergieren, dass ihre Erreichung die Chancen des Agenten, sein Ziel zu erreichen, für ein breites Spektrum von Endzielen und eine Vielzahl von Situationen erhöhen würde, was impliziert, dass diese instrumentellen Werte wahrscheinlich von einem breiten Spektrum situierter intelligenter Agenten verfolgt werden. >Ziele/Omohundro. Wo es konvergierende instrumentelle Werte gibt, können wir möglicherweise einige Aspekte des Verhaltens einer Superintelligenz vorhersagen:
-Selbstschutz: Die meisten Menschen scheinen ihrem eigenen Überleben einen endgültigen Wert beizumessen. Dies ist kein notwendiges Merkmal künstlicher Agenten: Einige können so konzipiert sein, dass sie ihrem eigenen Überleben keinerlei endgültigen Wert beimessen.
Ziel-Inhalt-Integrität: Wenn ein Agent seine gegenwärtigen Ziele auch in Zukunft beibehält, dann werden seine gegenwärtigen Ziele mit größerer Wahrscheinlichkeit von seinem zukünftigen Selbst erreicht werden. Dies gibt dem Agenten einen gegenwärtigen instrumentellen Grund,
I 133
Änderungen seiner Endziele zu verhindern. Für Software-Agenten, die leicht Körper wechseln oder exakte Duplikate von sich selbst erstellen können, muss die Erhaltung des Selbst als eine bestimmte Implementierung oder ein bestimmtes physisches Objekt kein wichtiger instrumenteller Wert sein. Fortgeschrittene Software-Agenten könnten auch in der Lage sein, Erinnerungen auszutauschen, Fähigkeiten herunterzuladen und ihre kognitive Architektur und ihre Persönlichkeit radikal zu verändern.
I 141
Orthogonalitäts-These/Bostrom: (s.o.) die Orthogonalitäts-These legt nahe, dass man nicht leichtfertig davon ausgehen kann, dass eine Superintelligenz notwendigerweise einen der Endwerte teilt, die stereotyp mit Weisheit und intellektueller Entwicklung des Menschen assoziiert werden (...).
I 270
Ziele/Ethik/Moral/Moral/Superintelligenz/Bostrom: Denken Sie zum Beispiel an das folgende " Vernunft-basierte" Ziel: Tun Sie das, was wir am ehesten von der KI hätten verlangen können.
((s)VsBostrom: Hier wird vorausgesetzt, dass die KI keinen Grund hat, unsere Absichten zu verfälschen.
I 272
Bostrom: Komponenten für Verhaltensentscheidungen: -Ziel Inhalt: Welches Ziel sollte die KI verfolgen? Wie sollte eine Beschreibung dieses Ziels interpretiert werden?
-Entscheidungstheorie: Sollte die KI kausale Entscheidungstheorie, beweiskräftige Entscheidungstheorie, aktualisierungslose Entscheidungstheorie oder etwas anderes verwenden?
-Erkenntnistheorie: Wie sollte die vorrangige Wahrscheinlichkeitsfunktion der KI aussehen (...) Welche Theorie der Anthropologie sollte sie verwenden??
-Bewertung/Rangordnung: Sollten die Pläne der KI vor ihrer Umsetzung einer menschlichen Überprüfung unterzogen werden? Wenn ja, wie sieht das Verfahren für diesen Überprüfungsprozess aus?
>Ethik/Superintelligenz/Bostrom, >Ethik/Superintelligenz/Yudkowsky, >Normen/Bostrom.

Bostrom I
Nick Bostrom
Superintelligence. Paths, Dangers, Strategies Oxford: Oxford University Press 2017
Ziele KI-Forschung Bostrom I 126
Ziele/Superintelligenz/KI-Forschung/Bostrom: Ist es möglich etwas darüber zu sagen, was eine Superintelligenz mit einem entscheidenden
I 127
strategischen Vorteil wünschen würde?
I 129
Intelligenz und Motivation sind in gewisser Weise orthogonal: Wir können sie uns als zwei Achsen vorstellen, die sich über ein Diagramm erstrecken, in dem jeder Punkt einen logisch möglichen künstlichen Agenten darstellt. Diesem Bild könnten einige Qualifikationen hinzugefügt werden. Zum Beispiel könnte es für ein sehr unintelligentes System unmöglich sein, sehr komplexe Motivationen zu haben. ((s) Orthogonalität bedeutet Unabhängigkeit dieser Größen voneinander, weil die Achsen senkrecht aufeinander stehen.)
I 130
Def-Orthogonalitäts-These/Bostrom: Intelligenz und Endziele sind orthogonal: Mehr oder weniger jedes Intelligenzniveau könnte prinzipiell mit mehr oder weniger jedem Endziel kombiniert werden. Gemäss der Orthogonalitäts-These können künstliche Agenten völlig nicht-anthropomorphe Ziele haben.
-Vorhersagbarkeit durch Design:
I 131
(...) noch bevor ein Agent geschaffen wurde, können wir vielleicht etwas über sein Verhalten vorhersagen, wenn wir etwas darüber wissen, wer ihn bauen wird und welche Ziele er haben will. -Vorhersagbarkeit durch Vererbung. Wenn eine digitale Intelligenz direkt aus einer menschlichen Vorlage erstellt wird (wie es bei einer High-Fidelity-Emulation des gesamten Gehirns der Fall wäre), dann könnte die digitale Intelligenz die Motivationen der menschlichen Vorlage erben.
-Vorhersagbarkeit durch konvergente instrumentelle Gründe: (...) Wir können vielleicht etwas über seine unmittelbareren Ziele ableiten, wenn wir die instrumentellen Gründe berücksichtigen, die sich für jedes einer Vielzahl möglicher Endziele in einer Vielzahl von Situationen ergeben würden.
I 132
Def Instrumentale Konvergenzthese / Bostrom: Es lassen sich mehrere instrumentelle Werte identifizieren, die in dem Sinne konvergieren, dass ihre Erreichung die Chancen des Agenten, sein Ziel zu erreichen, für ein breites Spektrum von Endzielen und eine Vielzahl von Situationen erhöhen würde, was impliziert, dass diese instrumentellen Werte wahrscheinlich von einem breiten Spektrum situierter intelligenter Agenten verfolgt werden. >Ziele/Omohundro.
Wo es konvergierende instrumentelle Werte gibt, können wir möglicherweise einige Aspekte des Verhaltens einer Superintelligenz vorhersagen:
-Selbstschutz: Die meisten Menschen scheinen ihrem eigenen Überleben einen endgültigen Wert beizumessen. Dies ist kein notwendiges Merkmal künstlicher Agenten: Einige können so konzipiert sein, dass sie ihrem eigenen Überleben keinerlei endgültigen Wert beimessen.
Ziel-Inhalt-Integrität: Wenn ein Agent seine gegenwärtigen Ziele auch in Zukunft beibehält, dann werden seine gegenwärtigen Ziele mit größerer Wahrscheinlichkeit von seinem zukünftigen Selbst erreicht werden. Dies gibt dem Agenten einen gegenwärtigen instrumentellen Grund,
I 133
Änderungen seiner Endziele zu verhindern. Für Software-Agenten, die leicht Körper wechseln oder exakte Duplikate von sich selbst erstellen können, muss die Erhaltung des Selbst als eine bestimmte Implementierung oder ein bestimmtes physisches Objekt kein wichtiger instrumenteller Wert sein. Fortgeschrittene Software-Agenten könnten auch in der Lage sein, Erinnerungen auszutauschen, Fähigkeiten herunterzuladen und ihre kognitive Architektur und ihre Persönlichkeit radikal zu verändern.
I 141
Orthogonalitäts-These/Bostrom: (s.o.) die Orthogonalitäts-These legt nahe, dass man nicht leichtfertig davon ausgehen kann, dass eine Superintelligenz notwendigerweise einen der Endwerte teilt, die stereotyp mit Weisheit und intellektueller Entwicklung des Menschen assoziiert werden (...).
I 270
Ziele/Ethik/Moral/Moral/Superintelligenz/Bostrom: Denken Sie zum Beispiel an das folgende " Vernunft-basierte" Ziel: Tun Sie das, was wir am ehesten von der KI hätten verlangen können.
((s)VsBostrom: Hier wird vorausgesetzt, dass die KI keinen Grund hat, unsere Absichten zu verfälschen.
I 272
Bostrom: Komponenten für Verhaltensentscheidungen: -Ziel Inhalt: Welches Ziel sollte die KI verfolgen? Wie sollte eine Beschreibung dieses Ziels interpretiert werden?
-Entscheidungstheorie: Sollte die KI kausale Entscheidungstheorie, beweiskräftige Entscheidungstheorie, aktualisierungslose Entscheidungstheorie oder etwas anderes verwenden?
-Erkenntnistheorie: Wie sollte die vorrangige Wahrscheinlichkeitsfunktion der KI aussehen (...) Welche Theorie der Anthropologie sollte sie verwenden??
-Bewertung/Rangordnung: Sollten die Pläne der KI vor ihrer Umsetzung einer menschlichen Überprüfung unterzogen werden? Wenn ja, wie sieht das Verfahren für diesen Überprüfungsprozess aus?
>Ethik/Superintelligenz/Bostrom, >Ethik/Superintelligenz/Yudkowsky, >Normen/Bostrom.

Bostrom I
Nick Bostrom
Superintelligence. Paths, Dangers, Strategies Oxford: Oxford University Press 2017