| Begriff/ Autor/Ismus |
Autor |
Eintrag |
Literatur |
|---|---|---|---|
| Ethik | Bostrom | I 257 Ethik/Moral/Superintelligenz//Bostrom: Keine ethische Theorie erlangt eine mehrheitliche Unterstützung unter den Philosophen, so dass die meisten Philosophen sich irren müssen. ((s)VsBostrom: Es ist keine Frage des Applauses, welche Theorie richtig ist). I 369 Mehrheiten in Ethik/Bostrom: Eine kürzlich durchgeführte Befragung von Berufsphilosophen ergab den Prozentsatz der Befragten, die verschiedene Positionen "akzeptieren oder sich ihnen zuneigen". Zur normativen Ethik waren die Ergebnisse Deontologie 25,9%; - Konsequentialismus 23,6%; - Tugendethik 18,2%. Zur Metaethik waren die Ergebnisse moralischer Realismus 56,4%; - moralischer Anti-Realismus 27,7%. Zum moralischen Urteilsvermögen: Kognitivismus 65,7%; - Nicht-Kognitivismus 17,0% (Bourget und Chalmers 2009(1)) >Normen/Normativität/Superintelligenz/Bostrom, >Ethik/Superintelligenz/Yudkowsky. Morality models: I 259 Def CEV/Yudkowsky: Unser "kohärentes extrapoliertes Wollen" ist der Wunsch den wir hätten, wenn wir mehr wüssten, schneller dächten, mehr die Menschen wären, die wir gerne wären, wenn wir weiter zusammenwachsen würden; wo die Extrapolation konvergiert statt divergiert, wo unsere Wünsche kohärent sind statt sich zu stören; wenn sie extrapoliert würden, wie wir es wünschen, dass extrapoliert wird und interpretiert würden, wie wir es wünschen. I 266 VsCEV/Bostrom: stattdessen: Moralische Richtigkeit / MR/Bostrom: (...) bauen wir eine KI mit dem Ziel auf, das moralisch Richtige zu tun, wobei die KI sich auf ihre überlegenen kognitiven Fähigkeiten stützt, um herauszufinden, welche Handlungen genau auf diese Beschreibung passen. Wir können diesen Vorschlag "moralische Richtigkeit" (MR) nennen. Die Idee ist, dass wir Menschen ein unvollkommenes Verständnis davon haben, was richtig und was falsch ist (...) ((s)VsBostrom: Damit wird menschliche Verantwortung delegiert und letztlich davon ausgegangen, dass menschliche Entscheidungen nur vorläufig sind, bis nicht-menschliche Entscheidungen getroffen werden). I 267 BostromVsYudkowsky: MR würde verschiedene freie Parameter in der CEV abschaffen, wie z.B. den Grad der Kohärenz zwischen den extrapolierten Willensäußerungen, der erforderlich ist, damit die KI auf das Ergebnis reagieren kann, die Leichtigkeit, mit der eine Mehrheit abweichende Minderheiten überstimmen kann, und die Art des sozialen Umfelds, innerhalb dessen unser extrapoliertes Selbst "weiter zusammenwachsen" soll. BostromVsMR: Problem: 1. die MR scheint auch einige Nachteile zu haben. Sie stützt sich auf den Begriff "moralisch richtig", einen notorisch schwierigen Begriff (...). I 268 2. (...) [MR] gibt uns vielleicht nicht das, was wir wollen oder was wir wählen würden, wenn wir klüger und besser informiert wären. Lösung/Bostrom: Ziel für KI: MP: Unter den Handlungen, die für die KI moralisch zulässig sind, nehme die KI eine, die der CEV der Menschheit vorziehen würde. Wenn jedoch ein Teil dieser Anweisung keine genau spezifizierte Bedeutung hat, oder wenn wir über ihre Bedeutung radikal uneins sind, oder wenn der moralische Realismus falsch ist, oder wenn wir bei der Schaffung einer KI mit diesem Ziel moralisch unzulässig gehandelt haben, dann unterziehe die KI sich einer kontrollierten Abschaltung.(*) Die KI folge der beabsichtigten Bedeutung dieser Anweisung. I 373 (Anmerkung) *Def Moralische Zulässigkeit/Bostrom: Wenn die KI die moralische Zulässigkeit unserer Handlung zur Schaffung der KI bewertet, sollte sie die Zulässigkeit in ihrem objektiven Sinne interpretieren. In einem gewöhnlichen Sinne von "moralisch zulässig" handelt eine Ärztin oder ein Arzt moralisch zulässig, wenn sie oder er ein Medikament verschreibt, von dem sie oder er glaubt, dass es ihre oder seine Patientin heilen wird - selbst wenn die Patientin oder der Patient, ohne dass die Ärztin oder der Arzt es weiß, allergisch gegen das Medikament ist und infolgedessen stirbt. Die Konzentration auf die objektive moralische Zulässigkeit macht sich die vermutlich überlegene erkenntnistheoretische Position der KI zunutze.. ((s)VsBostrom: Der letzte Satz (Salvatorische Klausel: "Die KI folge der beabsichtigten Bedeutung dieser Anweisung") ist zirkulär, insbesondere wenn es keine Personen mehr in Entscheidungspositionen gibt, die dagegen Einspruch erheben könnten. >Ziele/Superintelligenz/Bostrom I 312 Def Gemeinwohlprinzip/Bostrom: Superintelligenz sollte nur zum Wohle der gesamten Menschheit und im Dienste weit verbreiteter ethischer Ideale entwickelt werden. I 380 Diese Formulierung soll so gelesen werden, dass sie eine Vorschrift einschließt, dass das Wohlergehen von nichtmenschlichen Tieren und anderen fühlenden Wesen (einschließlich des digitalen Verstandes), die existieren oder entstehen könnten, gebührend berücksichtigt wird. Sie soll nicht als Lizenz für einen KI-Entwickler gelesen werden, seine oder ihre eigenen moralischen Intuitionen durch die der breiteren moralischen Gemeinschaft zu ersetzen. 1. Bourget, David, and Chalmers, David. 2009. “The PhilPapers Surveys.” November. Available at http://philpapers.org/surveys/ |
Bostrom I Nick Bostrom Superintelligence. Paths, Dangers, Strategies Oxford: Oxford University Press 2017 |
| Normen | Bostrom | I 258 Normen/Normativität/Superintelligenz/Bostrom: Indirekte Normativität ist eine Möglichkeit, auf die Herausforderung zu antworten, die sich aus der Tatsache ergibt, dass wir vielleicht nicht wissen, was wir wirklich wollen, was in unserem Interesse liegt oder was moralisch richtig oder ideal ist. Anstatt eine Vermutung auf der Grundlage unseres eigenen derzeitigen Verständnisses (das wahrscheinlich zutiefst fehlerhaft ist) anzustellen, würden wir einen Teil der für die Wertauswahl erforderlichen kognitiven Arbeit an die Superintelligenz delegieren. >Ethik/Superintelligenz/Bostrom. (...) man könnte diese Idee verallgemeinern (...): Def Prinzip der epistemischen Achtung: Eine zukünftige Superintelligenz nimmt einen erkenntnistheoretisch überlegenen Standpunkt ein: ihre Überzeugungen sind (wahrscheinlich bei den meisten Themen) wahrscheinlicher als unsere. Wir sollten uns daher, wann immer dies möglich ist, der Meinung der Superintelligenz beugen. ((s)VsBostrom: (1) Hier wird die stillschweigende Annahme gemacht, dass moralische Entscheidungen dem Fortschritt unterworfen sind. (2) Damit wird menschliche Verantwortung delegiert und letztlich davon ausgegangen, dass menschliche Entscheidungen nur vorläufig sind, bis nicht-menschliche Entscheidungen getroffen werden). >Ethik/Moral/Superintelligenz/Yudkowsky I 259 Ethik/Moral/Superintelligenz/Yudkowsky: Yudkowsky hat vorgeschlagen, einer Ausgangs-KI das Endziel zu geben, den "kohärenten extrapolierten Willen" (CEV) der Menschheit zu verwirklichen, den er wie folgt definiert: CEV/Yudkowsky: CEV/Yudkowsky: Unser "kohärentes extrapoliertes Wollen" ist unser Wunsch, wenn wir mehr wüssten, schneller dächten, mehr die Menschen wären, die wir gerne wären, wenn wir enger zusammen aufgewachsen wären; wo die Extrapolation unserer Wünsche konvergiert statt zu divergieren, wo unsere Wünsche kohärent sind statt sich zu stören; wenn sie extrapoliert werden, wie wir es wünschen, dass sie extrapoliert werden, dass sie interpretiert werden, wie wir es wünschen, dass sie interpretiert werden. >Ethik/Superintelligenz//Bostrom. |
Bostrom I Nick Bostrom Superintelligence. Paths, Dangers, Strategies Oxford: Oxford University Press 2017 |
| Ziele | Bostrom | I 126 Ziele/Superintelligenz/KI-Forschung/Bostrom: Ist es möglich etwas darüber zu sagen, was eine Superintelligenz mit einem entscheidenden I 127 strategischen Vorteil wünschen würde? I 129 Intelligenz und Motivation sind in gewisser Weise orthogonal: Wir können sie uns als zwei Achsen vorstellen, die sich über ein Diagramm erstrecken, in dem jeder Punkt einen logisch möglichen künstlichen Agenten darstellt. Diesem Bild könnten einige Qualifikationen hinzugefügt werden. Zum Beispiel könnte es für ein sehr unintelligentes System unmöglich sein, sehr komplexe Motivationen zu haben. ((s) Orthogonalität bedeutet Unabhängigkeit dieser Größen voneinander, weil die Achsen senkrecht aufeinander stehen.) I 130 Def-Orthogonalitäts-These/Bostrom: Intelligenz und Endziele sind orthogonal: Mehr oder weniger jedes Intelligenzniveau könnte prinzipiell mit mehr oder weniger jedem Endziel kombiniert werden. Gemäss der Orthogonalitäts-These können künstliche Agenten völlig nicht-anthropomorphe Ziele haben. -Vorhersagbarkeit durch Design: I 131 (...) noch bevor ein Agent geschaffen wurde, können wir vielleicht etwas über sein Verhalten vorhersagen, wenn wir etwas darüber wissen, wer ihn bauen wird und welche Ziele er haben will. -Vorhersagbarkeit durch Vererbung. Wenn eine digitale Intelligenz direkt aus einer menschlichen Vorlage erstellt wird (wie es bei einer High-Fidelity-Emulation des gesamten Gehirns der Fall wäre), dann könnte die digitale Intelligenz die Motivationen der menschlichen Vorlage erben. -Vorhersagbarkeit durch konvergente instrumentelle Gründe: (...) Wir können vielleicht etwas über seine unmittelbareren Ziele ableiten, wenn wir die instrumentellen Gründe berücksichtigen, die sich für jedes einer Vielzahl möglicher Endziele in einer Vielzahl von Situationen ergeben würden. I 132 Def Instrumentale Konvergenzthese / Bostrom: Es lassen sich mehrere instrumentelle Werte identifizieren, die in dem Sinne konvergieren, dass ihre Erreichung die Chancen des Agenten, sein Ziel zu erreichen, für ein breites Spektrum von Endzielen und eine Vielzahl von Situationen erhöhen würde, was impliziert, dass diese instrumentellen Werte wahrscheinlich von einem breiten Spektrum situierter intelligenter Agenten verfolgt werden. >Ziele/Omohundro. Wo es konvergierende instrumentelle Werte gibt, können wir möglicherweise einige Aspekte des Verhaltens einer Superintelligenz vorhersagen: -Selbstschutz: Die meisten Menschen scheinen ihrem eigenen Überleben einen endgültigen Wert beizumessen. Dies ist kein notwendiges Merkmal künstlicher Agenten: Einige können so konzipiert sein, dass sie ihrem eigenen Überleben keinerlei endgültigen Wert beimessen. Ziel-Inhalt-Integrität: Wenn ein Agent seine gegenwärtigen Ziele auch in Zukunft beibehält, dann werden seine gegenwärtigen Ziele mit größerer Wahrscheinlichkeit von seinem zukünftigen Selbst erreicht werden. Dies gibt dem Agenten einen gegenwärtigen instrumentellen Grund, I 133 Änderungen seiner Endziele zu verhindern. Für Software-Agenten, die leicht Körper wechseln oder exakte Duplikate von sich selbst erstellen können, muss die Erhaltung des Selbst als eine bestimmte Implementierung oder ein bestimmtes physisches Objekt kein wichtiger instrumenteller Wert sein. Fortgeschrittene Software-Agenten könnten auch in der Lage sein, Erinnerungen auszutauschen, Fähigkeiten herunterzuladen und ihre kognitive Architektur und ihre Persönlichkeit radikal zu verändern. I 141 Orthogonalitäts-These/Bostrom: (s.o.) die Orthogonalitäts-These legt nahe, dass man nicht leichtfertig davon ausgehen kann, dass eine Superintelligenz notwendigerweise einen der Endwerte teilt, die stereotyp mit Weisheit und intellektueller Entwicklung des Menschen assoziiert werden (...). I 270 Ziele/Ethik/Moral/Moral/Superintelligenz/Bostrom: Denken Sie zum Beispiel an das folgende " Vernunft-basierte" Ziel: Tun Sie das, was wir am ehesten von der KI hätten verlangen können. ((s)VsBostrom: Hier wird vorausgesetzt, dass die KI keinen Grund hat, unsere Absichten zu verfälschen. I 272 Bostrom: Komponenten für Verhaltensentscheidungen: -Ziel Inhalt: Welches Ziel sollte die KI verfolgen? Wie sollte eine Beschreibung dieses Ziels interpretiert werden? -Entscheidungstheorie: Sollte die KI kausale Entscheidungstheorie, beweiskräftige Entscheidungstheorie, aktualisierungslose Entscheidungstheorie oder etwas anderes verwenden? -Erkenntnistheorie: Wie sollte die vorrangige Wahrscheinlichkeitsfunktion der KI aussehen (...) Welche Theorie der Anthropologie sollte sie verwenden?? -Bewertung/Rangordnung: Sollten die Pläne der KI vor ihrer Umsetzung einer menschlichen Überprüfung unterzogen werden? Wenn ja, wie sieht das Verfahren für diesen Überprüfungsprozess aus? >Ethik/Superintelligenz/Bostrom, >Ethik/Superintelligenz/Yudkowsky, >Normen/Bostrom. |
Bostrom I Nick Bostrom Superintelligence. Paths, Dangers, Strategies Oxford: Oxford University Press 2017 |
| Ziele | KI-Forschung | Bostrom I 126 Ziele/Superintelligenz/KI-Forschung/Bostrom: Ist es möglich etwas darüber zu sagen, was eine Superintelligenz mit einem entscheidenden I 127 strategischen Vorteil wünschen würde? I 129 Intelligenz und Motivation sind in gewisser Weise orthogonal: Wir können sie uns als zwei Achsen vorstellen, die sich über ein Diagramm erstrecken, in dem jeder Punkt einen logisch möglichen künstlichen Agenten darstellt. Diesem Bild könnten einige Qualifikationen hinzugefügt werden. Zum Beispiel könnte es für ein sehr unintelligentes System unmöglich sein, sehr komplexe Motivationen zu haben. ((s) Orthogonalität bedeutet Unabhängigkeit dieser Größen voneinander, weil die Achsen senkrecht aufeinander stehen.) I 130 Def-Orthogonalitäts-These/Bostrom: Intelligenz und Endziele sind orthogonal: Mehr oder weniger jedes Intelligenzniveau könnte prinzipiell mit mehr oder weniger jedem Endziel kombiniert werden. Gemäss der Orthogonalitäts-These können künstliche Agenten völlig nicht-anthropomorphe Ziele haben. -Vorhersagbarkeit durch Design: I 131 (...) noch bevor ein Agent geschaffen wurde, können wir vielleicht etwas über sein Verhalten vorhersagen, wenn wir etwas darüber wissen, wer ihn bauen wird und welche Ziele er haben will. -Vorhersagbarkeit durch Vererbung. Wenn eine digitale Intelligenz direkt aus einer menschlichen Vorlage erstellt wird (wie es bei einer High-Fidelity-Emulation des gesamten Gehirns der Fall wäre), dann könnte die digitale Intelligenz die Motivationen der menschlichen Vorlage erben. -Vorhersagbarkeit durch konvergente instrumentelle Gründe: (...) Wir können vielleicht etwas über seine unmittelbareren Ziele ableiten, wenn wir die instrumentellen Gründe berücksichtigen, die sich für jedes einer Vielzahl möglicher Endziele in einer Vielzahl von Situationen ergeben würden. I 132 Def Instrumentale Konvergenzthese / Bostrom: Es lassen sich mehrere instrumentelle Werte identifizieren, die in dem Sinne konvergieren, dass ihre Erreichung die Chancen des Agenten, sein Ziel zu erreichen, für ein breites Spektrum von Endzielen und eine Vielzahl von Situationen erhöhen würde, was impliziert, dass diese instrumentellen Werte wahrscheinlich von einem breiten Spektrum situierter intelligenter Agenten verfolgt werden. >Ziele/Omohundro. Wo es konvergierende instrumentelle Werte gibt, können wir möglicherweise einige Aspekte des Verhaltens einer Superintelligenz vorhersagen: -Selbstschutz: Die meisten Menschen scheinen ihrem eigenen Überleben einen endgültigen Wert beizumessen. Dies ist kein notwendiges Merkmal künstlicher Agenten: Einige können so konzipiert sein, dass sie ihrem eigenen Überleben keinerlei endgültigen Wert beimessen. Ziel-Inhalt-Integrität: Wenn ein Agent seine gegenwärtigen Ziele auch in Zukunft beibehält, dann werden seine gegenwärtigen Ziele mit größerer Wahrscheinlichkeit von seinem zukünftigen Selbst erreicht werden. Dies gibt dem Agenten einen gegenwärtigen instrumentellen Grund, I 133 Änderungen seiner Endziele zu verhindern. Für Software-Agenten, die leicht Körper wechseln oder exakte Duplikate von sich selbst erstellen können, muss die Erhaltung des Selbst als eine bestimmte Implementierung oder ein bestimmtes physisches Objekt kein wichtiger instrumenteller Wert sein. Fortgeschrittene Software-Agenten könnten auch in der Lage sein, Erinnerungen auszutauschen, Fähigkeiten herunterzuladen und ihre kognitive Architektur und ihre Persönlichkeit radikal zu verändern. I 141 Orthogonalitäts-These/Bostrom: (s.o.) die Orthogonalitäts-These legt nahe, dass man nicht leichtfertig davon ausgehen kann, dass eine Superintelligenz notwendigerweise einen der Endwerte teilt, die stereotyp mit Weisheit und intellektueller Entwicklung des Menschen assoziiert werden (...). I 270 Ziele/Ethik/Moral/Moral/Superintelligenz/Bostrom: Denken Sie zum Beispiel an das folgende " Vernunft-basierte" Ziel: Tun Sie das, was wir am ehesten von der KI hätten verlangen können. ((s)VsBostrom: Hier wird vorausgesetzt, dass die KI keinen Grund hat, unsere Absichten zu verfälschen. I 272 Bostrom: Komponenten für Verhaltensentscheidungen: -Ziel Inhalt: Welches Ziel sollte die KI verfolgen? Wie sollte eine Beschreibung dieses Ziels interpretiert werden? -Entscheidungstheorie: Sollte die KI kausale Entscheidungstheorie, beweiskräftige Entscheidungstheorie, aktualisierungslose Entscheidungstheorie oder etwas anderes verwenden? -Erkenntnistheorie: Wie sollte die vorrangige Wahrscheinlichkeitsfunktion der KI aussehen (...) Welche Theorie der Anthropologie sollte sie verwenden?? -Bewertung/Rangordnung: Sollten die Pläne der KI vor ihrer Umsetzung einer menschlichen Überprüfung unterzogen werden? Wenn ja, wie sieht das Verfahren für diesen Überprüfungsprozess aus? >Ethik/Superintelligenz/Bostrom, >Ethik/Superintelligenz/Yudkowsky, >Normen/Bostrom. |
Bostrom I Nick Bostrom Superintelligence. Paths, Dangers, Strategies Oxford: Oxford University Press 2017 |