Philosophie Lexikon der Argumente

Home Screenshot Tabelle Begriffe

Autor/Titel Begriff Zusammenfassung Metadaten

Nick Bostrom über Ziele – Lexikon der Argumente

I 126
Ziele/Superintelligenz/KI-Forschung/Bostrom: Ist es möglich etwas darüber zu sagen, was eine Superintelligenz mit einem entscheidenden
I 127
strategischen Vorteil wünschen würde?
I 129
Intelligenz und Motivation sind in gewisser Weise orthogonal: Wir können sie uns als zwei Achsen vorstellen, die sich über ein Diagramm erstrecken, in dem jeder Punkt einen logisch möglichen künstlichen Agenten darstellt. Diesem Bild könnten einige Qualifikationen hinzugefügt werden. Zum Beispiel könnte es für ein sehr unintelligentes System unmöglich sein, sehr komplexe Motivationen zu haben. ((s) Orthogonalität bedeutet Unabhängigkeit dieser Größen voneinander, weil die Achsen senkrecht aufeinander stehen.)
I 130
Def-Orthogonalitäts-These/Bostrom: Intelligenz und Endziele sind orthogonal: Mehr oder weniger jedes Intelligenzniveau könnte prinzipiell mit mehr oder weniger jedem Endziel kombiniert werden.
Gemäss der Orthogonalitäts-These können künstliche Agenten völlig nicht-anthropomorphe Ziele haben.
-Vorhersagbarkeit durch Design:
I 131
(...) noch bevor ein Agent geschaffen wurde, können wir vielleicht etwas über sein Verhalten vorhersagen, wenn wir etwas darüber wissen, wer ihn bauen wird und welche Ziele er haben will.
-Vorhersagbarkeit durch Vererbung. Wenn eine digitale Intelligenz direkt aus einer menschlichen Vorlage erstellt wird (wie es bei einer High-Fidelity-Emulation des gesamten Gehirns der Fall wäre), dann könnte die digitale Intelligenz die Motivationen der menschlichen Vorlage erben.
-Vorhersagbarkeit durch konvergente instrumentelle Gründe: (...) Wir können vielleicht etwas über seine unmittelbareren Ziele ableiten, wenn wir die instrumentellen Gründe berücksichtigen, die sich für jedes einer Vielzahl möglicher Endziele in einer Vielzahl von Situationen ergeben würden.
I 132
Def Instrumentale Konvergenzthese / Bostrom: Es lassen sich mehrere instrumentelle Werte identifizieren, die in dem Sinne konvergieren, dass ihre Erreichung die Chancen des Agenten, sein Ziel zu erreichen, für ein breites Spektrum von Endzielen und eine Vielzahl von Situationen erhöhen würde, was impliziert, dass diese instrumentellen Werte wahrscheinlich von einem breiten Spektrum situierter intelligenter Agenten verfolgt werden. >Ziele/Omohundro.
Wo es konvergierende instrumentelle Werte gibt, können wir möglicherweise einige Aspekte des Verhaltens einer Superintelligenz vorhersagen:
-Selbstschutz: Die meisten Menschen scheinen ihrem eigenen Überleben einen endgültigen Wert beizumessen. Dies ist kein notwendiges Merkmal künstlicher Agenten: Einige können so konzipiert sein, dass sie ihrem eigenen Überleben keinerlei endgültigen Wert beimessen.
Ziel-Inhalt-Integrität: Wenn ein Agent seine gegenwärtigen Ziele auch in Zukunft beibehält, dann werden seine gegenwärtigen Ziele mit größerer Wahrscheinlichkeit von seinem zukünftigen Selbst erreicht werden. Dies gibt dem Agenten einen gegenwärtigen instrumentellen Grund,
I 133
Änderungen seiner Endziele zu verhindern. Für Software-Agenten, die leicht Körper wechseln oder exakte Duplikate von sich selbst erstellen können, muss die Erhaltung des Selbst als eine bestimmte Implementierung oder ein bestimmtes physisches Objekt kein wichtiger instrumenteller Wert sein. Fortgeschrittene Software-Agenten könnten auch in der Lage sein, Erinnerungen auszutauschen, Fähigkeiten herunterzuladen und ihre kognitive Architektur und ihre Persönlichkeit radikal zu verändern.
I 141
Orthogonalitäts-These/Bostrom: (s.o.) die Orthogonalitäts-These legt nahe, dass man nicht leichtfertig davon ausgehen kann, dass eine Superintelligenz notwendigerweise einen der Endwerte teilt, die stereotyp mit Weisheit und intellektueller Entwicklung des Menschen assoziiert werden (...).
I 270
Ziele/Ethik/Moral/Moral/Superintelligenz/Bostrom: Denken Sie zum Beispiel an das folgende " Vernunft-basierte" Ziel:
Tun Sie das, was wir am ehesten von der KI hätten verlangen können.
((s)VsBostrom: Hier wird vorausgesetzt, dass die KI keinen Grund hat, unsere Absichten zu verfälschen.
I 272
Bostrom: Komponenten für Verhaltensentscheidungen:
-Ziel Inhalt: Welches Ziel sollte die KI verfolgen? Wie sollte eine Beschreibung dieses Ziels interpretiert werden?
-Entscheidungstheorie: Sollte die KI kausale Entscheidungstheorie, beweiskräftige Entscheidungstheorie, aktualisierungslose Entscheidungstheorie oder etwas anderes verwenden?
-Erkenntnistheorie: Wie sollte die vorrangige Wahrscheinlichkeitsfunktion der KI aussehen (...) Welche Theorie der Anthropologie sollte sie verwenden??
-Bewertung/Rangordnung: Sollten die Pläne der KI vor ihrer Umsetzung einer menschlichen Überprüfung unterzogen werden? Wenn ja, wie sieht das Verfahren für diesen Überprüfungsprozess aus?
>Ethik/Superintelligenz/Bostrom, >Ethik/Superintelligenz/Yudkowsky, >Normen/Bostrom.


_____________
Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders. Übersetzungen: Lexikon der Argumente
Der Hinweis [Autor1]Vs[Autor2] bzw. [Autor]Vs[Begriff] ist eine Hinzufügung des Lexikons der Argumente.

Bostrom I
Nick Bostrom
Superintelligence. Paths, Dangers, Strategies Oxford: Oxford University Press 2017

Send Link
> Gegenargumente gegen Bostrom

Autoren A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Y   Z  


Begriffe A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z