Philosophie Lexikon der Argumente

Home Screenshot Tabelle Begriffe

 
Werte: Werte sind grundlegende Überzeugungen, die das Verhalten leiten und Prinzipien darstellen, an denen der Einzelne festhält und die seine Entscheidungen und seine Einstellung zu sich selbst, zu anderen und der Welt beeinflussen. Siehe auch Überzeugungen, Verhalten, Individuen, Gemeinschaft, Normen, Prinzipien, Entscheidungen, Entscheidungsprozesse, Entscheidungstheorie.

_____________
Anmerkung: Die obigen Begriffscharakterisierungen verstehen sich weder als Definitionen noch als erschöpfende Problemdarstellungen. Sie sollen lediglich den Zugang zu den unten angefügten Quellen erleichtern. - Lexikon der Argumente.

 
Autor Begriff Zusammenfassung/Zitate Quellen

Nick Bostrom über Werte – Lexikon der Argumente

I 226
Werte/Superintelligenz/Software-Agenten//Bostrom: Wenn der Software-Agent unintelligent ist, kann es ihm an der Fähigkeit mangeln, einen menschlich bedeutsamen Wert zu verstehen oder gar darzustellen.
Problem: Es ist unmöglich, alle möglichen Situationen aufzuzählen, in denen sich eine Superintelligenz befinden könnte, und für jede einzelne zu spezifizieren, welche Maßnahmen sie ergreifen sollte. Ebenso ist es unmöglich, eine Liste aller möglichen Welten zu erstellen und jeder von ihnen einen Wert zuzuordnen.
Motivation: Ein Motivationssystem kann daher nicht als umfassende Nachschlagetabelle spezifiziert werden. Es muss stattdessen abstrakter ausgedrückt werden, als eine Formel oder Regel, die es dem Agenten erlaubt, zu entscheiden, was er in einer bestimmten Situation zu tun hat. ((s) Vgl. die philosophische Grundsatzdiskussion gegen eine Inhaltsfestlegung: >Prinzipien
, >Utilitarismus, >Deontologie.)
I 227
Nutzen: Das Erstellen einer Maschine, die eine gute Annäherung an den erwarteten Nutzen der ihr zur Verfügung stehenden Aktionen berechnen kann, ist ein KI-komplettes Problem. (...) ein Problem, das auch dann bleibt, wenn das Problem, Maschinen intelligent zu machen, gelöst wird. Wir können diesen Rahmen eines nutzenmaximierenden Agenten verwenden, um das Dilemma eines zukünftigen KI-Programmierers zu betrachten, der die Absicht hat, das Steuerungsproblem zu lösen, indem er die KI mit einem Endziel ausstattet, das einer plausiblen menschlichen Vorstellung von einem lohnenden Ergebnis entspricht.
Der Programmierer hat z.B. einen besonderen menschlichen Wert im Sinn, den er durch die KI fördern möchte. (...) sagen wir, es ist Glück. Aber wie könnte er eine solche Nutzenfunktion in Computercode ausdrücken? Computersprachen enthalten Begriffe wie "Glück" nicht als Grundbegriff.
I 228
Wenn wir menschliche Werte nicht in eine KI übertragen können indem wir vollwertige Darstellungen in Computercode eingeben, was könnten wir dann noch versuchen?
I 230
[Mögliche Methoden zur Erfassung von Werten]:
-Verstärkungslernen: Häufig beinhaltet der Lernalgorithmus die schrittweise Konstruktion einer Art Bewertungsfunktion, die Zuständen, Zustands-Aktions-Paaren oder Strategien Werte zuordnet.
Problem: Die Evaluationsfunktion, die im Lichte der Erfahrungen ständig aktualisiert wird, könnte als eine Form des Lernens über den Wert angesehen werden. Was jedoch gelernt wird, sind keine neuen Endwerte, sondern zunehmend genaue Schätzungen der instrumentellen Werte des Erreichens bestimmter Zustände (oder des Ergreifens bestimmter Maßnahmen in bestimmten Zuständen oder der Befolgung bestimmter Strategien). Insofern ein Software-Agent beim Verstärkungslernen so beschrieben werden kann, dass er ein Endziel hat, bleibt dieses Ziel konstant: die zukünftige Belohnung zu maximieren. Und die Belohnung besteht aus speziell bezeichneten Wahrnehmungen, die von der Umwelt erhalten werden. Daher bleibt das Wireheading-Syndrom (Gefangensein in der eigenen Verdrahtung) ein wahrscheinliches Ergebnis bei jedem Verstärkungsagenten, der ein Weltmodell entwickelt, das ausgereift genug ist, um diesen alternativen Weg zur Maximierung der Belohnung vorzuschlagen.
I 233
- Motivationsgerüst: Hier geht es darum, der Ausgangs-KI ein Zwischenzielsystem zu geben, mit relativ einfachen Endzielen, die wir durch explizite Kodierung oder eine andere praktikable Methode darstellen können. Sobald die KI ausgefeiltere Darstellungsfähigkeiten entwickelt hat, ersetzen wir dieses Zwischengerüst-Zielsystem durch ein System, das andere Endziele hat.
Problem: Da die Zwischenziele nicht nur instrumentelle, sondern auch endgültige Ziele für die KI sind, könnte von der KI erwartet werden, dass sie sich dagegen wehrt, dass sie ersetzt werden (Ziel-Inhalt-Integrität ist ein konvergenter instrumenteller Wert). Dies schafft eine Gefahr. Wenn es der KI gelingt, die Ersetzung ihrer Zwischenziele zu vereiteln, versagt die Methode.
I 234
Weitere Probleme: (1) Das Motivationsgerüst (...) birgt die Gefahr, dass die KI zu mächtig wird, solange sie noch auf ihrem Zwischenzielsystem läuft.
(2) Das Installieren der letztlich beabsichtigten Ziele in einer KI auf menschlicher Ebene ist nicht unbedingt so viel einfacher als in einer primitiveren KI.
I 235
-Werte lernen: [damit] die Intelligenz der KI die Werte lernen kann (...) müssen wir ein Kriterium für die KI bereitstellen, das zumindest implizit einen geeigneten Satz von Werten auswählt. (...) Der Ansatz des Werte-Lernens behält während der gesamten Entwicklungs- und Betriebsphase der KI ein unveränderliches Endziel bei. Lernen verändert das Ziel nicht. Es ändert nur die Überzeugungen der KI über das Ziel.
Kriterien: Die KI muss also mit einem Kriterium ausgestattet werden, mit dem sie bestimmen kann, welche Wahrnehmungen Beweise zugunsten einer Hypothese über das Endziel und welche Wahrnehmungen Beweise dagegen darstellen.
Problem: Die Schaffung einer künstlichen allgemeinen Intelligenz (>Artificial general intelligence), die einen leistungsfähigen Lernmechanismus erfordert, der die Struktur der Umwelt aus begrenzten sensorischen Inputs heraus entdecken kann.
I 240
Verstehen/Motivation: (...) Die Schwierigkeit besteht hier nicht so sehr darin, sicherzustellen, dass die KI die menschlichen Absichten verstehen kann. Eine Superintelligenz sollte ein solches Verständnis leicht entwickeln können. Die Schwierigkeit besteht vielmehr darin sicherzustellen, dass die KI motiviert wird, die beschriebenen Werte in der von uns beabsichtigten Weise zu verfolgen.
Dies wird nicht durch die Fähigkeit der KI garantiert, unsere Absichten zu verstehen: Eine KI könnte genau wissen, was wir meinten, und dennoch dieser Interpretation unserer Worte gegenüber gleichgültig sein (sie könnte stattdessen durch eine andere Interpretation der Worte motiviert sein oder unseren Worten gegenüber völlig gleichgültig sein).
Lösung: Die richtige Motivation sollte idealerweise in der Ausgangs-KI installiert werden, bevor sie in der Lage ist, menschliche Begriffe vollständig darzustellen oder menschliche Absichten zu verstehen.
I 253
[Weitere] Werte-bildende Techniken:
- Evolutionäre Auswahl: Mächtige Suche kann ein Design finden, das die formalen Suchkriterien erfüllt, aber nicht unsere Absichten.
- Wertzuwachs: (...) die menschlichen Wertzuwachsdispositionen könnten komplex und in einer Ausgangs-KI schwer zu replizieren sein.
Problem: Eine schlechte Annäherung kann zu einer KI führen, die anders verallgemeinert als der Mensch und daher unbeabsichtigte Endziele erreicht.
I 254
- Motivationsgerüst: Hier wird ein System ermutigt, interne Darstellungen auf hoher Ebene zu entwickeln, die für den Menschen transparent sind (während die Fähigkeiten des Systems unter dem gefährlichen Niveau gehalten werden), und dann diese Darstellungen zu verwenden, um ein neues Zielsystem zu entwerfen.
- Variation der Emulation: Wenn maschinelle Intelligenz über den Emulationspfad erreicht wird, wäre es wahrscheinlich möglich, die Motivationen durch das digitale Äquivalent von Drogen oder durch andere Mittel zu optimieren.
- Gestaltung der Infrastruktur: In einer Infrastruktur, die sich aus Emulationen zusammensetzt, könnten verschiedene starke Methoden der sozialen Kontrolle angewandt werden. Im Prinzip könnten Methoden der sozialen Kontrolle auch in einer Infrastruktur angewandt werden, die sich aus künstlichen Intelligenzen zusammensetzt.
>Ethik/Superintelligenz/Bostrom, >Ethik/Superintelligenz/Yudkowsky, >Normen/Bostrom.

_____________
Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders. Übersetzungen: Lexikon der Argumente
Der Hinweis [Begriff/Autor], [Autor1]Vs[Autor2] bzw. [Autor]Vs[Begriff] bzw. "Problem:"/"Lösung", "alt:"/"neu:" und "These:" ist eine Hinzufügung des Lexikons der Argumente.

Bostrom I
Nick Bostrom
Superintelligence. Paths, Dangers, Strategies Oxford: Oxford University Press 2017

Send Link

Autoren A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Y   Z  


Begriffe A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z