Philosophie Lexikon der Argumente

Home Screenshot Tabelle Begriffe

 
Unsicherheit: Ungewissheit bezieht sich auf einen Mangel an Sicherheit oder Vorhersagbarkeit eines Ereignisses, eines Ergebnisses oder einer Situation, der auf unzureichende Informationen, Mehrdeutigkeit oder Komplexität zurückzuführen ist. Siehe auch Gewissheit, Wissen, Komplexität, Vorhersagen.

_____________
Anmerkung: Die obigen Begriffscharakterisierungen verstehen sich weder als Definitionen noch als erschöpfende Problemdarstellungen. Sie sollen lediglich den Zugang zu den unten angefügten Quellen erleichtern. - Lexikon der Argumente.

 
Autor Begriff Zusammenfassung/Zitate Quellen

KI-Forschung über Unsicherheit - Lexikon der Argumente

Norvig I 480
Unsicherheit/KI-Forschung/Norvig/Russell: Agenten müssen möglicherweise mit Unsicherheit umgehen, sei es aufgrund von partieller Beobachtungsfähigkeit, Nichtdeterminismus oder einer Kombination aus beidem. Ein Agent weiß nie genau, in welchem Zustand er sich befindet oder wo er nach einer Reihe von Handlungen endet.
Lösung: Behandeln Sie die Unsicherheit, indem Sie einen belief state im Auge behalten - eine Darstellung der Menge aller möglichen Weltzustände, in denen es sich befinden könnte - und einen Alternativplan generieren, der alle möglichen Eventualitäten behandelt, die seine Sensoren während der Ausführung melden könnten.
Probleme: a) Bei der Interpretation partieller Sensorinformationen muss ein logischer Agent jede logisch mögliche Erklärung für die Beobachtungen berücksichtigen, egal wie unwahrscheinlich sie ist. Dies führt zu unmöglich großen und komplexen belief state-Repräsentationen.
b) Ein korrekter Alternativplan, der jede Eventualität bewältigt, kann beliebig groß werden und muss willkürlich unwahrscheinliche Eventualitäten berücksichtigen.
c) Manchmal gibt es keinen Plan, der garantiert das Ziel erreicht - dennoch muss der Agent handeln. Er muss eine Möglichkeit haben, die Vorzüge von Plänen zu vergleichen, die nicht garantiert sind.
Norvig I 505
Unsicherheit: Coxs Theorem (1946)(1) zeigt, dass jedes System für unsicheres Schlussfolgern, das seinen Annahmen entspricht, der Wahrscheinlichkeitstheorie entspricht. Dies gab denjenigen, die bereits die Wahrscheinlichkeit favorisierten neues Vertrauen, aber andere waren nicht überzeugt und verwiesen auf die Annahmen (vor allem, dass Überzeugung (belief) durch eine einzige Zahl dargestellt werden muss, und somit die Überzeugung über ¬p eine Funktion der Überzeugung über p sein muss). Halpern (1999)(2) beschreibt die Annahmen und zeigt einige Lücken in der ursprünglichen Formulierung von Cox. Horn (2003)(3) zeigt, wie die Schwierigkeiten behoben werden können. Jaynes (2003(4)) hat ein ähnliches Argument, das leichter zu lesen ist. Die Frage der Referenzklassen ist eng mit dem Versuch verbunden, eine induktive Logik zu finden. >Universum/KI-Forschung
, >Bayessche Netze/Norvig.
Norvig I 547
A. Standardargumentation: behandelt Schlussfolgerungen nicht als "bis zu einem gewissen Grad davon überzeugt", sondern als "davon überzeugt, bis ein besserer Grund gefunden wird, um von etwas anderem überzeugt zu sein".
B. Regelbasierte Ansätze: (...) hoffen, auf dem Erfolg logischer regelbasierter Systeme aufzubauen, aber jeder Regel eine Art "Fudge-Faktor" hinzufügen, um der Unsicherheit Rechnung zu tragen. Diese Methoden wurden Mitte der 70er Jahre entwickelt und bildeten die Grundlage für eine Vielzahl von Expertensystemen in der Medizin und anderen Bereichen.
VsRegelbasierte Schlussfolgerungen: Probleme: 1. Nicht-Lokalität: In probabilistischen Systemen müssen wir alle Beweise berücksichtigen.2. Trennung: Im Umgang mit Wahrscheinlichkeiten ist (...) die Quelle der Beweise für eine Überzeugung für die spätere Argumentation wichtig. 3. Keine Wahrheitsfunktionalität: Bei der Kombination von Wahrscheinlichkeiten kann die Wahrheit komplexer Sätze nicht immer aus der Wahrheit der Komponenten errechnet werden.
C. Dempster-Shafer-Theorie: verwendet intervallgesteuerte Überzeugungsgrade, um das Wissen eines Agenten über die Wahrscheinlichkeit einer Proposition darzustellen. >Dempster-Shafer-Theorie/Norvig.
D. Vagheit/Fuzzy-Logik: Wahrscheinlichkeit hat die gleiche ontologische Verpflichtung wie Logik: dass Propositionen in der Welt wahr oder falsch sind, selbst wenn der Agent unsicher darüber ist, bei welcher was der Fall ist. Forscher in der Fuzzy-Logik haben eine Ontologie vorgeschlagen, die Vagheit zulässt: dass eine Proposition "gewissermaßen" wahr sein kann. Vagheit und Unsicherheit sind in der Tat orthogonale Fragen.

1. Cox, R. T. (1946). Probability, frequency, and reasonable expectation. American Journal of Physics,
14(1), 1–13.
2. Halpern, J. Y. (1999). Technical addendum, Cox’s theorem revisited. JAIR, 11, 429–435.
3. Horn, K. V. (2003). Constructing a logic of plausible inference: A guide to cox’s theorem. IJAR, 34,
3–24.
4. Jaynes, E. T. (2003). Probability Theory: The Logic of Science. Cambridge Univ. Press.

_____________
Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders. Übersetzungen: Lexikon der Argumente
Der Hinweis [Begriff/Autor], [Autor1]Vs[Autor2] bzw. [Autor]Vs[Begriff] bzw. "Problem:"/"Lösung", "alt:"/"neu:" und "These:" ist eine Hinzufügung des Lexikons der Argumente.
KI-Forschung

Norvig I
Peter Norvig
Stuart J. Russell
Artificial Intelligence: A Modern Approach Upper Saddle River, NJ 2010

Send Link

Autoren A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Y   Z  


Begriffe A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z