Philosophie Lexikon der ArgumenteHome![]() | |||
| |||
Wahrscheinlichkeit: Die Wahrscheinlichkeit ist ein Maß dafür, wie wahrscheinlich das Eintreten eines Ereignisses ist. Sie wird als Zahl zwischen 0 und 1 ausgedrückt, wobei 0 für die Unwahrscheinlichkeit und 1 für die Gewissheit steht. Siehe auch Wissen, Gewissheit, Wahrscheinlichkeit, Zufall, Wahrscheinlichkeitstheorie, Wahrscheinlichkeitsverteilung, Wahrscheinlichkeitsfunktionen._____________Anmerkung: Die obigen Begriffscharakterisierungen verstehen sich weder als Definitionen noch als erschöpfende Problemdarstellungen. Sie sollen lediglich den Zugang zu den unten angefügten Quellen erleichtern. - Lexikon der Argumente. | |||
Autor | Begriff | Zusammenfassung/Zitate | Quellen |
---|---|---|---|
Gerhard Schurz über Wahrscheinlichkeit – Lexikon der Argumente
I 99 Relative Häufigkeit/relH/h(Fx): eines Ereignistyps Fs in einem endlichen Bereich D: ist die Anzahl aller Fs in D geteilt durch die Anzahl aller Ds. Unendlicher Bereich: hier ist die relH undefiniert. Def Zufallsfolge/Schurz: Lösung für unendlichen Bereich für relH: statt dessen bezieht man sich auf eine zufällige Anordnung der Individuen in D (d1,d2...) und bestimmt p(Fx) als Grenzwert der relativen Häufigkeiten hn(Fx) von Fs in den n gliedrigen Anfangsabschnitten dieser Zufallsfolge für n nach unendlich. Schreibweise: p(Fx) = lim n > ue hn(Fx). Problem: eins wahrscheinliche und null wahrscheinliche Ereignisse: hier gilt bei unendlichem Bereich nicht mehr Wahrscheinlichkeit = 1 bzw. =, sondern: Gegeben eine unendliche Zufallsfolge, und einen Ereignistyp Fx, dann impliziert p(Fx) = 0 nicht, dass es in dieser Folge kein Individuum di gibt, das F ist, sondern, dass die Häufigkeiten hn(Fx) gegen Null konvergieren. I 100 Bsp Unter den natürlichen Zahlen gibt es unendlich viele ganze 2er Potenzen, nämlich alle Zahlen der Form 2 k (für k e N). Dennoch gilt lim k > ue p(Fx) = k/2k = 0, d.h. die Wahrscheinlichkeit dafür, dass eine natürliche Zahl keine 2er Potenz ist, ist 1. Daher ist die statistische Hypothese p(Kx I Ax) = 1 bei unendlichem Bereich schwächer als die Allimplikation (x)(Ax > Kx). Def Bedingte Wahrscheinlichkeit/Schurz: die Wahrscheinlichkeit von A unter der Annahme, dass B vorliegt: P( A I B) = p(A u B)/p(B). (pB) muss >0 sein. B: bedingendes Ereignis, Antezedens. A: bedingtes Ereignis, Konsequens. Im statistischen Fall koinzidiert p(A I B) mit der relH von A in der endlichen Menge aller B's. Bzw. mit dem Grenzwert der relH in einer unendliche Zufallsfolge von B's. >Bayesianismus. Nicht Monotonie/nicht monoton/bedingte Wahrscheinlichkeit /Schurz: bedingte Wahrscheinlichkeiten sind nicht monoton: d.h. aus p(A I B) = hoch folgt nicht dass p(A I B u C) = hoch. >Monotonie. Objektive Wahrscheinlichkeit /Typ/Prädikat/Schurz: statistische Wahrscheinlichkeiten beziehen sich immer auf einen wiederholbaren Ereignistyp, ausgedrückt in einem Prädikat bzw. einer offenen Formel. Subjektive Wahrscheinlichkeit: bezieht sich auf ein Ereignistoken, ausgedrückt in einem Satz. Bsp dass es morgen regnet: den morgigen Tag gibt es nur einmal. >Subjektive Wahrscheinlichkeit. Subjektiv/objektiv/ Wahrscheinlichkeit /Reichenbach: Prinzip zur Übertragung von objektiver auf subjektive Wahrscheinlichkeit: I 101 Prinzip der engsten Referenzklasse/Reichenbach: die subjektive Wahrscheinlichkeit eines Tokens Fa wird bestimmt als die (geschätzte) bedingte Wahrscheinlichkeit p(Fx I Rx) des entsprechenden Typs Fx, in der engsten Bezugsklasse Rx, von der bekannt ist, dass a in ihr liegt. (d.h. dass Ra gilt). Bsp Ob eine Person mit bestimmten Eigenschaften eine bestimmte Berufslaufbahn einschlägt. Diese Eigenschaften fungieren als engste Referenzklasse. Bsp Wetterentwicklung: engste Referenzklasse, die Entwicklung der letzten Tage. Gesamtdatum/Carnap: Prinzip des: zur Bestätigung, gesamtes Wissen. Subjektive Wahrscheinlichkeit: Hauptbegründer: Bayes, Ramsey, de Finetti. Logische Wahrscheinlichkeits-Theorie/Carnap: vieleVs. Mathematische Wahrscheinlichkeits-Theorie/Schurz: ignoriert den Unterschied subjektive/objektive Wahrscheinlichkeit, weil die statistischen Gesetze dieselben sind. I 102 Disjunktivität/ Wahrscheinlichkeit: objektiv. Die Extension von A u B ist leer subjektiv: A u B wird von keiner zugelassenen (extensionalen) Interpretation der Sprache wahr gemacht. Wahrscheinlichkeit /Axiome/Schurz: A1: für alle A: p(A) > 0. (Nicht Negativität) A2: p(A v ~A) = 1. (Normierung auf 1) A3: für disjunkte A, B: p(A v B) = p(A) + p(B) (endliche Additivität) D.h. für disjunkte Ereignisse addieren sich die Wahrscheinlichkeit. Def Probabilistische Unabhängigkeit/Schurz: probabilistisch unabhängig sind zwei Ereignisse A, B. gdw. p(A u B) = p(A) mal p(B) . Probabilistisch abhängig: wenn P(A I B) ungleich p(A). I 109 Def Erschöpfend/exhaustiv/Schurz: a) objektive Wahrscheinlichkeit: eine Formel A mit n freien Variablen heißt exhaustiv, gdw. die Extension von A die Menge aller n Tupel von Individuen umfasst b) subjektiv: gdw. die Menge aller A wahrmachenden Modelle (=extensionale Interpretationen) mit der Menge aller als möglich erachteten Modelle der Sprache koinzidiert. I 110 Def Partition/Schurz: erschöpfende Disjunktion. >Wahrscheinlichkeitstheorie._____________ Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders. Übersetzungen: Lexikon der ArgumenteDer Hinweis [Begriff/Autor], [Autor1]Vs[Autor2] bzw. [Autor]Vs[Begriff] bzw. "Problem:"/"Lösung", "alt:"/"neu:" und "These:" ist eine Hinzufügung des Lexikons der Argumente. |
Schu I G. Schurz Einführung in die Wissenschaftstheorie Darmstadt 2006 |