Philosophie Lexikon der Argumente

Home Screenshot Tabelle Begriffe

 
Wahrscheinlichkeit: Die Wahrscheinlichkeit ist ein Maß dafür, wie wahrscheinlich das Eintreten eines Ereignisses ist. Sie wird als Zahl zwischen 0 und 1 ausgedrückt, wobei 0 für die Unwahrscheinlichkeit und 1 für die Gewissheit steht. Siehe auch Wissen, Gewissheit, Wahrscheinlichkeit, Zufall, Wahrscheinlichkeitstheorie, Wahrscheinlichkeitsverteilung, Wahrscheinlichkeitsfunktionen.

_____________
Anmerkung: Die obigen Begriffscharakterisierungen verstehen sich weder als Definitionen noch als erschöpfende Problemdarstellungen. Sie sollen lediglich den Zugang zu den unten angefügten Quellen erleichtern. - Lexikon der Argumente.

 
Autor Begriff Zusammenfassung/Zitate Quellen

Gerhard Schurz über Wahrscheinlichkeit – Lexikon der Argumente

I 99
Relative Häufigkeit/relH/h(Fx): eines Ereignistyps Fs in einem endlichen Bereich D: ist die Anzahl aller Fs in D geteilt durch die Anzahl aller Ds.
Unendlicher Bereich: hier ist die relH undefiniert.
Def Zufallsfolge/Schurz: Lösung für unendlichen Bereich für relH: statt dessen bezieht man sich auf eine zufällige Anordnung der Individuen in D (d1,d2...) und bestimmt p(Fx) als Grenzwert der relativen Häufigkeiten hn(Fx) von Fs in den n gliedrigen Anfangsabschnitten dieser Zufallsfolge für n nach unendlich.
Schreibweise: p(Fx) = lim n > ue hn(Fx).
Problem: eins wahrscheinliche und null wahrscheinliche Ereignisse: hier gilt bei unendlichem Bereich nicht mehr Wahrscheinlichkeit = 1 bzw. =, sondern:
Gegeben eine unendliche Zufallsfolge, und einen Ereignistyp Fx, dann impliziert p(Fx) = 0 nicht, dass es in dieser Folge kein Individuum di gibt, das F ist, sondern, dass die Häufigkeiten hn(Fx) gegen Null konvergieren.
I 100
Bsp Unter den natürlichen Zahlen gibt es unendlich viele ganze 2er Potenzen, nämlich alle Zahlen der Form 2 k (für k e N). Dennoch gilt lim k > ue p(Fx) = k/2k = 0, d.h. die Wahrscheinlichkeit dafür, dass eine natürliche Zahl keine 2er Potenz ist, ist 1.
Daher ist die statistische Hypothese p(Kx I Ax) = 1 bei unendlichem Bereich schwächer als die Allimplikation (x)(Ax > Kx).

Def Bedingte Wahrscheinlichkeit/Schurz: die Wahrscheinlichkeit von A unter der Annahme, dass B vorliegt:
P( A I B) = p(A u B)/p(B). (pB) muss >0 sein.
B: bedingendes Ereignis, Antezedens.
A: bedingtes Ereignis, Konsequens.
Im statistischen Fall koinzidiert p(A I B) mit der relH von A in der endlichen Menge aller B's. Bzw. mit dem Grenzwert der relH in einer unendliche Zufallsfolge von B's.
>Bayesianismus
.
Nicht Monotonie/nicht monoton/bedingte Wahrscheinlichkeit /Schurz: bedingte Wahrscheinlichkeiten sind nicht monoton: d.h. aus p(A I B) = hoch folgt nicht dass p(A I B u C) = hoch.
>Monotonie.
Objektive Wahrscheinlichkeit /Typ/Prädikat/Schurz: statistische Wahrscheinlichkeiten beziehen sich immer auf einen wiederholbaren Ereignistyp, ausgedrückt in einem Prädikat bzw. einer offenen Formel.
Subjektive Wahrscheinlichkeit: bezieht sich auf ein Ereignistoken, ausgedrückt in einem Satz. Bsp dass es morgen regnet: den morgigen Tag gibt es nur einmal.
>Subjektive Wahrscheinlichkeit.
Subjektiv/objektiv/ Wahrscheinlichkeit /Reichenbach: Prinzip zur Übertragung von objektiver auf subjektive Wahrscheinlichkeit:
I 101
Prinzip der engsten Referenzklasse/Reichenbach: die subjektive Wahrscheinlichkeit eines Tokens Fa wird bestimmt als die (geschätzte) bedingte Wahrscheinlichkeit p(Fx I Rx) des entsprechenden Typs Fx, in der engsten Bezugsklasse Rx, von der bekannt ist, dass a in ihr liegt. (d.h. dass Ra gilt).
Bsp Ob eine Person mit bestimmten Eigenschaften eine bestimmte Berufslaufbahn einschlägt. Diese Eigenschaften fungieren als engste Referenzklasse. Bsp Wetterentwicklung: engste Referenzklasse, die Entwicklung der letzten Tage.
Gesamtdatum/Carnap: Prinzip des: zur Bestätigung, gesamtes Wissen.
Subjektive Wahrscheinlichkeit: Hauptbegründer: Bayes, Ramsey, de Finetti.
Logische Wahrscheinlichkeits-Theorie/Carnap: vieleVs.
Mathematische Wahrscheinlichkeits-Theorie/Schurz: ignoriert den Unterschied subjektive/objektive Wahrscheinlichkeit, weil die statistischen Gesetze dieselben sind.
I 102
Disjunktivität/ Wahrscheinlichkeit: objektiv. Die Extension von A u B ist leer
subjektiv: A u B wird von keiner zugelassenen (extensionalen) Interpretation der Sprache wahr gemacht.
Wahrscheinlichkeit /Axiome/Schurz:
A1: für alle A: p(A) > 0. (Nicht Negativität)
A2: p(A v ~A) = 1. (Normierung auf 1)
A3: für disjunkte A, B: p(A v B) = p(A) + p(B) (endliche Additivität)
D.h. für disjunkte Ereignisse addieren sich die Wahrscheinlichkeit.
Def Probabilistische Unabhängigkeit/Schurz: probabilistisch unabhängig sind zwei Ereignisse A, B. gdw. p(A u B) = p(A) mal p(B) .
Probabilistisch abhängig: wenn P(A I B) ungleich p(A).
I 109
Def Erschöpfend/exhaustiv/Schurz:
a) objektive Wahrscheinlichkeit: eine Formel A mit n freien Variablen heißt exhaustiv, gdw. die Extension von A die Menge aller n Tupel von Individuen umfasst
b) subjektiv: gdw. die Menge aller A wahrmachenden Modelle (=extensionale Interpretationen) mit der Menge aller als möglich erachteten Modelle der Sprache koinzidiert.

I 110
Def Partition/Schurz: erschöpfende Disjunktion.
>Wahrscheinlichkeitstheorie.

_____________
Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders. Übersetzungen: Lexikon der Argumente
Der Hinweis [Begriff/Autor], [Autor1]Vs[Autor2] bzw. [Autor]Vs[Begriff] bzw. "Problem:"/"Lösung", "alt:"/"neu:" und "These:" ist eine Hinzufügung des Lexikons der Argumente.

Schu I
G. Schurz
Einführung in die Wissenschaftstheorie Darmstadt 2006

Send Link
> Gegenargumente gegen Schurz
> Gegenargumente zu Wahrscheinlichkeit ...

Autoren A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Y   Z  


Begriffe A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z