7 Wahrscheinlichkeiten
Der Begriff der Wahrscheinlichkeit ist insbesondere in den Gesundheitswissenschaften von fundamentaler Bedeutung. Dies liegt z.T. daran, dass Experimente, anders als z.B. in der Physik, aus ethischen und praktikablen Gründen in der Regel nicht durchführbar sind. Aufgrund der Ungleichartigkeit der Versuchsobjekte - damit sind gewöhnlich Probanden oder Patienten gemeint - liegt es auf der Hand, dass die Ergebnisse normalerweise weder beliebig oft noch exakt reproduzierbar sind. Da "jeder Mensch anders ist", sind auch die Bemühungen die Versuchs- und Beobachtungsbedingungen konstant zu halten, zum Scheitern verurteilt.
Um die lebensrettende Wirkung von Antibiotika zu erkennen, brauchte man zu Flemmings Zeiten sicherlich keine Statistik. Bei den heute vorherrschenden Krankheiten oder Pflegeprobleme spielt die Statistik und damit auch der Wahrscheinlichkeitsbegriff aufgrund der oben erwähnten Variabilität eine entscheidende Rolle.
Auch im allgemeinen Sprachgebrauch ist das Wort "wahrscheinlich" gebräuchlich:
Morgen wird es wahrscheinlich regnen.
Wahrscheinlich wird das nächste Kind ein Mädchen.
Er wird höchst wahrscheinlich wieder gesund.
Die Wahrscheinlichkeit, dass das Neugeborene ein Jungen wird, beträgt etwa 50:50.
Die Wahrscheinlichkeit mit einem Würfel eine sechs zu Würfeln beträgt 1/6
An den Beispielen lassen sich unterschiedliche Wahrscheinlichkeiten unterscheiden: Subjektiv Empirisch Theoretisch
subjektiv
empirisch
theoretisch
7.1 Subjektive Wahrscheinlichkeit
Wir erkennen, dass unter den in 1. bis 3. genannten Wahrscheinlichkeiten jeder etwas anderes versteht. Wir nennen sie daher subjektive Wahrscheinlichkeiten. Demgegenüber wird in 4. und 5. der Versuch einer Quantifizierung unternommen.
7.2 Empirische Wahrscheinlichkeit
Stellen wir beispielsweise fest, dass bei zehnmaligem Werfen einer Münze 6 mal Zahl erscheint, (von 1000 Neugeboren 488 Mädchen sind), sprechen wir von einer empirisch festgestellten Wahrscheinlichkeit für Zahl von 6/10 (bzw. 488/1000 für Mädchen). Mit anderen Worten wir verstehen unter dem Begriff der empirischen Wahrscheinlichkeit \(P\) für das Ereignis \(E\) (abgekürzt \(P(E)\)) die relative Häufigkeit mit der das Ereignis \(E\) auftritt
7.3 Theoretische Wahrscheinlichkeit
Unter der theoretischen bzw. statistischen Wahrscheinlichkeit \(P(E)\) verstehen wir den Quotienten aus der Zahl der interessierenden (günstigen Fälle) und der Zahl aller möglichen Fälle. So bestimmt sich die Wahrscheinlichkeit mit einem idealen nicht gezinkten Würfel eine sechs zu Würfeln \(P(6) = 1/6\)
Anmerkung:
In der Praxis lässt sich die theoretische Wahrscheinlichkeit oft nicht bestimmen z.B.:
a) Wahrscheinlichkeit dass ein Neugeborenes weiblich ist.
b) Wahrscheinlichkeit dass ein Neugeborenes das erste Lebensjahr überlebt.
Übungsaufgaben:
Erläutern Sie den Unterschied zwischen der empirischen und theoretischen Wahrscheinlichkeit mit einem idealen Würfel eine drei zu Würfeln.
Werfen Sie 30- bis 50-mal eine Münze und bestimmen Sie die empirische Wahrscheinlichkeit für Zahl d.h. \(P(Z)\) nach \(n = 1; 3; 5; 10; 20; 30\) und gegebenenfalls 50 Würfen.
Definitionen:
\[\begin{aligned} \text{Für ein unmögliches Ereignis gilt:}\quad\quad P(E) &=& 0\\ \text{Für ein sicheres Ereignis gilt:}\quad\quad P(E) &=& 1 \end{aligned}\]
Daraus folgt unmittelbar:
Die Wahrscheinlichkeit für das Eintreffen eines zufälligen Ereignis E liegt im Bereich zwischen 0 und 1, d.h. \[\begin{aligned}
0 \leq P(E) \leq 1
\end{aligned}\]
Bisher haben wir uns nur mit der Wahrscheinlichkeit eines zufälligen Ereignisses \(E\) beschäftigt. In der Praxis interessiert man sich aber oft für das Auftreten mehrerer verbundener Ereignisse: Wir unterscheiden hierbei drei Typen zusammengesetzter Ereignisse:
Wie groß ist die Wahrscheinlichkeit dass entweder Ereignis A oder Ereignis B eintritt, \(P(A oder B)\)?
Wie groß ist die Wahrscheinlichkeit dass Ereignis A und Ereignis B eintritt, \(P(A und B)\)?
Wie groß ist die Wahrscheinlichkeit dass Ereignis B eintritt sofern Ereignis A eingetreten ist, \(P(B|A)\)?
Wir wollen uns dies an einem Beispiel verdeutlichen:
Die (Erkrankungs)wahrscheinlichkeit für A betrage 40%, die für B betrage 30%.
Wie groß ist die Wahrscheinlichkeit daß eine Person erkrankt ist (d.h. mindestens an einer Krankheit leidet?
Wie groß ist die Wahrscheinlichkeit bei einer Person beide Erkrankungen vorzufinden?
Wie groß ist die Wahrscheinlichkeit an B zu erkranken, wenn die Person schon an A erkrankt ist?
Für die Bestimmung der entsprechenden Wahrscheinlichkeiten bedienen wir uns der Additions- und der Multiplikationsregel.
Additionsregel:
Sind A und B voneinander unabhängige Ereignisse mit den Wahrscheinlichkeiten \(P(A)\) und \(P(B)\) so gilt: \[P(A oder B) = P(A) + P(B) - P(A und B)\]
wobei \(P(A und B)\) die Wahrscheinlichkeit bezeichnet gleichzeitig an A und B erkrankt zu sein.
Multiplikationsregel:
Sind A und B voneinander abhängige Ereignisse mit den Wahrscheinlichkeiten \(P(A)\) und \(P(B)\) so gilt:
\[P(A oder B) = P(A) \cdot P(B)\]
Anwendung
Setzen wir die Unabhängigkeit der beiden Erkrankungen voraus, so lassen sich die Fragen im obigen Beispiel beantworten:
Zu 3) Da die Ereignisse A und B als unabhängig vorausgesetzt werden, hängt die Wahrscheinlichkeit an B zu erkranken nicht davon ab, ob A vorliegt oder nicht, d.h. \(P(B|A) = P(B) = 0.3\ \textbf{oder}\ 30\%\).
Zu 2) Die Wahrscheinlichkeit an A und B zu erkranken beträgt gemäß der Multiplikationsregel \[P(A\ \text{und}\ B) = P(A) \cdot P(B) = 0.4 \cdot 0.3 = 0.12| \text{oder}\ 2\%\]
Zu 1) Die Wahrscheinlichkeit an A oder B zu erkranken, d.h. das mindestens an einer der beiden Krankheiten zu erkranken beträgt nach der Additionsregel \[P(A\ \text{oder}\ B) = P(A) + P(B) - P(A\ \text{und}\ B) = 0.4 + 0.3 - 0.12 = 0.58\ \text{oder}\ 58\%\]
Anmerkung:
Können die Ereignisse A und B niemals gleichzeitig auftreten, d.h. P(A und B) = 0, vereinfacht sich die Additionsregel zu \[P(A\ \text{oder}\ B) = P(A) + P(B)\]
Beispiel:
Die Wahrscheinlichkeit mit einem Würfel eine 6 oder eine 1 zu Würfel ist demnach
\(P(6\) oder \(1) = P(6) + P(1) = \frac{1}{6} + \frac{1}{6} = \frac{2}{6}=\frac{1}{3}\)
8 Odds
Als Odd wird die Chance bezeichnet, dass ein Ereignis ein- bzw. zutrifft. Man berechnet Odds, indem man die Wahrscheinlichkeit, dass ein Ereignis eintrifft, durch die Wahrscheinlichkeit, dass dieses Ereignis nicht eintrifft, dividiert. \[ \begin{aligned} Odd = \frac{p}{1-p} \end{aligned} \tag{8.1}\]
Nehmen wir einen sechs-seitigen Würfel als Beispiel. Uns interessiert nun, wie hoch die Chance ist eine 6 zu würfeln. Die Wahrscheinlichkeit eine 6 zu würfeln liegt bei \(p = \frac{1}{6}\). In die Gleichung 8.1 eingesetzt rechnen wir:
\[ Odd_{W=6} = \frac{p}{1-p} = \frac{\frac{1}{6}}{1 - \frac{1}{6}} = \frac{\frac{1}{6}}{\frac{5}{6}} = \frac{1}{6} \cdot \frac{6}{5} = \mathbf{ \frac{1}{5}} \]
Die Chance eine \(6\) zu würfeln liegt also bei \(\frac{1}{5}\).
Dieses Beispiel lässt sich noch leicht ohne rechnen lösen, da ein Würfel typischerweise nur auf einer seiner Seiten die Zahl \(6\) zeigt. Auf den übrigen fünf Seiten sind entsprechend die Zahlen von \(1\) bis \(5\) abgebildet. Wenn man Odds so versteht, dass die Anzahl der Möglichkeiten ein Ereignis zu erreichen (in diesem Falle \(= 1\), da es nur eine \(6\) auf dem Würfel gibt) ins Verhältnis gesetzt wird zu der Anzahl der Möglichkeiten das Ereignis nicht zu erreichen (in diesem Falle \(= 5\), da es fünf Würfelseiten gibt, die keine \(6\) zeigen), ergibt sich auch hier die Chance von \(\frac{1}{5}\).
8.1 Odds und Wahrscheinlichkeiten
Odds sind nicht das selbe wie Wahrscheinlichkeiten! Am Beispiel des Würfels lässt sich sagen:
Die Wahrscheinlichkeit eine \(6\) zu würfeln beträgt \(p_{w=6} = \mathbf{\frac{1}{6}}\)
Die Chance eine \(6\) zu würfeln beträgt \(Odd_{w=6} = \mathbf{\frac{1}{5}}\)
Jedoch lassen sich beide Werte in das entsprechende Gegenstück transformieren:
Wahrscheinlichkeiten in Odds umrechnen: \(Odds = \frac{p}{1-p}\)
Odds in Wahrscheinlichkeiten umrechnen: \(p = \frac{Odds}{Odds + 1}\)
8.2 Odds Ratio
Die so genannte Odds Ratio (OR) stellt die Odds zweier Gruppen in Relation. Hierbei werden die Odds einer Vergleichsgruppe durch die Odds einer Referenzgruppe dividiert. \[ \begin{aligned} Odds\ Ratio = \frac{Odds_{Vergleichsgruppe}}{Odds_{Referenzgruppe}} \end{aligned} \tag{8.2}\]
Die Odds Ratio kann Werte zwischen \(0\) und \(\infty\) (unendlich) annehmen.
Die Berechnung der Odds Ratio kann in vielen Fällen auch über eine \(2 \cdot 2\)-Felder-Tafel erfolgen.
nicht geimpft | geimpft | |
---|---|---|
erkrankt | a | b |
nicht erkrankt | c | d |
Die allgemeine Formel zur Berechnung der OR nach Tabelle 8.1 lautet: \[ \begin{aligned} OR = \frac{a \cdot d}{b \cdot c} \end{aligned} \tag{8.3}\]
Tabelle 8.2 zeigt die Ergebnisse einer ausgedachten Untersuchung zur Wirksamkeit von Impfungen.
nicht geimpft | geimpft | |
---|---|---|
erkrankt | 231 | 17 |
nicht erkrankt | 34 | 534 |
Setzt man diese Werte in Gleichung 8.3 ein, ergibt sich:
\[OR = \frac{a \cdot d}{b \cdot c} = \frac{231 \cdot 534}{17 \cdot 34} = \frac{123.354}{578} = \mathbf{213,41}\]
Das bedeutet, dass nicht-geimpfte
Personen ein mehr als 213-fach erhöhtes Risiko tragen zu erkranken als geimpfte
Personen.
Es ist wichtig zu beachten, dass bei der \(2 \cdot 2\)-Felder-Methode die OR aus Sicht der Gruppe aus Spalte 1 angegeben wird. Im Gegensatz dazu sind ORs aus Regressionsanalysen immer aus Sicht der Vergleichsgruppe (Gruppe + 1) zu interpretieren.
8.3 Interpretation
Die Interpretation der Odds Ratio folgt grob gesprochen der Logik:
- \(OR > 1\) = höhere Chance in
Spalte 1
bzw. in derVergleichsgruppe
- \(OR = 1\) = kein Unterschied
- \(OR < 1\) = geringere Chance in
Spalte 1
bzw. in derVergleichsgruppe
Eine Odds Ratio von (annähernd) \(1\) besagt, dass es keinen Unterschied zwischen den untersuchten Gruppen gibt.
Für Werte größer als \(1\) gilt, dass die Vergleichsgruppe eine höhere Chance (bzw. ein höheres Risiko) aufweist als die Ausgangsgruppe. In einer beispielhaften Untersuchung wurde mittels logistischer Regression berechnet, inwieweit das Geschlecht einen Einfluss auf die Berufung in den Aufsichtsrat eines Unternehmens hat. Hierbei wurde das Geschlecht weiblich
als Ausgangsgruppe gegen das Geschlecht männlich
als Vergleichsgruppe getestet. Die resultierende Odds Ratio lag bei \(1,58\). \[OR_{Geschlecht} = \frac{Odds_{maennlich}}{Odds_{weiblich}} = 1,58\]
Das bedeutet, dass Männer eine 58% größere Chance haben in den Aufsichtsrat berufen zu werden als Frauen. Es heisst aber nicht, dass die Chance bei 58% liegt - sie ist bei Männern um 58% größer.
Werte kleiner als \(1\) sind da schon schwieriger zu interpretieren. In einer beispielhaften Untersuchung wurde mittels logistischer Regression berechnet, inwieweit das Rauchverhalten einen Einfluss auf die Bildung eines Bronchialkarzinoms aufweist. Hierbei wurden Raucher
als Ausgangsgruppe gegen Nicht-Raucher
als Vergleichsgruppe getestet. Die resultierende Odds Ratio lag bei \(0.232\). \[OR_{Karzinom} = \frac{Odds_{Nicht-Raucher}}{Odds_{Raucher}} = 0,232\]
Hier kann man lediglich sagen, dass die Chance (bzw. das Risiko) ein Bronchialkarzinom zu entwickeln bei Nicht-Rauchern
kleiner ist als bei Rauchern
. Um welchen Faktor dieses Risiko nun wirklich kleiner ist, lässt sich aus der OR nicht direkt ablesen. Der Trick besteht darin, die Daten so umzuschreiben, dass Referenzgruppe und Vergleichsgruppe vertauscht werden: \[OR_{Karzinom} = \frac{Odds_{Raucher}}{Odds_{Nicht-Raucher}}\] In unserem ausgedachten Beispiel ergibt sich so eine Odds Ratio von: \[OR_{Karzinom} = \frac{Odds_{Raucher}}{Odds_{Nicht-Raucher}} = 4,31\] Jetzt kann man ablesen, dass Raucher
ein mehr als 4-fach erhöhtes Risiko haben ein Bronchialkarzinom auszubilden als Nicht-Raucher
.