Kurze Wiederholung der Theorie der Wahrscheinlichkeit

Wahrscheinlichkeiten

Dieses Kapitel gibt eine kurze Einführung bzw. Wiederholung in die Theorie der Wahrscheinlichkeit.

Wir interessieren uns (vorerst) für zufällige Ergebnisse in einem Ergebnisraum . Jedem Ereignis kann eine Wahrscheinlichkeit zugeordnet werden, für die die Axiome von Kolmogorov gelten:

  • (Wahrscheinlichkeiten liegen zwischen 0 und 1)
  • Für das sichere Ereignis gilt: (irgendein Ergebnis aus tritt sicher ein)
  • Für beliebige disjunkte (nicht überschneidende) Ereignisse und gilt (die Wahrscheinlichkeit, dass oder eintritt ist Summe der einzelnen Wahrscheinlichkeiten, wenn beide nicht gleichzeitig eintreten können)

Beispiel: Wir interessieren uns für das zufällige Ereignis Niederschlag am morgigen Tag. Unser Ergebnisraum sei:

Ein Ergebnis war dann zum Beispiel . Aus den Axiomen von Kolmogorov folgt:

Folgerungen

Daraus folgt direkt:

  • Die Wahrscheinlichkeit für das unmögliche Ereignis (leere Menge) ist:
  • Die Wahrscheinlichkeit des Gegenereignisses zu (d. h. tritt nicht ein) ist:

Beispiel: Würfel

Wir werfen einen fairen sechsseitigen Würfel.

Die Annahme „fairer Würfel“ entspricht dabei der Annahme, dass jede Seite dieselbe Wahrscheinlichkeit hat. Zum Beispiel gilt für die Wahrscheinlichkeit des Ereignisses : „Es fällt eine 6“

Oder allgemein:

Wobei die „Mächtigkeit“ von , also die Anzahl der Elemente in ist. Man nennt diese Definition einer Wahrscheinlichkeit auch Laplace-Wahrscheinlichkeit.

OddsAlternativ lassen sich Wahrscheinlichkeiten auch als Odds oder Chance darstellen:

Definition

Die Odds eines Ereignisses sind definiert als:

wobei das Gegenereignis zu ist. Es gilt .

Ein Odds von 1 entspricht also einer Wahrscheinlichkeit von 50%.

Fortsetzung Beispiel: Würfel

Der Odds für : “Der Würfel zeigt die Zahl 6” ist:

Man kennt den Odds auch als Wettquote. Bei einer Wahrscheinlichkeit ist die Wettquote für das Eintreten von dementsprechend . Wettet man auf , erhält man - neben dem Einsatz - das Fünffache des Einsatzes zurück, zusammen also das Sechsfache des Einsatzes.

Interpretation

Der mathematische Begriff Wahrscheinlichkeit kann dabei unterschiedlich interpretiert werden:

  • klassisch: Alle Elementarereignisse haben dieselbe Wahrscheinlichkeit (Laplace-Wahrscheinlichkeit)
  • als relative Häufigkeit bei unendlicher Wiederholung (Frequentistischer Wahrscheinlichkeitsbegriff)
  • subjektiv als Maß für den Glauben an das Eintreten (Bayesscher Wahrscheinlichkeitsbegriff)
  • als Eigenschaft eines physikalischen Systems (z. B. Propensität nach Karl Popper)

Frequentistischer Wahrscheinlichkeitsbegriff

Die Frequentistische Interpretation basiert auf dem Gesetz der großen Zahlen:

Wiederholt man ein Experiment, bei dem das Ereignis mit Wahrscheinlichkeit eintritt, -mal, dann nähert sich die relative Häufigkeit

mit steigendem immer mehr dem Wert . Dabei bezeichnet die Anzahl der Experimente, in denen eingetreten ist.

Relative Häufigkeit einer 6 beim fairen Würfel bei simulierten Wiederholungen

(Graphische Darstellung der relativen Häufigkeit über die Anzahl der Wiederholungen)

Bayesscher Wahrscheinlichkeitsbegriff

Der Bayessche Wahrscheinlichkeitsbegriff ist subjektiv. Er versteht Wahrscheinlichkeit als Grad persönlicher Überzeugung, dass ein Ereignis eintritt.

Dieser Grad lässt sich z.B. dadurch messen, wieviel man darauf wetten würde, dass ein Ereignis eintritt (welchen Odds man geben würde). Bei einem fairen Würfel würde man für das Würfeln der 6 z.B. einen Odds von 5:1 geben.

Die persönliche Überzeugung wird dabei durch Informationen gebildet. Das kann z.B. das Wissen sein, dass ein industriell gefertigter Würfel in der Regel fair ist (Vorwissen). Alternativ kann das Wissen auch durch Beobachtung (Daten) entstehen, z.B. in dem man die relative Häufigkeit bei n Wiederholungen betrachtet.

Der Bayessche Wahrscheinlichkeitsbegriff ist nicht notwendig für die Benutzung Bayesischer Statistik. Aber er verdeutlicht schon einen ersten Aspekt der Bayesischen Statistik:

Wahrscheinlichkeit entspricht Wissen gleich Information.

Verteilung und Zufallsvariablen

Verteilung

Wenn wir für jedes mögliche Ereignis die Wahrscheinlichkeit definieren, sprechen wir insgesamt von einer Verteilung.

Im Beispiel des fairen Würfels haben wir eine Gleich-Verteilung angenommen; jedes gleichgroße Ereignis hat die selbe Wahrscheinlichkeit.

Zufallsvariablen

Unter einer Zufallsvariablen verstehen wir die Zuordnung von Zahlen, zu jedem möglichen Ereignis zuordnen. Tritt ein Ereignis ein, dann sprechen wir von der Realisation der Zufallsvariable.

Beispiel Würfel

  • Ereignis : “Die Seite mit einem Auge liegt oben”
  • Ereignis : “Die Seite mit zwei Augen liegt oben”
  • Ereignis : “Die Seite mit drei Augen liegt oben”
  • Ereignis : “Die Seite mit vier Augen liegt oben”
  • Ereignis : “Die Seite mit fünf Augen liegt oben”
  • Ereignis : “Die Seite mit sechs Augen liegt oben”

Sei die Zufallsvariable “Anzahl der Augen”, dann gilt für alle :

  • tritt ein, dann ist

Damit lassen sich auch für Zufallsvariablen Wahrscheinlichkeiten und damit Verteilungen definieren:

Verteilung einer Zufallsvariablen

Die Verteilung einer Zufallsvariablen wird dadurch spezifiziert, dass alle Wahrscheinlichkeiten für alle möglichen Realisationen angegeben werden.

Binomialverteilung

Sei die Zufallsvariable “Bei -maligen Würfeln wir -mal die 6 gewürfelt. Dann ist Binomialverteilt, wir schreiben , und es gilt für

wobei hier .

Bedingten Wahrscheinlichkeiten

Unabhängigkeit

Ein wichtiges Grundkonzept von zufälligen Ereignissen ist die Unabhängigkeit, dass also das Eintreten eines Ereignisses nicht das Eintreten eines anderen Ereignisses beeinflusst.

Interessanter ist in der Regel die Abhängigkeit von Ereignissen. In diesem Fall ändert sich die Wahrscheinlichkeit für das Eintreten von durch das Eintreten von . Bayesisch betrachtet gewinnen wir durch das Eintreten von Information über das Eintreten von .

Stochastische Unabhängigkeit

Zwei Ereignisse heißen stochastisch unabhängig, wenn gilt:

Dabei meint , dass beide Ereignisse eintreten.

Zwei Zufallsvariablen heißen stochastisch unabhängig, wenn gilt:

für alle möglichen Werte von und . Dabei meint , dass beide Ereignisse eintreten, also dass den Wert annimmt und den Wert .

Beispiel: Fairer Würfel

Sei : “Es fällt eine 5 oder 6”, : “Es fällt eine gerade Zahl”. Dann ist : “Es fällt eine 6”. Es gilt:

Die beiden Ereignisse sind also voneinander unabhängig!

Wir nennen

  • gemeinsame Wahrscheinlichkeit
  • bzw. Rand- oder marginale Wahrscheinlichkeit

Satz von Bayes

Aus der Definition der bedingten Wahrscheinlichkeit ergeben sich folgende Zusammenhänge:

Daraus folgt, dass

und somit der Satz von Bayes:

Satz von der totalen Wahrscheinlichkeit

können wir dabei mit dem Satz von der totalen Wahrscheinlichkeit berechnen:

Wir erhalten eine weitere Version des Satzes von Bayes:

Beispiel: unfairer Würfel?

Als erstes Beispiel überlegen wir uns folgende Situation. Ein Bekannter von Ihnen besitzt zwei identische aussehende Würfel. Einer davon ist fair, einer Würfel immer die 6. Der Bekannte würfelt mit einem der beiden Würfel, es fällt die sechs. Ist das nun der unfaire Würfel?

Wir definieren uns folgende Ereignisse und Wahrscheinlichkeiten:

  • Ereignis : Der Würfel ist fair.
  • Ereignis : Eine 6 fällt.

Die Wahrscheinlichkeit von hängt von ab!

  • : Würfel ist fair;
  • : Würfel ist unfair;

Nach Laplace gehen wir außerdem von aus; sprich: Der Bekannte hat zufällig einen Würfel ausgewählt. (Das ist eine Vornahme oder Vorwissen. Sie kennen den Bekannten besser, können diese Wahrscheinlichkeit vielleicht besser einschätzen.)

Anwendung des Satz von Bayes

Dann gilt mit dem Satz von Bayes:

So erhalten wir , was bedeutet, dass unter der Bedingung, dass B eingetreten ist, das Ereignis A mit Sicherheit stattfindet.

Quiz zur Wahrscheinlichkeit

Aufgabe 1

Auf einem Campus gibt es 250 Mathematik-Studierende und 750 Soziologie-Studierenden. Sie begegnen zufällig einer Person auf dem Campus. Ohne weiteres Wissen, wie groß ist die Wahrscheinlichkeit, dass die Person Mathematik studiert?

  • 0.5
  • 0.25
  • 5
  • 25
  • 0

Aufgabe 2

Sie wissen, dass 50 der Mathematik-Studierenden weiblich sind. Sie begegnen zufällig einer Person auf dem Campus. Wie groß ist die Wahrscheinlichkeit, dass es sich um eine Mathematikerin handelt?

  • 0.5
  • 0
  • 0.25
  • 0.05

Sie begegnen auf dem Campus zufällig einer Person, die Mathematik studiert. Wie groß ist die Wahrscheinlichkeit, dass diese weiblich ist?

  • 0.25
  • 0.05
  • 0.5
  • 0.2
  • 0

Dabei handelt es sich um eine:

  • marginale Wahrscheinlichkeit
  • bedingte Wahrscheinlichkeit
  • inverse Wahrscheinlichkeit

Frage 3

Sie wissen, dass 450 der Soziologie-Studierenden weiblich sind. Sie begegnen zufällig einer Person auf dem Campus. Wie groß ist die Wahrscheinlichkeit, dass es sich um eine Soziologin handelt?

  • 0.05
  • 0.6
  • 0.75
  • 0.45

Sie begegnen zufällig einer Person auf dem Campus. Wie groß ist die Wahrscheinlichkeit, dass diese Person weiblich ist?

  • 0.75
  • 0.05
  • 0.45
  • 0.5

Dabei handelt es sich um eine:

  • bedingte Wahrscheinlichkeit
  • marginale Wahrscheinlichkeit
  • inverse Wahrscheinlichkeit

Frage 4

Sie begegnen zufällig einer weiblichen Person auf dem Campus. Wie groß ist die Wahrscheinlichkeit, dass es sich um eine Mathematikerin handelt?

  • 0.5
  • 0.25
  • 0.75
  • 0.1

Um das zu berechnen, benutzen wir den:

  • Satz von Gauss
  • Satz von Bayes
  • Satz von Pythagoras

Der Satz von Bayes

Beispiel

Ein einfaches Beispiel soll die Wirkungsweise des Satz von Bayes verdeutlichen:

Medizinischer Test

Ein medizinischer Test soll das Vorliegen einer Krankheit feststellen. Solche Tests sind nicht ganz fehlerfrei, es kommt zu falsch positiven und falsch negativen Ergebnissen.

Wir definieren uns folgende Ereignisse:

  • : Eine Person ist krank
  • : Der Test zeigt ein positives Ergebnis

Der Test wird durchgeführt, wenn gewisse Symptome auftreten. Aus Erfahrung weiß man, dass 2% derjenigen, die den Test machen, wirklich die Krankheit haben. Bevor jemand den Test macht, nehmen wir also an, dass sie Wahrscheinlichkeit für 2% ist. Wir nennen diese auch Priori-Wahrscheinlichkeit - Wahrscheinlichkeit vor der Beobachtung (lateinisch a priori, etwa “von vorher”):

  • (Wahrscheinlichkeit, die Krankheit zu haben)
  • (Wahrscheinlichkeit, die Krankheit nicht zu haben)

Liegt die Krankheit vor, zeigt der Test in 95% der Fälle ein (korrektes) positives Ergebnis, in 5% der Fälle ein (falsches) negatives Ergebnis:

  • (korrekt positiv)
  • (falsch negativ)

Liegt keine Krankheit vor, zeigt der Test in 90% der Fälle ein (korrektes) negatives Ergebnis, in 10% der Fälle ein (falsches) positives Ergebnis:

  • (korrekt negativ)
  • (falsch positiv)

Die Annahmen über die Wahrscheinlichkeit von gegeben nennen wir Modell-Annahmen. Ihnen liegt ein stochastisches Modell zugrunde, hier die Bernoulli-Verteilung (Binomial-Verteilung mit ).

Fragestellung

Frage: Wie groß ist die Wahrscheinlichkeit, krank zu sein, wenn der Test positiv ausfällt?

Wir nennen diese gesuchte Wahrscheinlichkeit die Posteriori-Wahrscheinlichkeit, von lateinisch a posteriori, etwa “von nachher”.

Für die Beantwortung dieser Frage brauchen wir den Satz von Bayes.

Der Satz von Bayes

Der Satz von Bayes ermöglicht es uns, die bedingte Wahrscheinlichkeit “umzudrehen” (bis ins 20. Jahrhundert sprach man auch von inverser Wahrscheinlichkeit). Wir wissen die bedingte Wahrscheinlichkeit eines Ereignisses gegeben das Ereignis eingetreten ist. Daraus können wir schließen, wie die Wahrscheinlichkeit des Ereignisses gegeben das Ereignis eingetreten ist.

Der Satz von Bayes lautet in der einfachsten Form

oder auch:

Wenn wir nicht kennen, können wir die Wahrscheinlichkeit wie folgt über die bedingten Wahrscheinlichkeiten berechnen. Zusammengenommen lautet der Satz von Bayes dann:

Medizinischer Test

Zurück zum Beispiel medizinischer Test. Unsere Frage war: Wie groß ist die Wahrscheinlichkeit, krank zu sein, wenn der Test positiv ausfällt?

Priori-Annahmen:

  • (Person ist krank)
  • (Person ist gesund)

Modell-Annahmen

  • (richtig positiv)
  • (falsch negativ)
  • (richtig negativ)
  • (falsch positiv)

Wir setzen die Priori-Wahrscheinlichkeit und die bedingten Wahrscheinlichkeiten und in den Satz von Bayes ein:

Interpretation

Nach Beobachtung des positiven Testergebnisses ist also die Wahrscheinlichkeit, dass die Person krank ist etwa 16,2%. Aus unserer Priori-Wahrscheinlichkeit wurde durch die Beobachtung die Posteriori-Wahrscheinlichkeit.

Die Posteriori-Wahrscheinlichkeit ist hier relativ gering, weil schon die Priori-Wahrscheinlichkeit sehr gering war.

Auch der Effekt eines negativen Tests lässt sich berechnen:

Ist der Test also negativ, ist die Wahrscheinlichkeit, dass die Person krank ist, bei etwa 15,5%. Praktisch können wir in diesem Fall also mit großer Wahrscheinlichkeit ausschließen, dass die Person Krankheit hat.

Im Kontext des medizinischen Tests benötigen wir im Nenner der Bayes-Formel, weil wir nicht nur die Wahrscheinlichkeit berücksichtigen wollen, dass eine kranke Person positiv getestet wird, sondern auch die Wahrscheinlichkeit, dass eine gesunde Person fälschlicherweise positiv getestet wird.

Der Term gibt uns die Wahrscheinlichkeit, dass jemand, der krank ist, auch einen positiven Test hat, während die Wahrscheinlichkeit darstellt, dass jemand, der nicht krank ist, dennoch ein positives Testergebnis erhält. Ohne diesen zweiten Term würden wir die Häufigkeit von falsch positiven Ergebnissen im Bezug auf die gesamte Population ignorieren, was zu einer Überschätzung der tatsächlichen Wahrscheinlichkeit führen würde, dass eine Person mit einem positiven Test tatsächlich krank ist. Der Satz von Bayes berücksichtigt beide Aspekte, um ein umfassendes Bild der Posteriori-Wahrscheinlichkeit zu geben.

Bemerkungen

  • Priori-Wahrscheinlichkeit () gleich 0, dann ist auch die Posteriori-Wahrscheinlichkeit unabhängig vom Modell immer gleich 0 - wir schließen ja schon a priori aus, dass die Person krank ist.

  • Ist die Priori-Wahrscheinlichkeit gleich 1, dann ist auch die Posteriori-Wahrscheinlichkeit unabhängig vom Modell immer gleich 1 - wir sind ja schon a priori sicher, dass die Person krank ist.

  • Ist die Wahrscheinlichkeit für einen falsch positiven Test gleich 0, dann ist die Posteriori-Wahrscheinlichkeit bei positivem Test gleich 1.

  • Ist die Wahrscheinlichkeit für den falsch positiven Test und die Wahrscheinlichkeit für einen richtig positiven Test jeweils gleich 0.5, dann ist die Posteriori-Wahrscheinlichkeit gleich der Priori-Wahrscheinlichkeit - der Test sagt dann ja nicht aus, das Testergebnis () ist stochastisch unabhängig von .

  • Mit größerer Priori-Wahrscheinlichkeit ist auch die Posteriori-Wahrscheinlichkeit größer - wir “glauben” ja schon vorher eher daran, dass die Person krank ist.

  • Bei positivem Testergebnis ist die Posteriori-Wahrscheinlichkeit größer (oder gleich) als die Priori-Wahrscheinlichkeit - die Beobachtung des Testergebnisses “drückt” die Wahrscheinlichkeit also in eine Richtung; wir lernen aus der Beobachtung.

  • Analog ist bei negativem Testergebnis die Posteriori-Wahrscheinlichkeit kleiner (oder gleich) als die Priori-Wahrscheinlichkeit.

  • Für “schlechte Test” (also geringe Wahrscheinlichkeit für richtig positiven Test oder hohe Wahrscheinlichkeit für falsch positive Tests) ist der Unterschied zwischen Priori- und Posteriori-Wahrscheinlichkeit geringer - wir lernen weniger aus der Beobachtung.

Bayesianisches Lernen

Zusammenfassung

In der Anwendung des Satzes von Bayes auf medizinische Tests und Qualitätskontrolle lernen wir, wie man anhand von Daten Wahrscheinlichkeiten aktualisiert. Im medizinischen Kontext helfen uns a priori und a posteriori Wahrscheinlichkeiten zu verstehen, wie sich die Einschätzung der Krankheitswahrscheinlichkeit eines Patienten nach einem Testergebnis ändert. In der Qualitätskontrolle nutzen wir den Satz von Bayes, um die Wahrscheinlichkeit zu bestimmen, dass ein Produkt von einer bestimmten Firma stammt, basierend auf der Anzahl der gefundenen Ausschussstücke. Diese fortgeschrittenen Bayesianischen Methoden ermöglichen es uns, unsere Schätzungen zu verfeinern und zu verbessern, während wir mehr Daten sammeln, und illustrieren die dynamische Natur von Wahrscheinlichkeiten in der statistischen Inferenz.

Der Satz von Bayes hilft also, aus für zu lernen. Beim Beispiel “medizinischer Test” war

  • a priori, also vor dem Test die Wahrscheinlichkeit, dass der Patient krank ist, bei 2%,
  • a Posteriori, also nach positivem Testergebnis, lag die Wahrscheinlichkeit, dass der Patient krank ist, bei 16,2%.

Durch die Beobachtung (des Testergebnisses) haben wir Wissen (Information) hinzugewonnen. Information wird durch eine Wahrscheinlichkeitsverteilung ausgedrückt.

Wir können allerdings nur dann Wissen hinzugewinnen, wenn und nicht (stochastisch) unabhängig sind. Sind und unabhängig, gilt nämlich

und nach Definition der bedingten Wahrscheinlichkeit

Das heißt, das Eintreten (oder Nicht-Eintreten) von ändert die Wahrscheinlichkeit von nicht, liefert also keine Information über .

Qualitätskontrolle

Wir sehen uns ein weiteres Beispiel aus der Qualitätskontrolle an:

In einer Fabrik werden Vorprodukte von zwei verschiedenen Firmen (A Productions und B-warez) weiterverarbeitet. Dabei stammen 70% der Vorprodukte von Firma A und 30% von Firma B. Aus langjähriger Erfahrung wissen die Arbeiter der Fabrik:

  • Die Ausschussquoten betragen 1% bei Firma A und 5% bei Firma B.

Die Arbeiter finden eine neutrale Kiste des Vorprodukts (mit sehr vielen Teilen) ohne weitere Information über den Hersteller. Sie kontrollieren Stück und entdecken Ausschussstücke. Ist aus diesem Ergebnis ein Rückschluss auf den Produzenten möglich?

Sei also:

  • Ereignis : Los kommt von Firma A Productions
  • Zufallsvariable : “Anzahl der Ausschussstücke” bei

Für unsere Beobachtung können wir eine Verteilung angeben, die jedoch vom Eintreten von abhängt. Es handelt sich um eine Binomial-Verteilung mit , wobei die Wahrscheinlichkeit des Eintretens von abhängt:

  • Ist eingetreten, also die Kiste kommt von Firma A, dann ist die Wahrscheinlichkeit für die Produktion eines Ausschussstückes
  • Ist dagegen eingetreten, also die Kiste kommt aus Firma B, dann ist die Wahrscheinlichkeit

Bemerkung: Eigentlich wird hier Ziehen ohne Zurücklegen gemacht, sprich wir müssten die Hypergeometrische Verteilung benutzen. Da wir aber keine Angabe über die Anzahl der Teile in der Kiste haben (nur “sehr viele”), nehmen wir die Binomialverteilung als Annäherung.

Dementsprechend ergibt sich die bedingte Verteilung bzw. Datenverteilung von :

mit der Wahrscheinlichkeit der Binomialverteilung:

Satz von Bayes

Der Satz von Bayes lässt sich analog wie zuvor anwenden:

Posteriori-Wahrscheinlichkeiten

Es ergeben sich folgende Posteriori-Wahrscheinlichkeiten:

y0123456
P(A | Y = y)0.9930.9650.8420.5050.1640.0360.007
P(¬A | Y = y)0.0070.0350.1580.4950.8360.9640.993

Je nach Höhe von y können wir also mehr oder weniger gut angeben, aus welcher Firma das Los wahrscheinlich kommt.

Bei y = 3 können wir uns nicht wirklich zwischen den Firmen entscheiden, aber die Posteriori-Wahrscheinlichkeit

ist kleiner als unsere ursprüngliche Priori-Wahrscheinlichkeit .

Weiter Lernen

In diesem Fall können wir die Posteriori-Wahrscheinlichkeit wiederum als Priori für eine neue Stichprobe verwenden.

Sei nun:

  • Zufallsvariable : “Anzahl der Ausschussstücke” bei weiteren

Offensichtlich gilt wieder . Nun lässt sich wie folgt berechnen:

Die Wahrscheinlichkeitsverteilung der Daten hängt nicht von ab. Als Priori benutzen wir hier die vorherige Posteriori-Wahrscheinlichkeit.

Neue Posteriori-Wahrscheinlichkeiten

Sehen wir nach den Stücken Ausschuss unter den ersten 100 untersuchten Stücken erneut Stücke Ausschuss, so erhalten wir folgende Posteriori-Wahrscheinlichkeiten:

Für Stücke Ausschuss erhalten wir neue Posteriori-Wahrscheinlichkeiten:

Zum Beispiel geht bei erneut Ausschussstücken unsere Tendenz nun klarer in Richtung Firma B.

Quiz

Bei einem Radrennen wird ein Doping-Test durchgeführt. Die Firma, die den Test herstellt, gibt an, dass der Test zu 99.5% positiv ausfällt, falls ein Sportler gedopt ist. Ist ein Sportler nicht gedopt, so beträgt die Wahrscheinlichkeit für einen positiven Test 1%. Aus Erfahrung schätzt man, dass ein Viertel der Sportler gedopt ist.

Sei  die Zufallsvariable: Der Sportler ist gedopt und  die Zufallsvariable: Der Test fällt positiv aus.

Welche der folgenden Aussagen sind richtig? (Mehrere Antworten können richtig sein)

  • P(D)=0.01
  • P(D¯)=0.75
  • P(D)=0.995
  • P(D¯)=0.995

Welche der folgenden Aussagen sind richtig? (Mehrere Antworten können richtig sein)

  • P(T|D)=0.995
  • P(T|D¯)=0.01
  • P(T|D)=0.01
  • P(T|D)=0.25

Wie groß ist die Wahrscheinlichkeit, dass der Test positiv ausfällt?

  • P(T|D)=0.48
  • P(T)=0.48
  • P(T)=0.25625
  • P(T)=0.995

Wie groß ist die Wahrscheinlichkeit, dass ein Sportler nicht gedopt ist, obwohl der Test positiv ausfällt?

  • P(D¯|T)≈0.168
  • P(D¯|T)≈0.039
  • P(D¯|T)≈0.029

Um das zu berechnen, benutzen wir den:

  • Satz von Gauss
  • Satz von Bayes
  • Satz von Pythagoras

Nächstes Kapitel: BaySta-Kapitel-Grundlagen