Nach dem Satz über die totale Wahrscheinlichkeit (mit Baum herleiten) gilt:$$ \begin{aligned} P(A) & = P(A|B)\cdot P(B)+P(A|B^C)\cdot P(B^C) \\ & = P(A|B) \cdot P(B)+P(A| B)\cdot P(B^C) \\ & = P(A|B) \cdot \big(P(B)+P(B^C)\big) \\ & = P(A|B) \cdot 1. \end{aligned} $$Und da nach dem Satz von Bayes überdies \(P(A|B)=\frac{P(A\cap B)}{P(B)}\) gilt, folgt letztlich, dass \(P(A∩B) = P(A)\cdot P(B)\).
Das zeigt formal, was intuitiv ganz ersichtlich ist:
Wenn die Wahrscheinlichkeit von A unter der Bedingung B gleich der Wahrscheinlichkeit von A unter der Bedingung von "Nicht B" ist, so scheint es keinen stochastischen Zusammenhang zwischen den beiden zu geben (denn die Information, dass A unter der Bedingung von B (oder eben nicht) geschieht ist nichtssagend): Es folgt Stochastische Unabhängigkeit; genau das sagt \(P(A∩B) = P(A)\cdot P(B)\).