Aufgabe:
Seien \( X \) und \( Y \) unabhängig und gleichverteilt auf \( [0,1] \). Berechne die Dichte von \( X+Y \).
Lösung: Für \( x \in[0,1] \) gilt
\( \begin{aligned} f_{X+Y}(x) & =\int \limits_{-\infty}^{+\infty} f_{X}(x-y) f_{Y}(y) \mathrm{d} y \\ & =\int \limits_{0}^{1} f_{X}(x-y) \mathrm{d} y=\int \limits_{0}^{x} \mathrm{~d} y=\left.y\right|_{0} ^{x}=x . \end{aligned} \)
Für \( x \in[1,2] \) gilt
\( f_{X+Y}(x)=\int \limits_{0}^{1} f_{X}(x-y) \mathrm{d} y=\int \limits_{x-1}^{1} \mathrm{~d} y=\left.y\right|_{x-1} ^{1}=2-x . \)
Schlussendlich gilt \( f_{X+Y}(x)=0 \) für \( x \notin[0,2] \).
Problem/Ansatz:
Das ist ein Lösungsweg und ich versteh nicht, wie sich die Integralsgrenzen ergeben? Also [0,1] ist klar, aber wie entsteht der Schritt, dass auf einmal x in den Grenzen auftaucht?
Ich würde mich sehr über eine Antwort freuen!