Aufgabe:
Sei
A = {(x1, x2) ∈ R: x2 > 0, 1 ≤ (x1)^2+(x2)^2≤ 3}
und f(x)= ex1^2*ex2^2
Berechne ∫ af(x) dx
Problem/Ansatz:
Die Bedingung 1 ≤ (x1)^2+(x2)^2≤ 3 drückt aus, dass (x1, x2) auf einem Kreisring mit innerem Radius 1
und äußerem Radius √3 liegt, die Bedingung x2 > 0, dass es nur ein halber Kreisring oberhalb der x1-Achse
ist. In Polarkoordinaten bedeutet das, dass 1 ≤ r ≤√3 und 0 ≤ ϕ ≤ π. Außerdem ist f(x) = e^x1^2*e^x2^2 = e(x1+x2)^2 Wir verwenden den Transformationssatz mit Polarkoordinaten und erhalten
∫a f(x)dx = ∫ (π bis 0) ∫ ( √3 bis 1 ) er^2r dr dΦ
wir berechne ich nun das Integral aus schritt für schritt ich weiß durch substitution muss man auf Stammfkt kommen aber wie macht man das genau