Aufgabe:
IX Ein Fallschirm sinkt mit einer mittleren Geschwindigkeit von 5,5 m/s. a) Wie lange dauert es, bis ein in 5000 m Höhe abgesprungener Pilot den Erdboden erreicht? b) Wie lange dauert es, wenn er zwischen 4000 m und 3000 m Höhe eine Wolke durchfällt, in der ein Aufwind von 3,5 m/s herrscht
Problem:
Komme mit der Aufgabe leider nicht weiter..
Hallo
Weg= Geschwindigkeit * Zeit, s=v*t, s und v sind gegeben, daraus t.
b) der Aufwind vermindert sein v um 3,5m/s
jetzt hast du s1=(5-3,5)m/s*t1 und s1=1000 m. dann s2=5m/s*t 2, s2=(5000-1000)m
dann t=t1+t2
Gruß lul
Danke ihnen.....
a) 5000m : (5,5m/s) = 909s
b) Bei den 1000m mit Aufwind sinkt er nur mit 2m/s also braucht er
dort 1000m : (2m/s) = 500s
und bei den restlichen 4000m braucht er 4000m : ( 5,5m/s)=727s
also insgesamt 1227s.
Ein anderes Problem?
Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos