0 Daumen
376 Aufrufe

Hallo liebe Mathematiker,

ich habe eine mathematische Frage zu einer Versuchsauswertung. Wir haben ein digitales Messinstrument (Spannung) verwendet. Der Hersteller gibt an, dass der echte Wert mit Sicherheit in einem Intervall [q-d;q+d] um den angezeigten Wert q liegt. Als Fehler für diese Messgröße habe ich daher in die Gauß'sche Fehlerfortpflanzung den Wert d eingesetzt.

Dasselbe Experiment haben wir dann mit einem Zeiger-Messinstrument wiederholt, das dieselbe Güte wie das digitale Messinstrument hat. Da haben wir den Anzeigefehler aber als etwa die Hälfte zwischen 2 Strichen auf der Anzeige abgeschätzt, weil wir relativ gut abschätzen konnten, ob der Zeiger in der ersten oder zweiten Hälfte zwischen zwei Anzeigestrichen steht.

Der beim digitalen Messgerät berechnete Gesamtfehler ist nun natürlich größer als der beim analogen Messgerät. Es kann aber doch nicht sein, dass analoge Messgeräte grundsätzlich genauer sind als digitale, weil man genauer ablesen kann, oder? Meine Hoffnung ist, dass wir mathematisch irgendwas falsch machen...

Avatar von

1 Antwort

+1 Daumen
 
Beste Antwort

Aloha :)

Die Gauß'sche Fehlerfortpflanzung rechnet immer mit der einfachen Standardabweichung oder auch mit dem sog. Standard-Fehler. Bei dem digitalen Messgerät garantiert der Hersteller, dass der echte Wert mit Sicherheit, also zu 100%, im Intervall \([q-d;q+d]\) liegt. Daher ist \(d\) der Maximalfehler und nicht der Standard-Fehler. Nehmen wir zur Korrektur an, der echte Messwert \(x\) befindet sich gleichverteilt in dem Intervall \([q-d;q+d]\). Dann ist die Breite dieses Intervalls \(2d\) und die Dichtefunktion hat einen konstanten Wert von \(p=\frac{1}{2d}\). Damit garantieren wir, dass die Fläche unter der Dichtefunktion auf \(1\) normiert ist.

Betrachten wir den Messwert als Zufallsvariable \(X\) mit dem Erwartungswert \(q\), beträgt seine Varianz:$$V(X)=\left<(x-q)^2\right>=\int\limits_{q-d}^{q+d}(x-q)^2\cdot p\,dx=p\cdot\left[\frac{(x-q)^3}{3}\right]_{x=q-d}^{q+d}$$$$\phantom{V(X)}=\frac{1}{2d}\cdot\left[\frac{d^3}{3}-\frac{(-d)^3}{3}\right]=\frac{1}{2d}\cdot\frac{2d^3}{3}=\frac{d^2}{3}$$Die Standardabweichung ist daher:$$\sigma=\sqrt{V(X)}=\frac{1}{\sqrt3}\cdot d\approx0,577\cdot d$$Du musst also den Maximalfehler \(d\), den der Hersteller des digitalen Gerätes angibt, mindestens mit dem Faktor \(\frac{1}{\sqrt3}\) korrigieren, um ihn auf den Standard-Fehler umzurechnen.

Eigentlich ist die oben angenommene Gleichverteilung des Messwertes \(x\) im Intervall \([q-d;q+d]\) auch nur eine grobe Näherung. Die Wahrscheinlichkeit sollte eher zu den Rändern des Intervalls hin abfallen. Dadurch reduziert sich der Korrekturfaktor von \(0,577\) noch weiter. Für eine Dreieckverteilung der Dichtefunktion bekomme ich als Korrekturfaktor \(\frac{1}{\sqrt6}\approx0,408\) heraus. Die Wahrheit liegt vermutlich irgendwo zwischen \(0,408\) und \(0,577\). Und das passt sehr gut zu deiner Fehlerabschätzung bei dem analogen Zeiger-Instrument.

Der Fehler liegt hier also tatsächlich in der mathematischen Auswertung, nicht in der Physik.

Avatar von 152 k 🚀

Wow, vielen Dank für diese äußerst aufschlussreiche Antwort. Die Berechnung für die Dreiecksform konnte ich in Analogie zu hier selbst durchführen und komme auch auf den Faktor 0,408.

Ich war schon am Verzeweifeln, dabei war es "nur" ein Fehler bei der Anwendung der Gaußschen Fehlerfortpflanzung.

Ein anderes Problem?

Stell deine Frage

Ähnliche Fragen

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community