Hallo
Aufgabe:
Von zwei Regressionsgeraden (aus Messdaten erstellt) wurde der Schnittpunkt bestimmt. Es soll aus den Unsicherheiten der Regressionsparameter die Unsicherheit des Schnittpunktes berechnet werden.
Problem/Ansatz:
Ich weiß nicht, wie die entsprechende Unsicherheit des Schnittpunktes berechnet werden kann bzw. welche Regressionsparameter dafür nötig sind (R-Quadrat, Standardabweichungen der Anstiege/Schnittpunkte der y-Achse...)
Die Funktionen der Regressionsgeraden sowie die entsprechenden Regressionsparameter (aus der Excel-RGP-Funktion) und Schnittpunkte habe ich unten aufgeführt. Wenn die Berechnung der Schnittpunktunsicherheit daran exemplarisch gezeigt werden kann, wäre das super, aber auch eine Skizze des Lösungswegs bzw. ein Ansatz hilft sehr.
(Die Messwerte liegen vor - sollten weitere Angaben benötigt werden, kann ich die sicherlich nachreichen)
Regressionsfunktion 1:
$$y = 71,317 - 0,16741x$$
Regressionsfunktion 2:
$$y = 65,501 - 0,028103x$$
Ermittelter Schnittpunkt:
x = 41,750
y = 64,328
Regressionsparameter für Regressionsfunktion 1:
Standardabweichung Anstieg | 0,001074751 |
Standardabweichung Schnittpunkt mit y-Achse | 0,04072725 |
Regressionskoeffizient (R2) | 0,998406701 |
Standardfehler Prognosewert | 0,081426134 |
F-Wert | 24438,51873 |
Regressionsparameter für Regressionsfunktion 2:
Standardabweichung Anstieg | 0,068053572 |
Standardabweichung Schnittpunkt mit y-Achse | 0,068053572 |
Regressionskoeffizient (R2) | 0,991618649 |
Standardfehler Prognosewert | 0,112626904 |
F-Wert | 17510,25158 |
Vielen Dank bereits im Voraus