+3 Daumen
1,1k Aufrufe

Teil 1https://www.mathelounge.de/529251/artikel-regression-berechnung-regressionskoeffizienten

LinearRegression.png

Wie im vorangegangenen Teil bereits angekündigt, werden wir nun verifizieren, dass die aufwendig ermittelte Regressiongerade $$y=-0.8x+1.6=1.6-0.8x$$ für die Messwerte \(\{(x,y)\mid x,y\in\mathbb{R}\} :=\left\{(-2,4),(-1,2),(0,1),(1,0),(2,1)\right\}\) korrekt ist (nach der Methode der kleinsten Quadrate).

public static void main(final String... args){
        // Datensatz vorbereiten
        List<Data> data = new ArrayList<>();
        data.add(new Data(-2,4));
        data.add(new Data(-1,2));
        data.add(new Data(0,1));
        data.add(new Data(1,0));
        data.add(new Data(2,1));
       
        // Aufruf der Funktion zur Berechnung der linearen Ausgleichsgeraden.
        regression(data);
}

Auf der Konsole wird korrekterweise $$ 1.6-0.8*x$$ ausgegeben. Dass dieses Ergebnis plausibel ist, können wir der graphischen Darstellung der Punkte und der Regressionsgeraden erkennen:
image.png
5. Beispiel für die direkte Ermittlung der Regressionsgeraden

Eine direkte Berechnung der Regressionskoeffizienten \(a_0\) und \(a_1\) ist dank der im dritten Abschnitt hergeleiteten Formel

- \(n=5\), da wir \(5\) Messwerte haben.
- \(\sum\limits_{k=1}^{n}{y_k}=4+2+1+0+1=8\)
- \(\sum\limits_{k=1}^{n}{x_k}=-2+(-1)+0+1+2=0\)
- \(\sum\limits_{k=1}^{n}{x^2_k}=(-2)^2+(-1)^2+0^2+1^2+2^2=4+1+0+1+2=10\)
- \(\sum\limits_{k=1}^{n}{x_k\cdot y_k}=(-2\cdot 4)+(-1\cdot 2)+(0\cdot 1)+(1\cdot 0)+(2\cdot 1)=-8+(-2)+0+0+2=-8\)
- \(\varphi = \dfrac{1}{n\cdot \sum\limits_{k=1}^{n}{x^2_k}-\left(\sum\limits_{k=1}^{n}{x_k}\right)^2}=\dfrac{1}{5\cdot 10-0^2}=\dfrac{1}{50}\)
- \(a_0=\dfrac{1}{50}\cdot \left(8\cdot 10-0\cdot (-8)\right)=\dfrac{80}{50}=1.6\)
- \(a_1=\dfrac{1}{50}\cdot \left(5\cdot (-8)-0\cdot 8\right)=\dfrac{-40}{50}=-0.8\)

ebenfalls möglich und erspart einem in der Prüfung wertvolle Denkzeit. Für unser Beispiel mit den Messwerten \(\{(x,y)\mid x,y\in\mathbb{R}\} :=\left\{(-2,4),(-1,2),(0,1),(1,0),(2,1)\right\}\) sieht das folgendermaßen aus:

Dieser Artikel hat 50 Bonuspunkte erhalten. Schreib auch du einen Artikel.
geschlossen: Mathe-Artikel
Avatar von

    Hey sags doch anders.   Die Regressionsgerade verläuft durch den Schwerpunkt der Punktewolke


     (  x0  |  y0  )  =  (  1 / N )  SUMME  (  x_i  |  y_i  )       (  1  )


       Im Folgenden werde still schweigend voraus gesetzt - ohne dass ich dies in der Notation eigens vermerke -  dass du den Nullpunkt deines Koordinatensystems nach ( x0 | y0 ) verschiebst -  gerade beim Programmieren lässt sich das doch total geschickt bewerkstelligen.  Dann gilt für die Geradensteigung m die Momentenformel


                            x_m  y_m    

          m  =     -------------------------              (  2a  )

                            x_k  x_k


       In  ( 2a ) wurde von der ===>  Einsteinschen Indexkonvention Gebrauch gemacht.

   Fassen wir einmal die  N    x-Werte formal als  Komponen  eines  N-Dimensionalen Vektors im  |R  ^ N  auf - analog für y .   Dann steht doch im Zähler das  ===>  Skalarprodukt von x mit y


                           <  x  |  y  >

         m  =    --------------------------        (  2b  )

                        <  x  |  x  >



      Ich möchte noch eine Formel anfügen, die sich zwar nicht eignet zum unmittelbaren Rechnen.   Aber wenn du in ( 2b )  die üblichen Definitionen   von Betrag und Winkel einführst


                             ||   y  ||

         m  =     -----------------------     cos  (  ß  )        (  2c  )

                           ||  x  ||

        

       " Die   Steigung der Regressionsgeraden  ist gleich dem Verhältnis  '  Länge des y-Vektors geteilt durch Länge des x-Vektors  '  ;  gewichtet wird dieses steigungsmaß noch mit einem Korrelationskoeffizienten, nämlich dem Kosinus  des Winkels zwischen beiden Vektoren.  "

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community