Aufgabe:
Wir gehen von einer Regression mit dem gesuchten Polynom f(x) = w1 · x + w0 aus. D.h. wir suchen die Koeffizienten w1 und w0 (folgend als Vektor θ⃗ bezeichnet), sodass der Fehler zu den gemessenen Punkten ⃗y minimiert wird.
Gehen Sie von der Fehlerfunktion E2(⃗y, θ⃗) = 1 · N (yt − w1 · xt − w0)2 aus. Da wir die Fehler- 2 t=1
funktion minimieren wollen ist Ihre Aufgabe diese Funktion nach w0 und w1 abzuleiten. Das Ergebnis sind 2 Gleichungen die Null zu setzen sind. Da dies nun 2 Gleichungen mit 2 Unbekan- nten (w0, w1) darstellt wäre eine Umformung auf die Unbekannten möglich. Allerdings stellt sich dies als nicht trivial dar. Weshalb wir die Matrix-Schreibweise verwenden.
Problem/Ansatz:
Kann mir hier bitte jemand helfen ich weiß nicht wie das funktioniert :(