Jeder Punkt auf soll Näherungsweise durch eine Gerade angenähert werden. Das kann aber i.A. nicht exakt passieren, sondern es treten Fehler auf. Das Modell lautet also
$$ \epsilon_i = a_0 + a_1 t_i - z_i $$ und die Summe der quadratischen Anpassungsfehler \( \epsilon_i \) soll minimiert werden.
Man hat also ein Problem der folgenden Form zu lösen
$$ \left \| \begin{pmatrix} 1 & t_1\\ \cdots & \cdots \\ 1 & t_n \end{pmatrix} \begin{pmatrix} a_0 \\ a_1 \end{pmatrix} - \begin{pmatrix} z_1 \\ \cdots \\ z_n \end{pmatrix} \right \|_2 \to \text{ Minimieren } $$ oder in Matrixschreibweise $$ \| A x - z \|_2 \to \text{ Minimieren } $$
Dabei gilt $$ A = \begin{pmatrix} 1 & t_1\\ \cdots & \cdots \\ 1 & t_n \end{pmatrix}, \ \ x = \begin{pmatrix} a_0 \\ a_1 \end{pmatrix} \text{ und } b = \begin{pmatrix} z_1 \\ \cdots \\ z_n \end{pmatrix} $$
Die Lösung für \( x \) ist $$ x = \left( A^T A \right)^{-1} A^T b $$
Jetzt muss man die Größen \( t_i \) und \( z_i \) bestimmen, also zu welchem Zeitpunkt ist welche Messung gemacht worden und alles einsetzen und ausrechnen.